Wenn Unternehmen über AI Readiness sprechen, konzentrieren sich viele zunächst auf die Lizenzierung und Schulungen. Was häufig übersehen wird: eine schlechte Datenbasis führt zu schlechten Ergebnissen bei der Nutzung von KI. Genauer gesagt handelt es sich um ROT Inhalte, also redundante, veraltete und triviale Inhalte (ROT = redundant, outdated, trivial), die in SharePoint, OneDrive und Teams gespeichert sind.
Diese Daten belegen nicht nur Speicherplatz, sie verschlechtern aktiv die Qualität von KI-Antworten, erhöhen das Risiko von Oversharing und untergraben das Vertrauen in KI-generierte Ergebnisse. Wenn Unternehmensinhalte unstrukturiert und ungepflegt sind, werden alle Antworten von Copilot dies klar widerspiegeln.
Ein Bericht von Statista aus dem Jahr 2024 ergab, dass über 60 Prozent der Unternehmensinhalte in Microsoft 365 entweder veraltet sind oder von Anwendern nicht mehr genutzt werden. Das ist ein großes Problem für KI-Modelle, die auf der Grundlage dieser Unternehmensdaten Zusammenfassungen, Interpretationen oder Vorschläge erstellen sollen.
KI-Systeme unterscheiden nicht zwischen relevanten und irrelevanten Dateien, wenn sie nicht ausdrücklich dazu aufgefordert werden. Das bedeutet:
Das Ergebnis? Das Vertrauen in KI wird beschädigt. Endanwender hinterfragen Copilot-Antworten, IT-Security-Teams sind auf Grund der intransparenten Datensicherheitslage besorgt und auf die IT- und Fach-Abteilungen kommen Mehraufwände für die Datenbereinigung zu.
Microsoft Copilot behandelt alls verfügbaren Daten und Informationen gleich, unabhängig von der Aktualität, Zeitpunkt der Freigabe oder Dauer des Zugriffs. Wenn eine M365-Umgebung viele veraltete Besprechungsnotizen, duplizierte PDFs und verwaiste Excel-Dateien enthält, wird Copilot genau diese Daten verwenden.
Microsoft selbst räumt dies ein. Die Copilot Lab-Dokumentation fordert Unternehmen dazu auf, ihre Informationsarchitektur zu verbessern und veraltete Inhalte vor der Copilot-Einführung zu bereinigen. Die meisten Unternehmen stellt dies jedoch vor eine unlösbare Aufgabe: sie nicht wissen, wo sie anfangen sollen.
Unternehmen, die sich auf die Einführung von Copilot vorbereiten, sollten den Kampf gegen ROT zu einer strategischen Initiative machen - nicht nur, um Speicherplatz zu sparen, sondern auch, um die Zuverlässigkeit und Effizienz der KI direkt zu optimieren.
Im Folgenden erfahren Sie, wie zukunftsorientierte Unternehmen dieses Problem angehen:
Diese Schritte sind nicht theoretisch. Rencore Governance-Kunden wenden sie bereits heute an, um ihre Microsoft 365 Umgebungen auf eine kontrollierte und effektive Copilot-Einführung vorzubereiten.
Viele Unternehmen erliegen dem Irrglauben, KI-Governance beginne mit dem Roll-Out von Copilot. In der Regel ist es zu diesem Zeitpunkt allerdings bereits zu spät.
Echte Governance von KI-Systemen wie Copilot beginnt bei der Datenbasis - VOR dem Roll-Out! Nur so kann eine KI gute Ergebnisse liefern, die nicht auf veralteten, falschen oder sensiblen Daten basieren. Geschieht dies nicht, kann keine Governance- oder Sicherheits-Richtlinie der Welt ihre Endanwender und ihr Unternehmen vor Falschinformationen, Oversharing und im schlimmsten Fall Rufschädigung bewahren.
Der erste und essentiellste Schritt zu effizienter und verantwortungsvoller Copilot-Governance ist keine Richtlinie sondern ein Diätplan für ihre Unternehmensdaten.
Aktuelle, gepflegte und gelabelte Inhalte sind der Garant für qualitativ hochwertige Ergebnisse, fundierte Entscheidungen und einen vertrauenswürdigen Einsatz von KI in ihrem Unternehmen.
Erfahren Sie, wie Rencore Governance Sie dabei unterstützt, ROT zu reduzieren und KI-Ergebnisse zu verbessern. Schließlich geht es bei der Herausforderung KI nicht nur darum, bereit zu sein, sondern auch darum, bereit zu bleiben!
Sie haben weitere Fragen haben oder sind interessiert an einer Demo unserer brandneuen Copilot- und KI-Governance-Lösung? Dann machen Sie mit Klick auf den Link den nächsten Schritt.