Blog - Rencore

Der Aufstieg von Microsofts KI-Agenten: Was IT-Leiter über Governance wissen müssen

Geschrieben von Matthias Einig | 27.10.2025 10:15:00

Ihre Microsoft 365-Umgebung ist möglicherweise bereits voll von KI-Agenten, die Sie nicht autorisiert haben. Von benutzerdefinierten Bots, die in Copilot Studio erstellt wurden, bis hin zu Workflow-Agenten, die in Power Platform erstellt wurden - diese digitalen Mitarbeiter vermehren sich schnell. Für CIOs und IT-Führungskräfte ist die entscheidende Frage nicht, ob Sie sie einführen, sondern wie Sie sie steuern.

Ohne einen robusten Governance-Plan kann sich der Traum von KI-gesteuerter Effizienz schnell in einen Alptraum aus Sicherheitsschwachstellen, Compliance-Verstößen und Kostenspiralen verwandeln. Die Verwaltung dieser Komplexität muss jedoch keine Bürde sein. Mit den richtigen Tools und Erkenntnissen können Sie Ihr Unternehmen in die Lage versetzen, sicher zu innovieren und potenzielles Chaos in kontrollierten, messbaren Erfolg zu verwandeln.

Dieser Artikel bietet einen umfassenden Einblick in die Welt von Microsofts KI-Agenten, die konkreten Risiken, die sie darstellen, und einen klaren, datengestützten Weg, um sie effektiv zu steuern.

Microsoft KI-Agenten verstehen:
Die neue digitale Belegschaft

KI-Agenten sind bereits in die täglichen Arbeitsabläufe von Microsoft 365 eingeflochten. Vom Verfassen von Dokumenten in Word bis hin zur Automatisierung mehrstufiger Geschäftsprozesse in Power Platform bilden diese Agenten eine neue Schicht intelligenter Assistenten im Unternehmen. Um sie effektiv einsetzen zu können, müssen Sie zunächst genau wissen, was sie sind, wie sie funktionieren und wo sie eingesetzt werden.

Was sind KI-Agenten?

Microsofts KI-Agenten sind autonome digitale Mitarbeiter, die auf der Grundlage umfangreicher Sprachmodelle und Microsoft 365-Dienste Ziele verstehen, fundierte Entscheidungen treffen und gezielte Maßnahmen ergreifen können. Sie gehen weit über herkömmliche Chatbots oder statische Automatisierungen hinaus. Anstatt einfach nur eine Frage zu beantworten, kann ein Agent mehrstufige Arbeitsabläufe planen und ausführen, sich in Geschäftssysteme integrieren und sowohl mit Menschen als auch mit anderen Agenten als Teil von Multi-Agentensystemen zusammenarbeiten.

Es gibt ein ganzes Spektrum von Agenten:

  • Microsoft Copilot: Der universell einsetzbare KI-Assistent, der direkt in zentrale Produktivitätsanwendungen wie Word, Excel, PowerPoint, Outlook und Teams eingebettet ist. Er bietet kontextbezogene Hilfe (Verfassen von Text, Analysieren von Daten, Zusammenfassen von Besprechungen) und ergänzt die spezialisierten KI-Agenten, die für umfassendere Arbeitsabläufe entwickelt wurden.
  • Copilot Studio: Microsofts Low-Code-Plattform zur Anpassung von Copilot oder zur Erstellung spezialisierter Agenten von Grund auf. Geschäftseinheiten können Agenten mit Back-End-Systemen verbinden, ihre Konversationslogik definieren und sie über interne oder externe Kanäle veröffentlichen. Hier erfahren Sie, wie Copilot Studio in die Microsoft 365-Landschaft passt und wie es im Vergleich zu anderen Tools zur Agentenerstellung abschneidet.
  • Power Platform-Agenten: Diese Agenten werden mit Power Automate und Power Apps erstellt und können komplexe Workflows über Hunderte von Anwendungen innerhalb und außerhalb von Microsoft 365 auslösen.
  • SharePoint-Agenten: Speziell entwickelte Agenten für die Verwaltung von Inhaltslebenszyklen, die Durchsetzung von Metadatenrichtlinien und die Bereitstellung der richtigen Informationen in wissensintensiven Umgebungen. Einen tieferen Einblick erhalten Sie in unserem Artikel über SharePoint-Agenten und die Gewährleistung der IT-Überwachung.

Wo leben und arbeiten diese KI-Agenten?

Microsoft KI-Agenten arbeiten in verschiedenen Teilen des Microsoft 365-Ökosystems, je nachdem, wie sie konzipiert sind:

  • Collaboration Hubs: SharePoint und OneDrive - hier können Agenten Dokumentenrichtlinien durchsetzen, Berechtigungen verwalten oder Wissen abrufen.
  • Low-Code-Plattformen: Power Apps und Power Automate - hier können Entwickler Agenten zur Prozessautomatisierung erstellen.
  • Zentrale Produktivitätsanwendungen: Word, Excel, PowerPoint, Outlook und Teams - Heimat des integrierten Copilot-Assistenten, aber auch Orte, an denen benutzerdefinierte KI-Agenten auftauchen können, z. B. zum Erstellen von Berichten in Excel, zum Entwerfen von Präsentationen in PowerPoint oder zur direkten Interaktion mit Benutzern in Teams.
  • Benutzerdefinierte Umgebungen: Websites, Chat-Kanäle oder Geschäftssysteme - wo Copilot Studio-Agenten für bestimmte Anwendungsfälle eingesetzt werden können.

Zur Unterstützung dieses Agenten-Ökosystems bietet Microsoft den Agent Builder von Copilot Studio an, mit dem sowohl IT- als auch Geschäftsanwender KI-Agenten mit minimalem Programmieraufwand erstellen, verwalten und einsetzen können. Diese Demokratisierung der Entwicklung fördert zwar die Innovation, unterstreicht aber auch die Notwendigkeit klarer Governance-Leitplanken.

Vom Copiloten zu autonomen Agenten: Der agentenbasierte Wandel

Der eigentliche Paradigmenwechsel ist der Übergang von reaktiven Assistenten zu proaktiven, autonomen Agenten. Eine klassische Automatisierung folgt einem starren, vordefinierten Skript. Einem KI-Agenten hingegen kann ein Ziel und eine Reihe von Werkzeugen (z. B. Zugriff auf eine API oder eine Datenbank) vorgegeben werden, und er kann dann selbstständig einen Plan zur Erreichung dieses Ziels formulieren und ausführen.

Dies ist das "agentenbasierte" Modell der KI. Wir erleben den Aufstieg von Multi-Agenten-Systemen und Arbeitsabläufen, bei denen mehrere spezialisierte Agenten zusammenarbeiten, um eine Aufgabe zu erfüllen, die für einen einzelnen Agenten zu komplex wäre. So könnte beispielsweise ein Agent für "Vertriebsanfragen" eine Kunden-E-Mail erhalten, die Details an einen Agenten für "CRM-Lookup" weitergibt, um die Kundenhistorie abzurufen, der dann an einen Agenten für "Berichterstellung" weitergibt, um die Opportunity für das Vertriebsteam zusammenzufassen.

Zulernen, wie Sie einen Copilot-Agenten effektiv aufbauen, bedeutet, über eine einzelne Aufgabe hinaus zu denken und sich auf verschiedene Szenarien vorzubereiten: Wir arbeiten Agenten zusammen, wie müssen sich Agentenanpassen, um über Geschäftsprozesse hinweg zu skalieren. Dies ist die Zukunft der Arbeit, auf die Microsoft hinarbeitet, und sie entwickelt sich schneller, als die meisten Unternehmen darauf vorbereitet sind.

Typ

Wie funktioniert es?

Beschränkungen

Beispiel

Traditionelle Automatisierung

Folgt einem starren, vordefinierten Skript mit festen Schritten.

Kann sich nicht an veränderte Eingaben oder Ziele anpassen.

Ein Power Automate-Ablauf, der Dateien von einem Ordner in einen anderen verschiebt.

KI-Assistent

Bietet kontextbezogene Hilfe innerhalb von Anwendungen (z. B. Verfassen, Zusammenfassen, Analysieren).

Nur reaktiv, kann nicht unabhängig oder systemübergreifend agieren.

Microsoft Copilot beim Verfassen von Text in Word oder beim Zusammenfassen eines Outlook-E-Mail-Threads.

KI-Agent

Vorgabe eines Ziels und einer Reihe von Werkzeugen (API, Datenbank, großes Sprachmodell). Begründet, plant und führt selbstständig Schritte aus, um das Ziel zu erreichen.

Komplexer zu überwachen und zu steuern.

Ein HR-Onboarding-Agent, der Zugang gewährt, Fragen beantwortet und Meetings bucht.

Multi-Agenten-System

Mehrere spezialisierte Agenten arbeiten zusammen, um Aufgaben zu erledigen, die für einen einzelnen Agenten zu komplex sind.

Die Koordination birgt zusätzliche Risiken ohne Kontrolle.

Ein Agent für "Vertriebsanfragen" übergibt Daten an einen Agenten für "CRM-Lookup", der dann einen Agenten für "Berichterstellung" auslöst.

Praxisbeispiele für Anwendungsfälle und KI-Agenten

Um die Auswirkungen von KI-Agenten zu verstehen, sollten wir uns einige praktische Beispiele für KI-Agenten in verschiedenen Unternehmensfunktionen ansehen. Diese Szenarien zeigen, wie Unternehmen bereits KI-Agenten einsetzen, um alltägliche Herausforderungen zu lösen und komplexe Prozesse zu rationalisieren:

  • HR-Onboarding: Ein KI-Agent kann einen neuen Mitarbeiter durch seine erste Woche begleiten, indem er Fragen zu Richtlinien beantwortet, den Zugang zu den erforderlichen Tools bereitstellt und Einführungsgespräche anberaumt - und das alles über eine dialogorientierte Schnittstelle in Microsoft Teams.
  • Finanzielle Berichterstattung: Ein Finanzteam könnte einen Agenten einsetzen, der automatisch Verkaufsdaten aus Dynamics 365, Kostenzahlen aus SAP und Markttrends aus einer externen API abruft, um einen Entwurf des vierteljährlichen Leistungsberichts in PowerPoint zu erstellen.
  • IT-Service-Desk: Anstelle eines einfachen Chatbots kann ein IT-Agent das Problem eines Benutzers diagnostizieren, automatisierte Abhilfemaßnahmen ergreifen (z. B. den Cache leeren oder ein Passwort zurücksetzen) und nur dann ein Ticket mit vollständigen Diagnoseprotokollen erstellen, wenn er das Problem nicht selbst lösen kann.
  • Wissensmanagement: Ein benutzerdefinierter Copilot kann ausschließlich auf Ihre interne Dokumentation, technische Wikis und Produktspezifikationen trainiert werden. Auf diese Weise entsteht ein hochpräziser "Experten"-Agent, der komplexe technische Fragen für Supportmitarbeiter oder neue Entwickler beantworten kann und verhindert, dass diese sich auf veraltete oder öffentliche Informationen verlassen müssen.

Copilot-Chaos: Die versteckten Risiken von unkontrollierten KI-Agenten

Obwohl diese Anwendungsfälle überzeugend sind, birgt jeder von ihnen Risiken, wenn er ohne zentrale Aufsicht eingesetzt wird. Gerade die einfache Erstellung, die diese Tools so leistungsfähig macht, ist auch ihre größte Herausforderung für die Governance, vor allem, weil immer mehr Geschäftsanwender beginnen, Agenten auf eigene Faust zu erstellen, ohne dass die IT-Abteilung Einblick hat.

1. Die Gefahr von Agenten-Wildwuchs und "Schatten-Agenten"

Wenn jeder Benutzer mit einer Lizenz einen Microsoft-Agenten erstellen und bereitstellen kann, verliert die IT-Abteilung schnell den Überblick. Dies führt zu einer Ausbreitung von Agenten, einem verworrenen Netz von undokumentierten, nicht verwalteten und oft redundanten Agenten.

  • Das Problem: Jeder nicht verfolgte Agent ist ein Fragezeichen. Wer hat diesen Agenten entwickelt, der sich mit der Finanzdatenbank verbindet? Auf welche Daten greift er zu? Wann wurde er zuletzt aktualisiert? Ist sein Besitzer noch im Unternehmen? Diese "Schattenagenten" stellen für Sicherheits- und Betriebsteams einen massiven blinden Fleck dar.
  • Die Governance-Lösung: Eine zentralisierte Governance-Plattform ist unerlässlich. Lösungen wie Rencore Governance bieten ein vollständiges Inventar aller Agenten in Ihren Microsoft 365- und Power Platform-Mandaten. Sie ermöglichen es Ihnen, jeden aktiven Agenten zu erkennen und zu klassifizieren, seinen gesamten Lebenszyklus von der Erstellung bis zur Stilllegung zu verwalten und seine Aktivitäten nachzuverfolgen, wodurch Sie die 360°-Transparenz erhalten, die Sie benötigen, um die Kontrolle wiederzuerlangen.

2. Risiken durch Fehlinformationen und Datenqualität

Ein KI-Agent ist nur so gut wie die Daten, auf die er zugreifen kann. Wenn Ihre Microsoft 365-Umgebung unter schlechter Informationshygiene leidet (veraltete Dokumente, verwaiste Websites, unklare Dateneigentümerschaft und doppelte Inhalte), werden Ihre Agenten dieses Chaos verstärken, anstatt aktuelle und zuverlässige Erkenntnisse zu liefern.

  • Das Problem: Wenn ein Makler eine Empfehlung ausspricht, die auf einem veralteten Policendokument oder einer vorläufigen Umsatzzahl basiert, gibt er nicht nur eine falsche Antwort. Er birgt das Risiko schlechter Geschäftsentscheidungen und untergräbt das Vertrauen der Nutzer in die KI-Investition.
  • Die Governance-Lösung: Effektive Governance beginnt mit der Datenqualität. Rencore bietet tiefe Einblicke in Ihre Inhalte und ermöglicht es Ihnen, veraltete, verwaiste oder doppelte Dateien zu identifizieren, bevor sie die Wissensbasis Ihrer KI belasten. Mit bereinigen Sie Ihren Bestand und erstellen eine klare Informationsarchitektur, um sicherzustellen, dass Ihre Microsoft KI-Agenten mit korrekten, zuverlässigen Inhalten arbeiten.

3. Compliance-, Sicherheits- und GDPR-Risiken

Nicht verwaltete Agenten stellen eine direkte Bedrohung für Ihre Sicherheit und Compliance dar. Ein unsachgemäß konfigurierter Agent könnte versehentlich sensible personenbezogene Daten aus einem HR-System weitergeben, geistiges Eigentum durch die Verwendung eines unsicheren Konnektors eines Drittanbieters preisgeben oder die Anforderungen an die Datenresidenz gemäß GDPR verletzen.

  • Das Problem: Wie können Sie den Prüfern beweisen, dass Ihre KI-Nutzung konform ist? Wie können Sie verhindern, dass ein vom Marketingteam entwickelter Agent auf sensible F&E-Daten zugreift? Das Risiko einer unbeabsichtigten Datenweitergabe und eines unbefugten Zugriffs ist immens.
  • Die Governance-Lösung: Sie benötigen automatisierte Durchsetzung von Richtlinien. Mit Rencore können Sie klare Grenzen dafür setzen, was Agenten tun dürfen, welche Konnektoren sie verwenden dürfen und auf welche Daten sie zugreifen dürfen. Unsere Plattform ermöglicht es Ihnen, Zugriffsüberprüfungen zu automatisieren, Richtlinien durchzusetzen und detaillierte Prüfprotokolle zu führen, um sicherzustellen, dass Sie immer revisionssicher sind und gleichzeitig Ihre Teams zu Innovationen befähigen.

Warum Unternehmens-Governance für KI-Agenten nicht verhandelbar ist

Microsoft bietet zwar eine Reihe leistungsfähiger Tools, aber seine nativen Governance-Funktionen lassen oft kritische Lücken, die Unternehmen füllen müssen. Microsoft bietet zwar Kontrollmöglichkeiten für die Erstellung von Agenten, aber weniger Überblick über deren gesamten Lebenszyklus, einschließlich Eigentum, Kostenzuweisung und eventueller Stilllegung.

An dieser Stelle wird eine dedizierte Governance-Ebene unerlässlich. Wir haben dies in unserem Blog mit Copilot-Agenten-Governance und Power Platform-Überwachung im Zeitalter der KI ausführlicher beschrieben.

Effektive Governance für Microsoft KI-Agenten basiert auf fünf Säulen:

  1. Zentralisierte Sichtbarkeit: Erstellen Sie ein einziges Dashboard, um jeden Agenten, seinen Besitzer, seinen Zweck, seine Verbindungen und seine Aktivitäten zu sehen.
  2. Lebenszyklus-Management: Automatisieren Sie Prozesse für die Bereitstellung neuer Agenten auf der Grundlage von Geschäftsgründen und deaktivieren Sie sie, wenn sie inaktiv werden oder ihr Besitzer ausscheidet.
  3. Richtlinienbasierte Automatisierung: Definieren Sie Regeln für die Erstellung von Agenten, den Datenzugriff und die Nutzung von Konnektoren, und setzen Sie diese automatisch durch, mit Warnmeldungen bei Verstößen.
  4. Lizenz- und Kostentransparenz: Verwenden Sie Dashboards, um die Nutzung von Copilot- und Power Platform-Lizenzen zu verfolgen, die Kosten bestimmten Abteilungen zuzuordnen und den ROI Ihrer KI-Initiativen zu messen.
  5. Integrierte M365-Richtlinien:Stellen Sie sicher, dass Ihre KI-Agenten-Governance kein Silo ist, sondern vollständig in Ihre bestehenden Governance-Richtlinien für SharePoint, Teams und das gesamte M365-Ökosystem integriert ist. Rencore Governance vereint diese Funktionen in einer zentralen Plattform, die Ihnen hilft, die Komplexität Ihrer Microsoft 365- und Power Platform-Umgebungen zu beherrschen.

Best Practices für die Verwaltung von Microsoft AI-Agenten im großen Maßstab

Sind Sie bereit, weiterzumachen? Hier ist ein praktischer, dreistufiger Ansatz zur Einrichtung einer robusten Governance für Ihre KI-Agenten.

1. Inventarisierung und Zuordnung aller Agenten

Der erste Schritt besteht darin, eine vollständige und kontinuierliche Bestandsaufnahme durchzuführen. Sie müssen wissen, was in Ihrem Mandanten gerade läuft. Dabei handelt es sich nicht um ein einmaliges Projekt, sondern um einen fortlaufenden Prozess der Entdeckung. Er ist sowohl für die Einhaltung von Vorschriften als auch für die Kostenkontrolle von grundlegender Bedeutung und hilft Ihnen, überflüssige Agenten zu identifizieren und die Lizenzzuweisung zu optimieren.

2. Definieren Sie Ihre Richtlinien frühzeitig

Warten Sie nicht, bis ein Problem auftritt. Definieren Sie proaktiv die Spielregeln für die Entwicklung und den Einsatz von KI-Agenten. Ihre Richtlinien sollten Folgendes regeln

  • Erstellung: Wer ist berechtigt, Agenten zu erstellen? Gibt es ein Genehmigungsverfahren?
  • Datenzugriff: Welches sind die Standard-Datenempfindlichkeitsstufen, auf die ein Agent zugreifen kann?
  • Zweck: Muss jeder Agent einen dokumentierten Geschäftsfall und einen Eigentümer haben?
  • Lebenszeit: Sollten Agenten regelmäßig überprüft oder rezertifiziert werden, um zu verhindern, dass sie verwaist werden?

3. Automatisieren Sie Durchsetzung und Berichterstattung

Manuelle Verwaltung ist nicht skalierbar. Die einzige Möglichkeit, Hunderte oder Tausende von Agenten zu verwalten, besteht in der Automatisierung. Implementieren Sie ein System, das Richtlinienverstöße automatisch erkennt, den Agentenbesitzer oder die IT-Abteilung benachrichtigt und übersichtliche Dashboards zur Verfügung stellt, um die Einhaltung der Richtlinien im Laufe der Zeit zu verfolgen. So wird Governance skalierbar, überprüfbar und messbar. Um dies zu erreichen, müssen Sie herausfinden, wie Sie Microsoft 365 AI Governance von Grund auf beherrschen.

Die Zukunft wird regiert: Setzen Sie KI-Agenten vertrauensvoll ein

Die KI-Agenten von Microsoft stellen eine der bedeutendsten Veränderungen in der Unternehmenstechnologie seit einem Jahrzehnt dar. Sie bieten einen Weg zu noch nie dagewesener Produktivität und Innovation. Aber diese Leistung erfordert auch Verantwortung. Unternehmen, die KI einsetzen, ohne sich gleichzeitig der Governance zu verschreiben, setzen sich erheblichen Sicherheits-, Compliance- und finanziellen Risiken aus.

Die Zukunft der Arbeit wird auf der Zusammenarbeit zwischen Menschen und KI-Agenten beruhen. Diejenigen, die jetzt handeln, um ein robustes Governance-Rahmenwerk zu implementieren, werden nicht nur das Risiko mindern, sondern auch eine Vertrauensbasis schaffen, die die Einführung von KI beschleunigt und die Rendite ihrer KI-Investitionen maximiert. Mit einem Partner wie Rencore können Sie die nächste Phase der digitalen Transformation mit Zuversicht anführen.

 

Häufig gestellte Fragen (FAQ)

Was sind Microsoft KI-Agenten?

Microsoft KI-Agenten sind autonome Softwareprogramme, die für die Ausführung von Aufgaben und das Erreichen von Zielen innerhalb des Microsoft 365-Ökosystems entwickelt wurden. Sie reichen vom allgemeinen Microsoft Copilot-Assistenten bis hin zu spezialisierten, benutzerdefinierten Agenten, die mit Tools wie Copilot Studio und Power Platform erstellt wurden, um bestimmte Geschäftsprozesse zu automatisieren.

Wie unterscheiden sich die Copilot-Agenten von der herkömmlichen Automatisierung?

Die herkömmliche Automatisierung folgt einem starren Satz vordefinierter Regeln. Copilot-Agenten und andere KI-Agenten hingegen können ein Ziel vorgeben und selbstständig Schritte überlegen, planen und ausführen. Dadurch sind sie flexibel, anpassungsfähig und in der Lage, Aufgaben zu erledigen, die den Rahmen einer herkömmlichen Automatisierung bei weitem sprengen würden.

Welche Risiken bergen KI-Agenten in Microsoft 365-Umgebungen?

Zu den Hauptrisiken gehören die Ausbreitung von Agenten mit undokumentierten Schattenagenten, Fehlinformationen durch veraltete Inhalte, Sicherheitsverletzungen durch falsch konfigurierten Zugriff, Compliance-Verstöße wie GDPR-Verstöße und Kostenineffizienz durch redundante Agenten und ungenutzte Lizenzen.

Wie können IT-Abteilungen Copilot-Agenten in großem Umfang verwalten?

Eine skalierbare Verwaltung erfordert eine spezielle Plattform, die Folgendes bietet:

  1. Ein vollständiges und automatisiertes Inventar aller Agenten.
  2. Automatisiertes Lebenszyklusmanagement (Bereitstellung und Deprovisionierung).
  3. Eine flexible Engine zur Durchsetzung von Richtlinien für Datenzugriff, Konnektoren und gemeinsame Nutzung.
  4. Zentralisierte Dashboards zur Überwachung von Aktivitäten, Compliance und Kosten.

Ist Microsoft Copilot Studio dasselbe wie Agent Builder?

Microsoft Copilot Studio ist das primäre Low-Code-Tool zum Erstellen und Anpassen von Copilot-Agenten. Der Begriff "Agent Builder" wird häufig allgemeiner verwendet, um die Funktionen in Copilot Studio und der umfassenderen Power Platform zur Erstellung dieser Agenten zu beschreiben.

Können KI-Agenten den Datenschutz und die Einhaltung von Vorschriften beeinträchtigen?

Ja. Ein Agent ist eine nicht-menschliche Identität, die auf Daten zugreifen, sie verarbeiten und weitergeben kann. Ohne eine strenge Governance kann er sensible Daten preisgeben und gegen die GDPR verstoßen. Unternehmen müssen ihre Teams in Bezug auf die Auswirkungen des Agenten-Designs auf Sicherheit und Compliance schulen.

Brauche ich Governance, wenn wir nur mit ein paar Agenten beginnen?

Ja. Governance ist nicht nur für groß angelegte Implementierungen geeignet. Selbst eine Handvoll Agenten kann auf sensible Daten zugreifen oder Compliance-Risiken verursachen, wenn sie nicht verwaltet werden. Durch die frühzeitige Einführung klarer Richtlinien und Überwachungsmechanismen schaffen Sie eine solide Grundlage, die sich bei zunehmender Akzeptanz problemlos skalieren lässt.

Was ist der Azure AI Foundry Agent Service?

Der Azure AI Foundry Agent Service (früher Azure AI Agent Service) ist Microsofts Plattform für die Erstellung, Bereitstellung und Verwaltung von KI-Agenten in der Azure-Cloud. Im Gegensatz zu Microsoft 365 Copilot-Agenten nutzen diese benutzerdefinierten Anwendungen Azure-KI-Dienste wie Azure OpenAI, Cognitive Search und Cognitive Services, um autonome Aufgaben durchzuführen, Workflows zu orchestrieren und mit mehreren Agenten zusammenzuarbeiten.