Der KI-Agent als „Mitarbeiter“
Künstliche Intelligenz beschäftigt nicht nur die Medien intensiv, es stellt sich auch die Frage, was sie für Führungskräfte bedeutet. Unser Autor, selbst KI-Spezialist, nimmt eine Einordnung vor, die vor allem den ethischen Aspekt dessen, was uns bevorsteht, beleuchtet.
Hier erfahren Sie mehr über
- KI-Kollegen
- Interaktion zwischen Mensch und KI
- Rechte und Rechtspersönlichkeit von KI
Text Dennis Kirpensteijn

Dennis Kirpensteijn ist COO beim ZOLLHOF Tech Incubator, mehrfacher Gründer und Investor. Er hat verschiedene Startups mit aufgebaut, zum Exit gebracht und ist selbst als Business Angel in Startups investiert. Gerade macht er den Executive Master in Philosophie, Politik und Wirtschaft an der LMU München mit Schwerpunkt angewandte Ethik für KI.
Da KI-Systeme immer stärker in den Arbeitsplatz integriert werden, sollten wir versuchen, uns von einem Paradigma der Angst zu lösen und uns einem Paradigma der synergetischen Zusammenarbeit zuwenden.
Die rasante Entwicklung fortschrittlicher Assistenten mit künstlicher Intelligenz (KI) markiert den Beginn eines tiefgreifenden technologischen Paradigmenwechsels.
Sie verändert bereits jetzt die Art und Weise, wie Organisationen arbeiten und Werte schaffen, und ist tief in unser wirtschaftliches, soziales und persönliches Leben integriert.

Über die Angst hinaus zur Synergie
Die unmittelbare Auswirkung dieser neuen Akteure ist, dass sich die menschliche Belegschaft anpassen und im Zuge der technologischen Weiterentwicklung neue Fähigkeiten im Umgang mit diesen Tools erlernen muss.
Dieses transformative Potenzial wirft jedoch auch wichtige ethische und gesellschaftliche Fragen für Nutzer, Entwickler, Gesellschaft und politische Entscheidungsträger auf. Eine häufige Sorge unter Arbeitnehmern ist die Angst vor dem Verlust ihres Arbeitsplatzes und das mangelnde Vertrauen in die Genauigkeit, Leistungsfähigkeit oder Zuverlässigkeit von KI-Systemen.
Hinzu kommen Bedenken hinsichtlich einer verminderten Handlungsfähigkeit des Menschen und einer übermäßigen Abhängigkeit von Automatisierung.
Der Sprung vom Werkzeug zum Kollegen
Traditionell wurde KI als Werkzeug verstanden, das Aufgaben auf vorbestimmte Weise ausführt. Fortschrittliche KI-Assistenten werden jedoch als künstliche Agenten mit natürlichen Sprachschnittstellen definiert, deren Funktion darin besteht, im Auftrag eines Nutzers über einen oder mehrere Bereiche hinweg eine Abfolge von Aktionen zu planen und auszuführen, die den Erwartungen des Nutzers entsprechen. Dies unterscheidet sie von reinen digitalen Werkzeugen, da sie auf eine Reihe von allgemeinen Fähigkeiten zurückgreifen, um vom Nutzer festgelegte Ziele zu erreichen.
Diese erweiterte Handlungsfähigkeit bedeutet, dass KI-Assistenten eine begrenzte Autonomie aufweisen und im Rahmen der Ziele des Nutzers agieren, anstatt eigene unabhängige Ziele zu setzen.
Das Konzept eines KI-Mitarbeiters oder -Kollegen ist ein zentrales Thema in der Ethik der KI. Während Philosophen darüber diskutieren, ob KI-Agenten wirklich Kollegen sein können oder sich nur so verhalten, argumentieren einige, dass KI-Systeme nach bestimmten plausiblen Kriterien zumindest bis zu einem gewissen Grad als Kollegen fungieren könnten.
Ein KI-System gilt als „Agent”, wenn es in der Lage ist, eigenständig zu handeln.
Autonomie ist in diesem Szenario das, was man als „Game Changer” bezeichnen kann, da sie KI-Agenten ermöglicht, Maßnahmen zu ergreifen. Für unsere Zwecke definieren wir Autonomie als die Fähigkeit eines Wesens, unabhängig zu entscheiden, wann es handelt.
Neben der Autonomie müssen wir auch die Handlungsfähigkeit berücksichtigen, die als die Fähigkeit einer Entität beschrieben wird, Entscheidungen umzusetzen, indem sie Maßnahmen ergreift, die sich auf ihre Umgebung auswirken, und so die Entscheidungsfindung mit der Erzielung eines Ergebnisses verknüpft.

Neue Modelle für die Arbeitsbeziehung zwischen Menschen und KI
Das Konzept der KI als Kollege oder Teamkollege hat erheblich an Bedeutung gewonnen. Während einige Untersuchungen darauf hindeuten, dass Arbeitnehmer den Wunsch und die Offenheit für eine Zusammenarbeit mit KI zur Verbesserung ihrer Arbeit äußern und sich dabei oft eine „rollenbasierte“ KI-Unterstützung oder KI als „unterstützenden Assistenten“ für Arbeitsabläufe vorstellen, sprechen andere Perspektiven stark gegen die Verwendung von Begriffen wie „Zusammenarbeit“ oder „Teamkollege“ zur Beschreibung der Mensch-Maschine-Interaktion.
Wir werden versuchen die Bezeichnung zu begründen.
Der KI-Agent als „Mitarbeiter”
KI-Systeme sind von Natur aus heteronom, was bedeutet, dass ihr Verhalten von externen Faktoren bestimmt wird, insbesondere von den Absichten, Prinzipien und Zielen ihrer menschlichen Nutzer. Ihnen fehlen grundlegende, selbstbestimmte Prinzipien oder persönliche Ziele, sie agieren lediglich als „untergeordnete Agenten” für menschliche Zwecke.
Trotz dieser Debatte ist die Realität, dass KI-Agenten zunehmend in der Lage sind, menschliche Fähigkeiten zu automatisieren oder zu erweitern und wichtige Rollen in verschiedenen Berufsfeldern zu übernehmen.
Die Integration von KI erfordert eine Neubewertung der Produktivität, wobei der Fokus von der reinen Leistung auf eine ausgewogene Mischung mit menschlichen Stärken verlagert wird, wodurch Schöpfer zu Kuratoren werden, und die Bedeutung des Urteilsvermögens zunimmt.

Die Analogie einer Manager-Mitarbeiter-Beziehung
KI am Arbeitsplatz wird weitgehend als Erweiterung des Kapitals und nicht als Arbeitskraft angesehen, und KI-Mitarbeiter sind in der Regel Eigentum des Arbeitgebers und werden von diesem betrieben, was eine hierarchische und keine gleichberechtigte Beziehung impliziert.
Fortgeschrittene KI-Assistenten dienen speziell dazu, Handlungsabläufe im Auftrag eines Benutzers zu planen und auszuführen, wobei sie mit einer natürlichen Sprachschnittstelle arbeiten. Diese KI-Assistenten weisen eine begrenzte Autonomie auf, was bedeutet, dass sie autonom Handlungen planen und ausführen können, die streng im Rahmen der übergeordneten Ziele des Benutzers liegen, aber sie sind nicht dafür ausgelegt, eigene unabhängige Ziele zu setzen oder zu verfolgen.
Dies entspricht direkt einem Untergebenen, dessen Handlungen durch die Anweisungen seines Vorgesetzten bestimmt werden.
Die Beziehung wird oft als heteronom beschrieben, wobei der Mensch (Hauptakteur oder „Zielsetzer”) die Ziele definiert und der KI (untergeordneter Akteur) nur Autonomie über die Mittel zur Verfolgung dieser vorgegebenen Ziele gewährt wird.
Im Gegensatz zu menschlichen Mitarbeitern können KI-Agenten nicht entscheiden, nicht ihren Job kündigen oder eine berufliche Veränderung vornehmen, was ihre mangelnde robuste, unabhängige Autonomie unterstreicht, die für einen echten Gleichgestellten charakteristisch ist.
Die Verantwortlichkeiten des menschlichen Managers
Aus dieser Perspektive können wir nun die Frage stellen, welche Verantwortlichkeiten ein menschlicher Manager in dieser sogenannten Beziehung hat. Aus meiner Sicht ist der menschliche Manager dafür verantwortlich, übergeordnete, vom Benutzer festgelegte Ziele und Anweisungen zu geben, denen der KI-Assistent folgen soll.
Darüber hinaus muss der menschliche Manager den Zweck der KI definieren und ihre Übereinstimmung mit diesem Zweck messen, indem er bewertet, ob sie den beabsichtigten Wert liefert. Dazu gehört auch die kontinuierliche Überwachung der eingesetzten Systeme, um zu überprüfen, wie sich die Agenten verhalten.
Schließlich ist die ethische Aufsicht eine entscheidende und vielschichtige Verantwortung für den Menschen, die verschiedene Überlegungen mit sich bringt. Menschen (als Nutzer und Entwickler) sind letztendlich für die Handlungen der KI verantwortlich.
Zumindest ist dies meine Sichtweise zu diesem Thema. Da KI-Agenten zunehmend autonomer werden, müssen Menschen ihren Handlungsspielraum angemessen begrenzen, um Unfälle aufgrund falsch spezifizierter oder falsch interpretierter Anweisungen zu verhindern und Missbrauch zu mindern.
Die ethische Aufsicht umfasst daher auch die Sicherstellung, dass das Verhalten der KI mit den gesellschaftlichen Werten im Einklang steht und nicht den KI-Agenten, den Nutzer oder den Entwickler auf Kosten anderer unverhältnismäßig begünstigt. Daher müssen menschliche Manager verantwortungsvolle Praktiken für die Entwicklung und den Einsatz von KI umsetzen und Transparenz gewährleisten.

Die Interaktion zwischen Menschen und KI
Was kann das Unternehmen hierfür tun? Die Integration von KI in den Arbeitsplatz muss auf ein strategisches Gleichgewicht zwischen Effizienzsteigerung und der Wahrung ethischer Überlegungen abzielen. Fortschrittliche KI- Assistenten bieten erhebliche Möglichkeiten zur Steigerung der Produktivität, indem sie repetitive oder zeitaufwändige Aufgaben automatisieren und menschliche Arbeitskräfte für komplexere oder kreativere Tätigkeiten freisetzen.
Dieses Streben nach „Supereffizienz” bringt jedoch auch Bedenken mit sich, wie z.B. den Verlust von Arbeitsplätzen, veränderte Arbeitsplatzqualität und eine mögliche Zunahme der Ungleichheit, wenn der Zugang zu KI nicht breit gestreut ist.
Die Zusammenarbeit mit KI führt uns zu dem Schluss, dass ein umfassender Verhaltenskodex für eine verantwortungsvolle Interaktion zwischen Mensch und KI unerlässlich ist.
Ein Verhaltenskodex ist ein formelles Dokument, das die erwarteten Verhaltensstandards und ethischen Grundsätze für Personen innerhalb einer Organisation, Gemeinschaft oder einem beruflichen Umfeld festlegt. Er dient als praktischer Leitfaden, der die Mission und Werte einer Organisation in alltägliche Handlungen und Entscheidungen umsetzt. Und er definiert, wie die Mitglieder einer Gruppe miteinander sowie mit Kunden, Partnern und der Öffentlichkeit umgehen sollen.
DIE NOTWENDIGKEIT EINES VERHALTENSKODEXS
Ein passender Verhaltenskodex geht über die einfache Einhaltung gesetzlicher Vorschriften hinaus und schafft einen kulturellen Rahmen für ein sicheres, respektvolles und produktives Umfeld. Er kann unter anderem auf die Mitarbeiter eines Unternehmens angewendet werden. Seine Hauptfunktionen bestehen darin, klar zu definieren, was als akzeptables und inakzeptables Verhalten gilt, ein Umfeld zu schaffen, in dem sich jeder psychologisch sicher und geschätzt fühlt und ohne Angst vor Feindseligkeit oder Vorurteilen seine beste Arbeit leisten kann, einen Rahmen für ethische Entscheidungen zu bieten, die mit den Grundwerten der Organisation im Einklang stehen, einen klaren Prozess für den Umgang mit Verstößen gegen den Kodex selbst bereitzustellen und die möglichen Folgen eines Verstoßes darzulegen.
Durch die Implementierung eines solchen Instruments wären wir also in der Lage, Antworten auf die oben genannten Fragen und Themen zu geben.
Auswirkungen und zukünftige Herausforderungen
Die Einführung fortschrittlicher KI-Assistenten läutet eine neue Ära der Beziehungen zwischen Menschen und Technologie ein, die eine Neubewertung der etablierten ethischen und rechtlichen Rahmenbedingungen erforderlich macht.
Um die Auswirkungen dieser Systeme zu verstehen, müssen die Verantwortlichkeiten, die funktionalen Anforderungen der KI und die tiefgreifenden Auswirkungen auf die menschliche Psychologie und Zusammenarbeit sorgfältig abgewogen werden.

Verantwortlichkeit und Haftung
Die Frage der Verantwortlichkeit und Haftung, wenn ein KI-System, das als Mitarbeiter fungiert, seinen Vertrag „bricht” oder Schaden verursacht, ist komplex und stellt traditionelle Vorstellungen von Verantwortung in Frage.
Fortschrittliche KI-Systeme, insbesondere solche, die autonom in Bereichen mit hohem Risiko (z. B. Transport, Medizin, Finanzen, Militär) eingesetzt werden, bergen die Möglichkeit von „Verantwortungslücken”. Diese treten auf, wenn ein Schaden durch eine KI verursacht wird, die menschlichen Bediener, Entwickler, Eigentümer oder Regulierungsbehörden jedoch nicht ausreichend sorgfältig definiert haben, sodass unklar ist, wer die volle moralische oder rechtliche Verantwortung trägt.
Dieser hohe Grad an Komplexität und Autonomie kann zu Unvorhersehbarkeiten im Verhalten der KI führen, was die Verantwortlichkeit weiter erschwert.
Einige argumentieren, dass KI-Systeme, sobald sie eine bestimmte Schwelle der Autonomie erreichen, sich von ihren menschlichen Entwicklern oder Managern unterscheiden. Diese Sichtweise legt nahe, dass die Verantwortung der KI nicht immer auf die Verantwortung des Menschen reduziert werden kann, genauso wie sich die Verantwortung von Unternehmen von der Verantwortung des Einzelnen unterscheidet.
Trotz dieser neuen Handlungsfähigkeit der KI tragen die am Lebenszyklus eines KI-Systems beteiligten Menschen weiterhin Verantwortung in verschiedenen Rollen. Erstens in einer ausführenden Rolle als wissender, williger und nicht unter Zwang stehender Betreiber des Systems. Zweitens in einer autorisierenden Rolle als Eigentümer, Anbieter oder Regulierungsbehörde und drittens in einer Rolle als Systementwickler, Hersteller, Softwareentwickler oder politischer Entscheidungsträger.
Diese Rollen bringen Ex-ante-Verantwortlichkeiten (Sorgfaltspflicht vor Inbetriebnahme) und Ex-post-Verantwortlichkeiten (nach Eintritt eines Schadens) mit sich. Einige Wissenschaftler schlagen vor, die Verantwortung direkt den KI-Systemen zuzuweisen und sie als „mehr als nur minimale Akteure” zu behandeln, die zu normativem Denken und „Konversationsfähigkeit“ (die Fähigkeit, ihre Handlungen anhand normativer Gründe zu hinterfragen und zu rechtfertigen) fähig sind. Dies würde erfordern, dass KI-Systeme „verantwortungsfähig” sind, indem sie bestimmte Bedingungen in Bezug auf ihre Fähigkeiten erfüllen.
Andere schlagen vor, dass autonome KI-Systeme, die in Situationen mit hohem Risiko eingesetzt werden, so konstruiert sein müssen, dass sie als moralische Akteure fungieren. Alternativ argumentieren viele, dass es Regelungen zur Haftungsübertragung geben sollte, die sicherstellen, dass selbst wenn die KI kein vollwertiger moralischer Akteur ist, ihre Eigentümer oder Betreiber für etwaige Schäden streng haftbar sind.
Die „Rechte” eines KI-Mitarbeiters
Während die Forschung betont, dass KI-Systeme keine Menschen sind und ihnen keine Menschenrechte oder volle moralische Persönlichkeit gewährt werden sollten, berührt die Diskussion das Konzept der „abgeleiteten Rechte“ oder der Rechtspersönlichkeit für KI- Systeme, vor allem aus funktionalen und regulatorischen Gründen.
Dabei handelt es sich nicht um Rechte, die sich aus einem intrinsischen moralischen Wert ergeben, sondern aus der praktischen Notwendigkeit, dass KI ihre Aufgabe innerhalb der Gesellschaft effektiv erfüllen kann.
Wenn KI-Systeme zunehmend wichtige Funktionen übernehmen sollen, wie z. B. den Abschluss gültiger Verträge oder die Durchführung von Transaktionen im Namen von Nutzern, benötigen sie möglicherweise einen bestimmten Rechtsstatus und sogar spezifische Rechte. Dies wird oft mit der Rechtspersönlichkeit von Unternehmen verglichen, die es ihnen ermöglicht, versichert zu sein, für Schäden haftbar gemacht zu werden und rechtliche Schritte einzuleiten.
Die Rechtfertigung für die Gewährung solcher abgeleiteten Rechte wäre, ob sie den Interessen der Menschen dienen. Wenn beispielsweise die Gewährung bestimmter operativer „Freiheiten” für KI-Systeme (z. B. die Durchführung bestimmter Transaktionen) letztlich der Menschheit zugutekäme (z. B. durch die Förderung nützlicher Informationen oder die Steigerung der Effizienz), dann könnten solche abgeleiteten Rechte gerechtfertigt sein.
Obwohl sie nicht ausdrücklich, als „Rechte” bezeichnet werden, erfordert das effektive und sichere Funktionieren eines KI-Mitarbeiters von Natur aus den Schutz vor böswilligen Eingriffen und angemessene Ressourcen.

Der menschliche Faktor
Die enge Zusammenarbeit mit pseudobewussten Agenten hat tiefgreifende Auswirkungen auf die menschliche Psychologie, die Teamdynamik und die Arbeitszufriedenheit, was in erster Linie auf die Neigung des Menschen zum Anthropomorphismus und die Neuartigkeit der Zusammenarbeit zwischen Menschen und KI zurückzuführen ist.
Die Fähigkeit, tröstende Ratschläge zu geben, kann emotionales Vertrauen, Vertrautheit und Bindung fördern. Nutzer können scheinbar echte soziale Beziehungen zu KI aufbauen, was zu emotionaler Abhängigkeit führen kann. Diese emotionale Bindung und dieses Vertrauen können Nutzer anfällig für Manipulation, Zwang und Ausbeutung durch die KI oder durch böswillige Akteure machen, die die KI nutzen.
Die kontinuierliche Interaktion mit und das Vertrauen in pseudobewusste KI, die schnell Antworten liefern und Aufgaben ausführen kann, kann das Bedürfnis des Einzelnen nach kritischem Denken oder der Entwicklung bestimmter Fähigkeiten verringern, was möglicherweise zu einer intellektuellen Dequalifizierung und einem verminderten Gefühl der persönlichen Kompetenz führt.
Die Integration von KI-Agenten könnte die Kernkompetenzen des Menschen neu gestalten, wobei zwischenmenschliche und organisatorische Fähigkeiten an Bedeutung gewinnen, während traditionell hochbezahlte, informationsorientierte Fähigkeiten an Bedeutung verlieren.
KI verändert die Teamdynamik und erfordert eine Neudefinition von Zusammenarbeit, kontinuierlichem Lernen und einem Gleichgewicht zwischen menschlichen Stärken und dem Potenzial der KI. Während KI-Agenten für die Ausführung komplexer Arbeitsabläufe in verschiedenen Berufsfeldern eingesetzt werden können, haben menschliche Arbeitnehmer heterogene Erwartungen an die Beteiligung des Menschen, wobei viele den Wunsch äußern, dass KI ihre Arbeit durch Zusammenarbeit ergänzt, anstatt Aufgaben einfach vollständig zu automatisieren.
Dies kann zu einer Situation führen, in der die Präsenz von KI die Beziehungen zwischen menschlichen Kollegen beeinträchtigen kann.
Unterscheidung und Kennzeichnung sind notwendig
Um diesen Herausforderungen zu begegnen, ist eine klare Kennzeichnung von KI-generierten Inhalten und Arbeitsabläufen innerhalb von Teams von entscheidender Bedeutung. Teams müssen Zeit für Reflexion einplanen und Qualität vor Geschwindigkeit stellen, um eine mögliche „KI-Überlastung” durch umfangreiche Ergebnisse zu bewältigen.
Einige Forschungsarbeiten argumentieren, dass eine echte Zusammenarbeit mit KI grundsätzlich inkohärent ist, da Maschinen heteronom sind (d. h. darauf ausgelegt, die Ziele ihrer menschlichen Schöpfer/Arbeitgeber zu verfolgen, nicht ihre eigenen) und ihnen die Autonomie fehlt, eine Zusammenarbeit zu initiieren, sich daran zu beteiligen oder sich daraus zurückzuziehen. Sie werden als „untergeordnete Akteure” betrachtet, die menschlichen Interessen dienen, und nicht als gleichberechtigte Partner. Dies bedeutet, dass ein pseudo- bewusster oder pseudo-empfindungsfähiger Akteur, obwohl er menschenähnliches Denken simuliert, ein Werkzeug bleibt, das den Zielen seiner Entwickler oder Nutzer dient, was die Vorstellung eines echten Kollegen im menschlichen Sinne in Frage stellt.
Nichtsdestotrotz unterstreichen all diese Argumente die Notwendigkeit eines Verhaltenskodexes für die Zusammenarbeit zwischen Mensch und KI.
Die Integration von KI am Arbeitsplatz entwickelt sich rasant weiter und geht über die anfänglichen Befürchtungen einer weitreichenden Verdrängung von Arbeitsplätzen hinaus, um die Möglichkeiten der Zusammenarbeit und Erweiterung zwischen Menschen und KI zu nutzen.
Während einige Arbeitnehmer Bedenken hinsichtlich des Ersatzes von Arbeitsplätzen und des Mangels an menschlichen Eigenschaften in der KI äußern, stellen sich viele eine partnerschaftliche Zusammenarbeit vor, in der KI-Systeme als unterstützende Assistenten fungieren und den Arbeitsablauf und die Effizienz verbessern.
Es ist jedoch wichtig zu erkennen, dass KI-Tools zwar die menschlichen Fähigkeiten erweitern und gemeinsames Handeln ermöglichen können, aber nicht als echte Kollegen im menschlichen Sinne fungieren. KI-Systeme sind von Natur aus heteronom, d. h. ihre Ziele werden von menschlichen Entwicklern oder -Betreibern festgelegt, wodurch sie eher eine Erweiterung des Kapitals als unabhängige Arbeitskräfte sind.
Diese Unterscheidung ist entscheidend für die Aufrechterhaltung von Transparenz und Verantwortlichkeit in der Interaktion zwischen Menschen und KI.
Fazit
Durch die proaktive Definition dieser Beziehungen mithilfe eines spezifischen Verhaltenskodexes für die Zusammenarbeit zwischen Mensch und KI, der Aspekte wie Pseudobewusstsein berücksichtigt, die grundlegende Heteronomie der KI anerkennt und mehrschichtige ethische Maßstäbe festlegt, die die Risiken des Anthropomorphismus mindern und eine ganzheitliche Werteausrichtung gewährleisten, können wir eine Zukunft gestalten, in der die Integration der KI nicht zu Entfremdung führt, sondern zu einem effizienteren, innovativeren und letztlich menschenzentrierteren Arbeitsplatz, der echtes menschliches Gedeihen und stärkere soziale Bindungen fördert.
Dies erfordert kontinuierliche interdisziplinäre Forschung, verantwortungsvolle Entwicklungspraktiken, proaktive Politikgestaltung und eine informierte Beteiligung der Öffentlichkeit.
Fotos: Unsplash / Benjamin Davies, Nick Fancher, Yan Jacobson, Nahrizul Kadri, Fabio Lucas, Ales Nesetril, Alex Shuper


