Chancen und Grenzen von künstlicher Intelligenz

KI: Sind Chatbots Lügner und Rassisten?

Was können ChatGPT und Co. wirklich und wo liegen ihre Grenzen? Eine Aufklärung der Funktionsprinzipien von Chatbots und die Entzauberung von Künstlicher Intelligenz.

Hier erfahren Sie mehr über

  • ChatBots
  • Binärwörter und Zeichenketten
  • Wirklichkeit und Simulation

Text Volker Württenberger

Volker Württenberger

Volker Württenberger ist selbständiger Unternehmensberater. Er verknüpft die methodische und exakte Vorgehensweise aus seinem Elektrotechnikstudium mit jahrzehntelanger Erfahrung als Berater, Management-Trainer und Coach in Organisationen.

Die „KI Revolution“ durch ChatBots

Mit dem Auftreten von ChatGPT und ähnlichen Programmen hat der Computer nach dem Rechnen, dem Verwalten von Daten und dem Finden von Informationen nun eine weiter menschliche Domäne erobert: die Sprache. Damit wird eine heiße Diskussion neu befeuert, wie künstliche Intelligenz unser Leben positiv oder negativ beeinflussen kann. Insbesondere die Diskussion darüber welche Gefahren von solch einer Intelligenz ausgehen können bis dahin, dass sie uns die Lebensgrundlage entziehen könnte, findet weiten Raum in der schreibenden Öffentlichkeit.

Erstaunlich unklar bleibt vielen Stimmen in der Diskussion jedoch, was Chatbots denn nun eigentlich Intelligentes können und wo in Wirklichkeit ihre absoluten Grenzen liegen. Dieser Artikel soll ein wenig Aufklärung verschaffen, indem er das Funktionsprinzip der Chatbots beleuchtet.

Was ist ein Chatbot?

Ein Chatbot ist ein Digitalcomputer wie jeder andere Computer, nur eben einer mit einem Programm, das nicht Zahlen verarbeitet, sondern Zeichenketten, die wir Wörter nennen.

Im Fachgebrauch heißen diese Programme „Large Language Models“ (LLM) und ich werde dafür den Begriff „Sprachcomputer“ verwenden. Hier treffen zwei Elemente zusammen:

  1. Ein Sprachmodell, in dem jedem Wort manuell (!) Attribute zugeschrieben werden. Zum Beispiel die Wortart Substantiv, Adjektiv, Verb, etc. sowie die Regeln nach, denen die Wörter verändert werden, je nachdem wie sie im Satz stehen (Deklinationen, Konjugationen, Adjektivierung, etc.). Außerdem gibt es weitere Regeln, zum Beispiel zu unerwünschten Wörtern. Jedes gespeicherte Wort hat bis zu 20 solcher Attribute, mit denen das Programm den Einsatz des Wortes beurteilt. Gute Programme können damit auch Deklinationen von Fantasiewörtern nach gebräuchlichen Regeln erzeugen.
  2. Eine sehr, sehr große Sammlung von Referenztexten, in denen das Programm Häufigkeiten von Wörtern in Kontexten und ihre typischen Beziehungen aufeinander auswertet. Der Fachbegriff dazu lautet „neuronales Netzwerk“. So wird der Sprachcomputer Sätze zu wissenschaftlichen Fachbegriffen ähnlich wie in wissenschaftlichen Artikeln bilden, solche zu Beziehungen in Prominentenkreisen eher im Stile der Yellow Press, weil dort die meisten entsprechenden Texte vorhanden sind.
Was ist ein Chatbot?

Die „Künstliche Intelligenz“ der Chatbots

Die Kombination dieser beiden Elemente erlaubt es dem Programm Texte zu erstellen, die sich ähnlich lesen wie sonst übliche Texte, in denen dieselben Wörter vorkommen. Konsistenzchecks über größere Abschnitte des Textes sorgen für eine brauchbare Plausibilität der Texte. Die Referenz auf geschriebene Dokumente und die computertypisch strikte Anwendung von Regeln führt zu einem relativ hohen Sprachniveau der erzeugten Texte.

Die Qualität der Texte ist oft verblüffend, jedenfalls in englischer Sprache, die rund 70 Prozent der Referenztexte stellt. Durch die Möglichkeit eines Dialogs mit Frage und Antwort erscheint der Sprachcomputer intelligent, schlagfertig, ja sogar einfühlsam. Alle diese Eigenschaften projizieren wir allerdings in die Maschine hinein. Guter Umgang mit Sprache ist ein wichtiger Teilbereich unserer Fähigkeiten, der durchaus recht schwer zu beherrschen ist.
Wer gut formulieren kann, scheint also auch sonst intelligent.
Das ist für den Chatbot allerdings nicht der Fall. Genau wie ein Taschenrechner mühelos durch 7 teilen kann, 19 Prozent aufschlagen und auch weit unangenehmere Rechnungen ausführt, weil er dazu gebaut ist, erstellt der Sprachcomputer klug erscheinende Texte, weil er dazu gebaut ist.
Er ist nicht intelligent, insofern ist die Bezeichnung „Künstliche Intelligenz“ absolut irreführend, „künstliche Eloquenz“ wie bei einem guten Rhetoriker wäre hier eher richtig.

Die „Mechanik“ des Chatbots

Das kann man erkennen, sobald man sich vor Augen führt, wie Wörter in einem Computer dargestellt werden. Schauen wir also einmal in das Innere eines Chatbots hinein:

Alle Zeichen, die der Chatbot kennt, sind „Binärwörter“, Kombinationen aus „0“ und „1“, also zum Beispiel „0001101101011001010010“. Das ist genauso wie in jedem Computer der Zahlen verarbeitet, Datenbanken verwaltet oder Grafiken für Computerspiele erstellt, denn die Hardware ist ja dieselbe.

Texte, Zahlen und Zeichen der meisten Sprachen lassen sich meist mit nicht mehr als 256 verschiedenen Zeichen darstellen, dafür benötigt man 8stellige „Binärwörter“, zum Beispiel „01000001“ für den großen Buchstaben A. Damit die Zeichen nicht gar so unübersichtlich werden, fassen Informatiker gerne je 4 Stellen zusammen, damit heißt dann das Binärwort für A: 41.

Die Kombination von Zeichenketten

So „liest“ der Bot dann in einigen der Milliarden Texte im Netz die Zeichenkette 48 61 72 72 79. Macht das für Sie irgendeinen Sinn? Genau, für den ChatBot macht es nämlich auch keinen! Es ist eine x-beliebige Zeichenkette, die ab und zu vorkommt. Allerdings weiß der ChatBot dank seiner statistischen Auswertungen, dass diese Zeichenkette relativ oft im Zusammenhang mit der Kette 50 6F 74 74 65 72 vorkommt. Und wenn sie das tut, dann kommt auch häufig die Kombination 5A 61 75 62 65 72 73 74 61 62 vor. Also wird er diese Zeichenketten gerne kombinieren, wenn er einen Text mit einzelnen davon erstellen soll. Das ist was er tut. Ohne Sinn, ohne Verstand und erst recht ganz ohne jegliche Erkenntnis oder gar Emotion.

Natürlich muss das Programm noch viel mehr können, um glaubhafte Sätze oder gar konsistente Kapitel zu entwerfen. Dazu enthält es Informationen, bei welchen Zeichenketten es sich um Substantive, Verben oder Adjektive handelt, wie ein Satz aufgebaut wird und ein Nebensatz, und so weiter. Alle diese Informationen werden mühsam von tausenden Menschen angelegt, damit der Bot schreiben lernt. Und weil das so schwierig und komplex ist, und noch dazu mit so vielen Ausnahmen versehen, hat es ja auch Jahrzehnte gedauert, bis die „Sprachcomputer“ auf einen brauchbaren Stand kamen.

Jetzt möchte ich aber auflösen, was mein Beispiel im Klartext bedeutet. Die Zeichenketten bilden die Wörter „Harry“, „Potter“ und „Zauberstab“. Hier wird unmittelbar klar, wie groß der Unterschied ist zwischen dem, was der Chatbot tut, und dem, was sein Text bei uns bewirkt. Und es ist auch ganz klar, dass ein Text zu den Stichworten „Harry“ „Windsor“ und „Meghan“ ganz andere Sätze enthalten wird, wenn er sich einfach nur an Texte mit den gleichen Worten anlehnt.

Offensichtlich kann man also mit dem Aneinanderreihen von Zeichenketten, die auch von Menschen häufig so ähnlich gebraucht werden, verblüffende Texte schreiben. Nur bleiben sie weiterhin „aneinandergereihte Zeichenketten“, keine Worte und keine Geschichten. Den Sinn fügen wir Menschen ihnen beim Lesen zu.

Bild auf Leinwand mit 0 und 1

Der Chatbot täuscht Intelligenz nur vor

Der systematische Unterschied zwischen der KI und unserer Intelligenz ist der, dass in unserem Gehirn ein vieldimensionales Modell von der Welt vorhanden ist. Es ist durch die Kombination der vielfältigen Eindrücke, die wir im Laufe des Lebens aufgenommen haben, entstanden, und es besteht beileibe nicht nur aus Wörtern und Zahlen. So wissen wir zum Beispiel „intuitiv“, dass ein Stuhl wahrscheinlich umfällt, wenn wir dagegen laufen, ein Tisch uns in diesem Fall wohl eher einen blauen Fleck zufügen, aber nicht umfallen wird.

Unsere Sprache ist der gewöhnliche Ausdruck unserer Intelligenz, und wir grenzen uns ja auch zu Recht darüber gegen die Tierwelt ab, die weit unvollkommenere Kommunikationsmöglichkeiten besitzt. Genau deshalb kann uns die Leistung von ChatBots auch so beeindrucken. Gleichzeitig kann die Sprache unser Weltbild nur sehr unvollkommen wiedergeben, was jeder schon erfahren hat, der etwas wirklich Kompliziertes ausdrücken wollte. Sie ist sozusagen nur der Schatten unserer vorhandenen Intelligenz und Kenntnisse, um eine Anspielung auf Platons Höhlengleichnis zu machen.

Man könnte sich als Beispiel ein Haus vorstellen, das unser persönliches Weltwissen darstellt. Die Sprache wäre dabei nur die Fassade. Sie erzeugt einen Eindruck vom Haus, zum Beispiel von seiner Größe, seinem Alter, seiner Funktion. Sie gibt in Wirklichkeit aber nichts darüber preis, wie es innen im Haus aussieht: ob es gemütlich ist, welche Menschen dort wohnen, über welche Einrichtungen und Komfort es verfügt usw. Mit anderen Worten, unsere aktuelle KI ist eine „potemkinsche“ Intelligenz, die lediglich die Sprache als Ausdrucksmittel imitiert, ohne den Zusammenhang des Weltbilds auch nur annähernd zu verstehen.

Welche Erkenntnisse können wir daher ableiten

Erstens, der (Sprach)Computer kann offensichtlich mit mathematischen und logischen Mitteln Wörter so aneinanderreihen, dass sie für uns einen lesbaren, sinnvollen und plausiblen Text ergeben. Aufgrund unserer Erfahrung, dass gut formulierte Texte nur mit einer gewissen Intelligenz erzeugt werden, schreiben wir dem Chatbot eine Intelligenz zu. Dabei müsste man an dieser Stelle das Wort „Eloquenz“ bemühen, denn auch bei Menschen kennen wir die beredten Individuen, die durch ihre Redegewandtheit schlauer erscheinen als sie sind. Der ChatBot ist ein Blender.

Zweitens, nachdem wir verstanden haben, was ein Sprachcomputer tut, ist es auch vollkommen klar, dass er keine Möglichkeit hat, den Sinngehalt „kritisch“ zu überprüfen. Die Welt, zu der die Zeichenketten gehören, ist ihm verschlossen. Er hat niemals etwas erlebt, geträumt oder gefühlt. Er kennt keine Gedankenmodelle unserer Wirklichkeit (oder Phantasie), die mit den Wörtern verknüpft sind. Deshalb macht er auch manchmal so unglaubliche Fehler und lügt wie gedruckt. Philosophische Konzepte sind völlig außerhalb seiner Welt, so wie das Konzept der Wahrheit. Er kann deshalb Wahrheit nicht erkennen und Lüge auch nicht. Er kennt nur Zeichenketten und deren Auftreten in seinen Lerntexten. Gibt es die entsprechenden Zeichenketten (Texte), sind sie für die KI auch „wahr“.

Wenn also bei Medikamentenempfehlungen häufig Wörter wie „randomisierte Doppelblindstudie“ vorkommen, dann benutzt der Sprachcomputer sie, wenn er eine solche schreiben soll. Schreibt die KI einen Arztbrief, dann dichtet sie dem rauchenden Patienten gerne auch eine Alkoholsucht an. Dabei kann sie die dahinter liegenden Konzepte und Aktivitäten in keiner Weise verstehen oder gar beurteilen. Es „klingt einfach gut“, weil es ja sonst auch häufig miteinander vorkommt. Der Chatbot ist ein Schwätzer, ein gewissenloser Lügner, der nicht einmal weiß, was Wahrheit ist.

Drittens, der Chatbot hat als Quelle nur die digitalisierten Texte, die er ausgewertet hat. Kein gesprochenes Wort. Er baut Sätze nach den Häufigkeiten des Auftretens von Wörtern zusammen und kann keines dieser Worte verstehen. Deswegen plappert er alles nach, was er im Zusammenhang der angefragten Stichwörter findet. Sind das überwiegend einseitige Theorien aus „alternativen“ Foren, so bedient er sich dort, inklusive der dort üblichen Formulierungen. Jegliche Einseitigkeit wird vom Bot repliziert. Ungewünschte Wörter müssen ihm durch menschlichen Eingriff einzeln ausgetrieben werden. Der Chatbot ist prinzipiell ein Rassist.

Nutzen von Chatbots

Der Nutzen von Chatbots

Der Chatbot kann uns helfen, gut lesbare Texte zu erstellen. Wer (viel) Text erstellen muss, kann sich von Sprachcomputern billig und schnell recht hochwertige Vorlagen erstellen lassen, die nur noch geringer redaktioneller Arbeit bedürfen. Für Mitarbeiter in Pressestellen, Sachkundige, die Berichte schreiben müssen, Journalisten, Prediger und viele andere eine wertvolle Hilfestellung, wenn sie richtig eingesetzt und überwacht wird.

Die „Terra Incognita“ von Chatbots

Der Chatbot kennt keine Konzepte, also auch nicht das Konzept der Wahrheit. Er kennt auch keine komplexe Wirklichkeit mit Massen, Temperaturen, Licht, Genen, Hormonen, Erinnerungen und Gefühlen, sein ganzes Material besteht aus digitalisierten Texten (genauer „binäre Zeichenketten“) auf Rechnern.
Er hat als Konsequenz daraus auch keine Absicht, wie sie zum Beispiel ein Schriftsteller hat. Und wenn es einmal so aussieht, dann ist die Intention bestenfalls nur simuliert. Genau deshalb ist ein Chatbot auch keine Suchmaschine! Die konzeptfreie Verarbeitung von Zeichenketten kann Sinnzusammenhänge sogar vernichten und im Extremfall völlig falsche Aussagen hervorbringen.

Die Gefahren von Chatbots

Die wunderbare Möglichkeit, gut klingende und plausible Texte ohne nennenswerten Aufwand zu erstellen, kann natürlich auch kriminell genutzt werden. Zum Beispiel ist es heute meist noch recht einfach, Phishing-Mails anhand ihrer schlechten Formulierungen, ihres falschen Satzbaus oder unpassender Anreden zu erkennen. Was ist, wenn die Phishing-mail in naher Zukunft sich wirklich so liest, als käme sie von der eigenen Bank? Was für ein Paradies für Cyberkriminelle!

Dort, wo Worte unsere Wirklichkeit beeinflussen, speziell in der Politik, hat schon bisher Demagogie zu extremen Entwicklungen geführt. Bei den Wahlen, in denen Donald Trump antrat, haben menschengemachte Lügen zu Fehlinformationen mit schwerwiegenden Konsequenzen geführt. Ebenso bei den Corona-Impfgegnern, was höchstwahrscheinlich viele Tausende Tote gekostet hat. Denken wir mal an mögliche kluge Texte, die den Waffenbesitz unterstützen! Wenn noch mehr, noch „klüger“ klingende Texte die Wahrheit mit „Bullshit“ überschwemmen, wird die Gefahr für Demokratien sehr viel größer werden. Deshalb sollte die (Mit-)Autorenschaft von Bots für Menschen einwandfrei zu erkennen sein.

Chatbots reflektieren die existierenden Vorlagen und zementieren so die Sprachen. Je mehr Texte durch Chatbots erstellt wieder in die Referenztexte eingehen werden, desto träger wird der Chatbot bezüglich Veränderungen im Wortgebrauch und behindert so die Sprachentwicklung im Einklang mit zunehmenden Erkenntnissen und die Kommunikation von wissenschaftlichem und sozialem Fortschritt. Allein das wäre ein sehr gutes Argument, Bot-erstellte Texte für andere Bots zu kennzeichnen.

Weltherrschaft, nicht für die KI

Allerdings brauchen wir uns keine Sorge zu machen, dass eine KI in der heute denkbaren Art die „Weltherrschaft“ übernehmen wird. Dazu fehlt ihr jegliches Verständnis von der Welt, von einem Konzept der „Herrschaft“, warum es für eine KI sinnvoll sein kann, zu herrschen, und so weiter und so fort. Für ein „Bewusstsein“ haben die Sprachmodelle einfach viel zu wenig allgemeine Intelligenz in Form eines Welt- und damit eines Ich-Modells.

Quo Vadis?

Noch alles, was der Mensch in die Welt gesetzt hat, hat Verwendung gefunden. So werden wir uns auch in einer Welt mit Chatbots bewegen müssen. Es ist an der Politik, hier geeignete Regeln aufzustellen und international durchzusetzen. Insbesondere der Missbrauch durch Agitatoren und Betrüger muss unterbunden werden können, denn hier liegt die Gefahr für die Menschen.

Als Nutzer ist es hilfreich, den Kern der Bots zu verstehen. Mit Hilfe geeigneter, hochwertiger Vorgaben können die Modelle eine fantastische Unterstützung sonst zeitraubender Arbeiten sein, zum Beispiel, um sich einen Überblick über ein bestimmtes Forschungsgebiet zu verschaffen. Jedenfalls, sofern eine kritische menschliche Intelligenz die Resultate herausfordert und die Quellen überprüft.

Wie alle hochklassigen Technologien brauchen die Sprachmodelle hochkarätige Unterstützung von Spezialisten wie Cloud-Architekten, KI-Trainern und KI-Ethikern. Und natürlich irrsinnige Mengen von Kapital, was also wohl einmal wieder zur Konzentration der Macht in den Händen weniger Unternehmen führen wird.

Einige Insider setzen darauf, dass spezialisierte Bots für bestimmte Bereiche erfunden werden, um so die Treffgenauigkeit in wissenschaftlichen und technischen Fachgebieten zu erhöhen. Dafür werden dann zum Beispiel nur bereits menschlich qualifizierte Texte bestimmter Quellen ausgewertet. Größer ist nicht immer besser.

Und sonst? Werden wir wohl aufmerksam sein müssen wie die Entwicklung ist und die Zukunft so verstehen, wie sie beginnt, sich vor uns auszubreiten.

Fotos: Unsplash / Google Deepmind, Eva Gorobets, Drew Dizzy Graham

Sie möchten nichts mehr verpassen? Hier erhalten Sie spannende Nachrichten zu Finanzen und vielen weiteren Themen.