Asset-Herausgeber

Kann eine KI »verstehen« oder: »Wissen wir, wie lange Krokodile leben?«

Kann eine KI »verstehen« oder: »Wissen wir, wie lange Krokodile leben?«

Gastbeitrag von

Professor Dr. Georg Rainer Hofmann ist seit 1996 Professor und seit 2010 Direktor des Information Management Instituts (IMI) an der Technischen Hochschule Aschaffenburg. Nach dem Studium der Informatik und Volkswirtschaftslehre, Nebenfach Philosophie, an der TU Darmstadt war er zunächst im Fraunhofer IGD, Darmstadt, und bei der KPMG Management Consulting, Frankfurt a.M. und Berlin tätig. Er arbeitet zu Themen der Digitalen Transformation und den damit verbundenen Fragen der Unternehmensführung und Unternehmensethik.

Es ist eine Trivialität, dass die Bürgerinnen und Bürger in ihren jeweiligen Lebenssituationen von den Handelnden in Verwaltung und Regierung »verstanden« werden müssen. Nur über ein Verständnis der jeweiligen Lebenssituationen können eine (Sach-)Gerechtigkeit und ein Nutzwert der Verwaltungs- und Regierungshandlungen realisiert werden. Was passiert aber, wenn Systeme der sogenannten »Künstlichen Intelligenz« (KI) menschliches Handeln in Verwaltung und Regierung ersetzen? Kann auch eine KI die Bürgerinnen und Bürger »verständnisvoll« behandeln?

Wissen wir, kann eine KI »wissen« wie lange Krokodile leben?

Fragen der Art »Wissen wir, wie lange Krokodile leben?« müssten verschiedene Meta-Fragen zum Erkenntnisprozess zur Folge haben:

  • Haben wir Grund anzunehmen, dass wir die Frage richtig verstanden haben?
  • Können wir überhaupt wissen, wie lange Krokodile leben?
  • Aus welchen Quellen wissen wir das?
  • Woher glauben wir zu wissen, dass diese Quellen die Wahrheit sagen?

Fassen wir aber die Frage »Wissen wir, wie lange Krokodile leben?« scherzhaft-komödiantisch auf, dann heißt die einfache Antwort »Ganz genauso wie die Kurzen«.

Einigen gebildeten Leserinnen und Lesern ringt diese spezielle Antwort ein Lächeln ab – früher oder später. Wäre dies kein Blog, sondern ein Präsenzvortrag, dann ließe (mich) dieses Lächeln erkennen, dass nicht nur die Frage, sondern der ganze Scherz – überraschend, früher oder später – verstanden wurde. Andere Lesende, Scherzen dieser Art eher abgeneigt, weisen sowohl die Frage als auch die Antwort zurück, denn solche Scherze erscheinen Ihnen völlig banal und einem ernsthaften Diskurs keinesfalls angemessen.

So oder so: Sie haben »es« verstanden! – Das komödiantische Verstehen dieses Scherzes führt uns zu der Frage, was das Wesen dieses »es« ist, das da verstanden worden ist. Was wurde da – von mir zu Ihnen, über die Lektüre des Textes – transferiert, als Sie »es« (den Scherz) gerade eben verstanden haben?

Man kann sich dem Verstehen nicht entziehen

Wir kommen zu einer spannenden philosophischen Frage: Hätten Sie sich dem Verstehen als solchem entziehen können, auch wenn Sie den Krokodil-Scherz eigentlich gar nicht lustig finden? Oder mussten Sie »es« verstehen?

Wir dürfen uns fragen, welche höhere Macht hier wirkt, die uns das Verstehen quasi aufzwingt, selbst wenn man das eigentlich gar nicht will. Ist das Verstehen mithin für den Menschen unvermeidbar, kann er sich gegen das Verstehen gar nicht wehren? Nicht zuletzt Hans-Georg Gadamer legte in »Wahrheit und Methode« von 1960 bereits dar, dass das Verstehen eines der nicht-disponierbaren Fundamente der menschlichen Existenz schlechthin ist.

Die »KI« von Google versteht den Krokodil-Scherz offenbar nicht

Beauftragen wir zur Scherzfrage »Wissen Sie, wie lange Krokodile leben?« – »Ganz genauso wie die Kurzen!« eine englische und eine französische Version beim KI-Übersetzer von Google, so erhalten wir als Ergebnisse:

  • »Do you know how long crocodiles live?«– »Just like the short ones!«
  • »Savez-vous combien de temps les crocodiles vivent?«– »Tout comme les courts!«

Wir stellen aber fest, dass Google über die englische Version nicht lacht – es wird zur Übersetzung kein Smiley mit zurückgeschickt. Google bedauert auch nicht, dass die französische Version nicht als Scherz funktioniert, so wie die deutsche Version. Ganz offenbar wird von Google nicht verstanden, um was es hier eigentlich geht, beziehungsweise gehen sollte.

Wird eine KI einen den Krokodile-Scherz jemals als »lustig« verstehen können? Wenn das erreicht werden soll, dann müsste sich ein »Verstehen« programmieren lassen. Unterstellen wir im einfachsten Fall, dass Google um eine umfangreiche Scherzdatenbank erweitert wird, und Google sendet tatsächlich – zum in dieser Datenbank dann gefundenen Krokodile-Scherz – blitzschnell einen Smiley. Aber, lacht Google wirklich? Oder wäre der Smiley nur ein bloßer Indikator für einen Treffer in dieser Datenbank?

Wenn aber Google den Smiley nun schneller schickt, als ein Mensch lächeln kann – das hieße ja wohl kaum, dass dieser Lach-Algorithmus einem Menschen geistig überlegen ist.

Anthropomorphe Projektionen

Es ist dem Menschen seit jeher eigentümlich, dass er zu anthropomorphen (griechisch ανθρωπος – anthropos – Mensch und μορφη – morphe – Gestalt) Projektionen neigt. Menschen erkennen auch in Tieren oder Dingen etwas Menschenähnliches. Man meint etwa, ein Haushund oder ein Pferd würden den Menschen wirklich »verstehen« können. Auch in Computer und Roboter wird ein humanes Wesen hineinprojiziert und sie werden damit völlig überschätzt.

Es gibt Personen, die ihrem Auto des Morgens gut zureden, der Motor möge bitte – trotz fast leerer Starterbatterie – noch einmal anspringen und das Auto zum Arbeitsplatz fahren. Oder User, die die Enter-Taste des Computers extra fester drücken, um damit den Rechner zu etwas schnellerer Rechenarbeit zu motivieren. Aber die Annahme ist völlig unsinnig, dass ein Auto oder ein Computer solche menschlichen Intentionen zu verstehen in der Lage wären.

Die völlig übertriebenen Erwartungen in die Möglichkeiten der (jeweils neuen) Computer, die übertreibend auch »Elektronengehirne« genannt wurden, haben eine gewisse jahrzehntealte Tradition. Dies ist jeweils auf anthropomorphe Projektionen zurückzuführen.

Ein frühes Beispiel einer anthropomorphen Projektion einer »verstehenden Maschine« war das bereits im Jahr 1966 von Joseph Weizenbaum vorgestellte Computerprogramm namens »ELIZA«. Es war ein interaktives Programm, es konnte per schriftlichem Wortwechsel verschiedene Gesprächspartner simulieren. Berühmt wurde ELIZA für die – freilich ziemlich oberflächliche – Simulation einer Gesprächspsychotherapie.

Sarkastische Zeitgenossen schlossen damals daraus, dass die Gesprächspsychotherapie per se eine triviale Angelegenheit sein müsse. Einige hoch euphorisierte Therapeuten glaubten gar, mit ELIZA die Psychotherapie weitgehend automatisieren zu können. Joseph Weizenbaum war über diese Rezeption seines Systems mehr als befremdet, in der Folge fand er zunehmend zu einer kritischen Position zur KI.

Im Jahr 1996 gab es ein interessantes Schach-Experiment. Der damalige Schach-Weltmeister Garri Kasparow spielte gegen den IBM-Computer Deep Blue. Man war damals sehr gespannt, ob es einer Maschine gelingen könnte, den besten Schachspieler der Welt zu besiegen. Das würde bedeuten, dass Schachcomputer wie Deep Blue praktisch jeden menschlichen Gegner schlagen könnten.

Die Maschine gewann tatsächlich, aber das war für Informatik-Theoretiker nicht weiter überraschend. Sie wussten schon immer, dass genau das eines Tages passieren würde, eben weil Schach nur ein formales Spiel ist. In der Folge wurde einerseits in Deep Blue eine hohe »Intelligenz« anthropomorph hineinprojiziert, andererseits wurde im Fortschritt der KI zunehmend ein Konkurrenzkampf zwischen Menschen und Maschine gesehen.

Es gab sogar eine Gedenkmarke zur Würdigung des 25. Jahrestags der Niederlage (sic!) des damaligen Schachweltmeisters Garri Kasparow gegen den IBM-Schachcomputer. Dass maschinelle Rechenkraft – punktuell – dem menschlichen Kopfrechnen überlegen sein kann, das war ein logisches und vorhersehbares Ereignis.

Abbildung 1: Ein Vertreter der Art Canis Lupus (ein Wolf – als Haushund) macht einen recht verständigen Eindruck. Dieser wird durch die Zuchtform mit der Ausprägung großer Augen und einem nach vorn gerichtetem Blick noch verstärkt (Foto: Ernst-Dietrich Dünhölter).

Das Erklären von Sachverhalten gegenüber Mitmenschen und das Erkennen, dass die Lernenden den Inhalt verstanden haben – das kann einem Menschen durchaus Freude machen. So kann das erfolgreiche Dressieren von Tieren vergnüglich sein. Es ist auch ein kleines Erfolgserlebnis, wenn man einer Maschine »etwas« beibringen – ein vermutetes »es« siehe oben! – konnte, und wenn es nur darin bestand, einem Wecker per Programmierung eine korrekte Weckzeit beizubringen.

Es gibt Menschen, die mit Vergnügen Computer programmieren – weil es eben einfach Spaß machen kann, zu sehen, dass die Maschine das macht, was man ihr beigebracht hat.

Verstehen und Wissen – Maschinen wissen nichts

Ein quasi »maschinelles Wissen« (wie es prominent der Computer HAL 9000 im Film »2001« von Stanley Kubrick repräsentiert) kann es gar nicht geben, weil Maschinen (im Verständnis nach Alan Turing) notwendigerweise auf der Ebene der Verarbeitung von Daten (Zeichen mit Syntax, alles in der »Welt 1« angesiedelt, nach John Eccles und Karl Popper) verharren und ihnen somit die Bedeutung der verarbeiteten Daten nicht zugänglich ist.

Damit scheitern Computer notwendigerweise an der Objekt-Subjekt-Schwelle, weil sie eben keine erkennenden Subjekte sind. Pointiert lässt es sich so formulieren, dass Wissen (das Verstehen und Anwenden von Daten) kein technisches, sondern ein biologisches, und darüber hinaus ein soziales Phänomen ist – im Gegensatz zur bloßen Manipulation von Zeichen.

In der Konsequenz muss das sogenannte »kodifizierte Wissen« kollabieren – und das tut es tatsächlich. Dies ist der Fall, wenn die Speicherung von Wissen auf bloße Daten reduziert werden soll, ohne dass ein Mensch das Verstehen vermittelt.

Zwei gescheiterte Versuche, Wissen von Menschen unabhängig weiterzugeben.

Abbildung 2: Der kretisch-minoische »Diskos von Phaistos« (ca. 17. Jh. v. Chr.): Der Versuch scheitert, weil mittlerweile der soziale Kontext der Wissenübermittlung verloren gegangen ist – es gibt wohl keinen Menschen mehr, der die Schrift interpretieren kann. Obwohl die Datenlage, die Inschrift mit ihren Zeichen und Worttrennungen, klar lesbar ist, konnte sie bislang leider nicht schlüssig entziffert werden (Foto: Olaf Tausch).
Abbildung 3: Plakette an der Raumsonde Pionier II (ca. 2. Hälfte 20. Jh. n. Chr.): Der Versuch scheitert kläglich und im Ansatz schon hier auf der Erde, weil eine Vielzahl unerklärter formaler (Bedeutung der Symbole) und sozialer Konventionen (Grußgeste des Mannes) interpretiert werden müssten. Wie werden wohl diejenigen Außerirdischen zurechtkommen, die jemals versuchen sollten, diese Plakette zu entziffern? (Grafik: NASA)

Die dahingehende Verwechslung von Daten und Wissen kann illustriert werden, wenn man sich zu einer Faktenfrage (etwa, siehe oben: »Wissen wir, wie lange Krokodile leben?«) die ebenfalls oben bereits angeführte erkenntnistheoretisch sinnvolle und notwendige Zusatzfragen »Woher weißt Du das?« (Was die Quelle u.U. wieder vergessen haben könnte) und »Woher weißt Du, dass das wahr ist?« stellt, was die Vertrauenswürdigkeit der Quelle adressiert.

Das wahre und verlässliche Wissen – die erfahrbare »Wahrheit« schlechthin – ist ein intersubjektiv gebildetes soziales Phänomen. Ein Faktum gilt dann als »wahr«, wenn es aus einer verlässlichen Quelle stammt, wenn also sozio-psychologisch vertrauensvolle Personen als Autoren fungieren – oder fungierten. Das sozial akzeptierte wahrheitsgemäße Wissen einer Person ist ein durch Computer nicht simulierbarer »social common sense«.

Die Datenspeicherung von Computern ist mit dem biologischen und sozialen Phänomen des menschlichen Verstehens und Wissens keinesfalls gleichzusetzen. Umgekehrt speichert das menschliche Gehirn sehr wohl (quasi-maschinell) gewisse Dateninhalte, es erfolgt im menschlichen Gehirn auch eine gewisse algorithmische Datenverarbeitung.

Der Mensch erkennt die partielle Ähnlichkeit seines Denkens mit dem Wirken der Datenverarbeitungsmaschinen – und es kommt zu der anthropomorphen Projektion, dass diese Maschinen – menschenähnlich – etwas »wissen« und »verstehen« könnten. Dies ist aber nicht der Fall.

Menschen spüren – wahrscheinlich exklusiv – das Verstehen

Seit den Corona-bedingten Maßnahmen haben Videokonferenz-Vorlesungen an den Hochschulen eine gewisse Akzeptanz erfahren. Aber die Dozierenden haben bei abgeschalteten Video-Rückkanälen keine Ahnung, ob »es« von den Studierenden verstanden wurde, was die Vorlesungen vermitteln wollen und sollen.

Abbildung 4: Die Komponisten Luigi Nono und Karlheinz Stockhausen an den Internationalen Ferienkursen für Neue Musik in Darmstadt, im Jahr 1957. Zwei Menschen können sich offenbar über einen Gegenstand verständlich machen. Es existiert offenbar ein technisch kaum fassbarer – dahingehend fast irrationaler – menschlicher Kommunikationskanal (Foto: Seppo Heikinheimo).

Auch im Kreis der Studierenden ist bei Videokonferenz-Vorlesungen nicht klar, ob man etwas verstanden hat. Das Fehlen einer Common-Sense-Atmosphäre (speziell die fehlende Wahrnehmung allgemeiner Unsicherheit) führte zu massiven Hemmungen, was das Stellen von Verständnisfragen angeht.

Wissen wir wirklich, wie lange Krokodile leben?

Nehmen wir die Krokodil-Frage biologisch, dann wäre die Antwort, die mittlere Lebenserwartung von Krokodilen, etwa in Jahren, anzugeben. Das wäre ein Faktum, das sich enzyklopädisch – oder auch nur per Internet-Suche – ermitteln ließe. Aber, woher sollen wir wissen, ob das ermittelte Ergebnis wirklich wahr ist? – Wollen wir das etwa per Mehrheitsresultat ermitteln? Das mit den Mehrheitsresultaten ist so eine Sache:

Das Googeln von Elefanten-Bildern ergibt – der Sendung mit der Maus sei Dank – für kleine blaue Elefanten eine klare Mehrheit. Ähnliches gilt für rosarote Panther. Nun denn ja.

Wenn man die erste Hälfte einer bestimmten Strecke mit einem 50-er Schnitt fährt, mit welchem Schnitt in der zweiten Hälfte der Fahrt kann man noch einen 100-er Gesamtschnitt erreichen? Welche Mehrheiten im Abstimmungsergebnis sind in einem akademischen Auditorium zu erwarten? – Die völlig falsche Antwort »150« dürfte eine nicht geringe Zustimmung erfahren [und man lächelt wieder einmal, wenn man das Ganze(!) verstanden hat].

Zitieren wir Wikipedia, im Sommer 2024:

»Das Wissen darüber, wie alt Krokodile werden können, ist zurzeit noch sehr begrenzt. Daten von Krokodilen, die sicher eines natürlichen Todes starben, stammen ausschließlich aus Zoologischen Gärten, wobei jedoch nur von wenigen Tieren das Geburtsjahr genau bekannt war. Zudem ist unklar, ob Krokodile in Zoos aufgrund medizinischer Versorgung und permanent bereitgestellter Nahrung älter werden als ihre wilden Artgenossen, oder ob sie aufgrund von Besucherstress und dem Leben in einem künstlichen Habitat früher sterben. (…)

Für kleinere Arten in Gefangenschaft werden Höchstalter von 20 bis 30 Jahren angegeben. Größere Arten, wie das Salzwasserkrokodil, können bis zu 70 Jahre erreichen. Das älteste in menschlicher Obhut gestorbene Krokodil der Welt soll 115 Jahre alt geworden sein.«

Folgen wir Werner Heisenberg, so bedeutet ein »Verstehen« in den Naturwissenschaften, speziell der Physik, dass nach Maßgabe nachvollziehbarer Experimente Daten gewonnen wurden, die in eine (mathematische, statistische) Modellbildung einflossen. Die Modelle wiederum müssen nachvollziehbar sein und Prognosen zu einem Systemverhalten erlauben. Davon ist Wikipedia mit seinem Krokodil-Text aber weit entfernt. Und der Google-Übersetzer hat offenbar auch kein allgemeines Verstehens-Modell für das, was ein Scherz ist.

Wie – etwa – die Modellbildung zur Gravitation über Issac Newton und Albert Einstein zeigt, sind Modelle durchaus lückenhaft und bedürfen der Revision. Die Gravitation ist auch im Jahr 2024 noch nicht vollständig verstanden; und das wird nach Maßgabe des Kritischen Rationalismus auch nie eintreten.

Wissen wir, wie lange Krokodile leben?

Was kann der Mensch verstehen? Im akademischen Leben herrscht das radikale Primat der Erkenntnis: Das Denkbare wird gedacht und das Verstehbare soll und wird (früher oder später) verstanden werden.

Will – oder gar muss(!) – der Mensch verstehen und verstanden werden? Verstehen und Verstanden werden – sehen wir hier einen unentrinnbaren »Sinn des Lebens«? Werden wir jemals verstehen, was das Verstehen ist, und was prinzipiell verstanden werden kann?

Wenn dies einträte, dann könnten wir ein allgemeines Modell formulieren. Es könnte sogar gelingen, dieses »Verständnis-Modell« zu programmieren und damit einer Maschine ein echtes Verstehen ihrer Umwelt beizubringen. Es ist indes zu hoffen, Sie haben in diesem Beitrag verstanden, dass wir noch lange nicht alles verstehen – das Verstehen der Welt erscheint wohl als begrenzt und beschränkt. Das Verstehen selbst und die Grenze des Verstehbaren scheinen – zurzeit – keine Gegenstände der verstehenden Erkenntnis zu sein.

Wenn die Konstruktion einer »den Menschen verstehenden Maschine« illusorisch ist – dann ist die Konsequenz für das öffentliche Verwaltungshandeln, dass an entscheidenden Stellen verstehende Menschen auch in Zukunft eine zentrale Rolle spielen werden.

Wenn man zu diesem Thema noch etwas weiterlesen will:

Kapitel »Vom Wert des Wissens – Computer wissen nichts« in: Georg Rainer Hofmann, Globale Provinz. Entdeckung und Besiedlung der digitalen Welt 1980 bis 2020. Vergangenheitsverlag, Berlin, 2022

Weiterführendes von ÖFIT:

Mythen der Digitalisierung - Folge 31

Berlin, 15.05.2024: Mythen rund um digitale Technologien sind weit verbreitet, sei es die Vorstellung von der Blockchain als Speicherort für Dokumente, die Hoffnung, künstliche Intelligenz werde sämtliche Probleme lösen, dass man im Internet immer mit seinen Daten bezahle oder dass etwas aufgrund des Datenschutzes nicht möglich sei. Diese simplen Erzählungen prägen oft den Diskurs. Nicole Opiela und Mike Weber diskutieren diese und weitere Digalisierungsmythen.

KI im Behördeneinsatz - Erfahrungen und Empfehlungen

Mit künstlicher Intelligenz (KI) verbinden sich große Erwartungen ebenso wie Skepsis und tiefsitzende Befürchtungen – gerade auch beim Einsatz in der öffentlichen Verwaltung. Um hier die richtigen Rahmenbedingungen zu schaffen, wurden in den letzten Jahren weltweit zahlreiche Leitlinien erarbeitet. Inwiefern werden diese Vorgaben beim KI-Einsatz in der deutschen öffentlichen Verwaltung berücksichtigt? Für die Studie wurden Fallbeispiele aus allen Bereichen der öffentlichen Leistungserbringung auf Bund-, Länder- und Kommunenebene analysiert. Entstanden ist eine systematische Bewertung der KI-Landschaft in der deutschen Verwaltung, die viele praktische Hinweise liefert, wie der KI-Einsatz unter den besonderen Erfordernissen der öffentlichen Verwaltung gelingend gestaltet werden kann.

Denkende Maschinen

Künstliche Intelligenz polarisiert wie kaum ein anderes Thema der Digitalisierung. Seit Jahrzehnten sollen »schon bald« nur schwer durchschaubare Maschinen den Menschen in seiner bislang exklusiven Domäne des problemlösenden Denkens übertrumpfen. Kinofilme nutzen diesen Angriff auf das menschliche Selbstverständnis ebenso für spektakuläre Darstellungen wie Feuilletons für philosophische und kulturkritische Betrachtungen. Seit einiger Zeit gewinnt das Thema durch konkrete Anwendungen neuen Schwung. Mit welchen Mechanismen und Auswirkungen werden wir in Zukunft tatsächlich konfrontiert? Verstricken wir uns in einem unkontrollierbaren Geflecht von Informationen mit unabsehbaren Folgen? »Alexa, Siri, Google – was meint ihr?«


Veröffentlicht: 12.02.2025