Skip to content
Werbung Email:

Künstliche Intelligenz - gibt es sie? Und was ist mit "künstlicher Idiotie"?

Wenn wir in Zukunft genügend große Automaten mit Lernfähigkeit bauen, dann können wir dies unter keinen Umständen mehr als Abbild der menschlichen Intelligenz kennzeichnen. Sie können dann über die menschliche Intelligenz hinauswachsen, wenn sie direkt mit der Außenwelt kommunizieren …


Karl Steinbuch, „Automat und Mensch“, Berlin 1961

Wir haben sie, die genügend großen Automaten mit und ohne Lernfähigkeit, und sie sind inzwischen so klein, wie es sich Steinbuch nie hätte vorstellen können. Selbst er, der begnadete Wegbereiter der Kybernetik, ging von ganz anderen Größen aus. Künstliche Intelligenz lag noch in weiter Ferne – der PC, der schon als sensationell galt, war noch lange nicht erfunden. Heute kommuniziert ein Sytsem zum automatischen Einparken bereits in der geschilderten Weise mit der Umwelt.

Künstliche Intelligenz und künstliche Idiotie

Und wir sehen zwei Phänomene die weit auseinander laufen: Die geschliffene und präzise Weiterentwicklung von künstlicher Intelligenz, selbst lernend einerseits oder vorprogrammiert andererseits. Und eine neue Form von „künstlicher Intelligenz“, die eigentlich eher „künstliche Idiotie“ genannt werden müsste. Sie wird bewusst als "KI" verkauft, um dem Kunden zu suggerieren: "Hier läuft ein Programm, in dem geballte Intelligenz verwendet wurde."

Wir haben sie, die genügend großen Automaten mit und ohne Lernfähigkeit, und sie sind inzwischen so klein, wie es sich Steinbuch nie hätte vorstellen können. Selbst er, der begnadete Wegbereiter der Kybernetik, ging von ganz anderen Größen aus. Künstliche Intelligenz lag noch in weiter Ferne – der PC, der schon als sensationell galt, war noch lange nicht erfunden.

Künstliche Intelligenz und künstliche Idiotie

Und wir sehen zwei Phänomene die weit auseinander laufen: Die geschliffene und präzise Weiterentwicklung von künstlicher Intelligenz, selbst lernend einerseits oder vorprogrammiert andererseits. Und eine neue Form von „künstlicher Intelligenz“, die eigentlich eher „künstliche Idiotie“ genannt werden müsste.

Und während die erste mit messbaren Fakten, eine Unmenge von gespeicherten Daten zum Vergleich und mathematisch präzisen, nachvollziehbaren Messungen arbeitet, versucht es die zweite Gruppe mit einem Schmu aus Dummheit, dem Griff in Psycho-Kisten und äußert vagen Annahmen.

Wenn Blödsinn eingegeben wird, kommt Blödsinn heraus

Denn ein frecher Satz aus der Programmierung gilt für alle und alles: „Shit in – Shit out.“ Heißt noch etwas erweitert: Wenn du Scheiße fütterst und und die Scheiße umrührst, kommt Scheiße heraus – nichts sonst.

Der seriöse Programmentwickler und der trickreiche Datenmixer

Was wir einfüttern, muss messbar oder anderweitig überprüfbar sein. Je mehr Daten unser System bekommt, um einen Vorgang „beurteilen“ zu können, umso besser können die Ergebnisse sein. Dürftige oder unvollständige Daten werden mit Recht von seriösen Programmen abgewiesen. Der Entwickler entscheidet im Zweifel, welche Datenqualität ausreicht, um den Vorgang mit einem präzisen Ergebnis, manchmal auch mit mehreren möglichen Ergebnissen abzuschließen. Die „künstliche Idiotie“ geht einen anderen Weg: Sie versucht, die fehlenden Daten durch „Erfahrungswerte“ zu ersetzen und täuscht in der Folge Ergebnisse vor, die auf keinen Fall auf den eingegebenen Daten beruhen. Es ist leicht, so ein Programm aufzubauen, beispielsweise für die Astrologie, und sogar für Persönlichkeitsmerkmale.

Algorithmen - ein Wort, um Dumme zu ködern

Um Entscheidungen treffen zu können, werden die berühmten (und oft missverstandenen) Algorithmen genutzt: Das sind komplizierte in sich verschachtelte Entscheidungsprozesse. Er ist die zweite Schwachstelle bei vielen Programmen mit „Künstlicher Idiotie“. In vielen Fällen (auch wohlmeinenden) kann gar keine Entscheidung gefällt werden, das Grundgerüst dafür fehlt. Dann werden entweder Annahmen oder Zufallsentscheidungen verwendet, um Ergebnisse vorzugaukeln. Am Ende bekommt der Kunde dann ein haarstäubend falsches Ergebnis, das er dennoch für richtig hält.

ELIZA - gut gemeint, und dennoch ohne wirkliche Intelligenz

Selbst eines der ersten (wohlmeinenden) Beispiele künstlicher Intelligenz, die ELIZA, entsprach dem Konzept künstlicher Idiotie: Die eingegebenen Daten wurden gar nicht „wirklich“ verarbeitet, sondern nur durch eine Art „bedingt intelligentes Teesieb“ gestrichen. Wenn man dies Programm einem unbefangenen Menschen zeigte, war er dennoch ausgesprochen überrascht, wie klug „ELIZA“ war.

Simple Ideen, als "KI" vermarktet

Die Frage, die den Konsumenten und die werbende Wirtschaft am meisten bewegt, dürfte die sein, wie man Daten ausspäht und auswertet. Dies gilt ebenfalls als „KI“, ist aber letztendlich nur ein Auswuchs derselben „künstlichen Idiotie“, die oftmals mit der „Künstlichen Intelligenz“ verwechselt wird. Dazu gehören Annahmen, wie „Was der Konsument oft anklickt, das kauft er auch.“ „Künstliche Intelligenz“ würde mindestens dies erfordern: „Wenn der Kunde das Produkt „A“ besitzt und das Produkt „B“, dann benötigt er voraussichtlich auch das Produkt „C“.

Psychotests als Negativbeispiel

Außerhalb von präzisen, belegbaren Daten und Fakten muss nahezu alles der „künstlichen Idiotie“ zugerechnet werden – das gilt vor allem für maschinelle Psychotests. Denn die Psychologie verfügt nur selten über eindeutige Fakten, die sie durch eine Fülle von Annahmen ersetzt. Wie bereits angedeutet, benötigt ein Programmierer nur wenige Daten, um daraus falsche, aber weitgehend glaubwürdige Persönlichkeitsprofile zu erstellen. (1)

Die suggestive Kraft von "Künstlicher Intelligenz"

Der Trick aller, die damit arbeiten: Sie nutzen die suggestive Kraft, die von „künstlicher Intelligenz“ ausgeht, um darauf ihr Süpplein zu kochen. Was in Wahrheit dahinter steht, ist oft absolut lächerlich. Aber Hauptsache, der Kunde glaubt es.

Mein Rat: Seien sie kritisch und glauben sie den Spielern mit „Künstlicher Idiotie“ kein Wort.

(1) Sie können ohne weiteres für alle Menschen das gleiche Ergebnis ausgeben, unabhängig von dem, was eingegeben wurde. Die Erfolgsquote liegt bei 4,26 Punkten auf einer Skala von 0 bis 5 Punkten.

Dieser Artikel erscheint - im Original oder in Abwandlungen - in mehreren Medien

Anmerkungen zu Liebe, Emotionen und künstlicher Intelligenz

Wenn Sie eine Abendgesellschaft, gleich, welchen Bildungsstands, einmal so richtig in Verlegenheit bringen wollen, dann fragen Sie doch mal:

Können Computer eigentlich Emotionen haben?


Sie könnten auch nach Robotern oder – ganz erbsenzählerisch nach „Computerprogrammen“ fragen. Und für Intellektuelle mit Pseudo-Computerwissen auch nach „künstlicher Intelligenz“.

Die Frage, die Sie eigentlich stellen sollten : was sind eigentlich Emotionen?

Sie werden sich wundern, wenn ich Ihnen sage: Versuchen Sie doch bitte erst einmal, Emotionen beschreibend darzustellen. Gerade das beschreibende Darstellen fällt dem Deutschen schwer – ergeht davon aus, dass die Bedeutung seiner Worte allen geläufig ist: Trauer, Liebe. Wut, Leidenschaft.

Einer Maschine ist nichts „geläufig“. Und der Knackpunkt jedes modernen Computers liegt darin, analoge Lebensbedingungen in digitale Prozesse zu wandeln. Doch das ist nur der Teil der Wahrheit, der für Computer gilt.

Warum wie Menschen unsere Emotionen nicht korrekt beschreiben können

Wir müssen zurück zum Menschen. Er ist ein sehr komplexes, Nachrichten verarbeitendes System, dessen allergrößte Schwierigkeit darin liegt, analoge Prozesse zu digitalisieren. Das heißt auf Deutsch: Gefühle so präzis auszudrücken, dass sie jemand anders versteht. Die meisten von Ihnen werden sagen: Das ist doch puppenleicht, da gibt es doch Ausdrücke dafür. Denken Sie noch einmal nach. Die Ausdrücke (Wut, Liebe, Trauer) sind das Endergebnis einer Beschreibung, von der angenommen wird, dass sie ein Gefühl definieren. Sie beschreiben aber nicht, wie das Gefühl entsteht, und wie es sich körperlich, geistig und mental genau auswirkt. Die Säugetiere, also auch die Primaten und damit die Menschen, verwenden einen Trick: Sie verwenden Körpersprache. Die wird analog abgegeben und analog aufgenommen und ist damit schneller und zuverlässiger als das Wort. Bloß: Sie funktioniert vollständig nur unter Anwesenden und läuft zunächst auf optischer und taktiler Ebene ab.

Sehen Sie, und da kommen wir schon auf den Knackpunkt:

Warum sollen Computer etwas können, was nicht einmal wir beherrschen: Gefühle genau zu beschreiben?


Klar gibt es da Tricks: Man könnte Veränderungen in der Stimmlage, im Pulsschlag, an Schweißdrüsen, Penissen und Vaginen abnehmen. Man könnte den Computer befähigen, alle Feinheiten der Gesichtsmuskulatur udn die Augenbewegungen zu lesen und man könnte dafür Beschreibungen hinterlegen, was nicht ganz problemlos ist. Man könnte, man könnte, man könnte.

Wenn Sie glauben, dass Computer Gefühle haben, dann haben Sie auch welche

Da wäre noch etwas zu erwähnen, was Sie vielleicht schon einmal erlebt haben: Menschen glauben auch dann, mit einem weisen System zu sprechen, wenn dieses System unendlich primitiv ist. Wie „Eliza“ oder moderne Chatbots. Die werden zu emotional lebendigen Wesen, weil der Benutzer einfach glaubt, dass sie es sind.

Sehen Sie, schon bei E.T.A Hoffmann, wird die Frage nach den Emotionen von Robotern beantwortet: Solange wir glauben, dass Maschinen Emotionen haben, haben sie welche – wenn wir es nicht glauben, haben sie keine. Hoffmans Held braucht dazu noch eine geheimnisvolle optische Täuschung, der moderne Mensch braucht den Glauben an all diese „Algorithmen“, in die manche Institutionen so viel hineingeheimnissen. In all diesen Fällen werden wir verblendet. Der „ELIZA“-Nutzer glaubt, die Intelligenz eines Psychotherapeuten ausnutzen zu können, der notgeile Jüngling, der einem Chatbot verfällt, sieht in ihr die Geliebte, und der Kunde einer Singlebörse glaubt an die Zauberkräfte der elektronischen Liebesboten.

Ach, haben Sie am Sonntagabend den Tatort-Krimi „Echolot“ gesehen? Und waren Sie fasziniert? Dann empfehle ich Ihnen, diesen Artikel noch einmal von vorne zu lesen. Oder diesen, den ich für SEHPFERD verfasst habe,