Skip to content
 Liebeszeitung - Liebe, Lust und Sex
Warnung! Teile dieser Texte könnten mithilfe menschlicher Intelligenz erzeugt worden sein.

Hilft uns „künstliche Intelligenz“ bei der Partnersuche?

„Künstliche Intelligenz“ beruht darauf, Sachverhalte und Situationen zu erfassen, in technisch verarbeitbare Formeln umzusetzen und daraus Schlüsse zu ziehen oder Aktionen auszuführen. Manche Systeme sind in der Lage, zu lernen und sich selbst zu optimieren – aber schon das ist nicht ganz einfach. Gegenwärtig liegt die Intelligenz vor allem in den Formeln – der Rest, der oft verblüfft, beruht auf der ungeheuren Datenmenge, die sich Daten verarbeitende Systeme aus unterschiedlichsten Informationsquellen holen können. (Eine allgemeinere, neutrale Definition findet ihr in "Computer Weekly (deutsch)".

Die Schwierigkeiten, ein zutreffendes Programm zu erstellen

Damit sind auch die Schwierigkeiten bereits definiert, nämlich:

- Was sind, auf das jeweilige Thema bezogen, überhaupt „relevante Sachverhalte?“
- Welche und wie viele Informationen benötigt man daraus, um ein Programm zu erstellen?
- Wie müssen die Formeln aufgebaut sein, um Schlüsse ziehen zu können?
- Aufgrund welcher Kriterien können (oder sollen) überhaupt Schlüsse gezogen werden?
- Welche der möglichen Schlüsse werden ausgegeben udn mit welcher Toleranz?

Zweifel am Wert der künstlichen Intelligenz bei der Partnersuche

Sieht man die Sache weniger logisch, so wird ein Mysterium daraus. Niemand sagt uns, was „relevante Sachverhalte“ sind, die als Input unbedingt benötigt werden. Ganz einfach, weil niemand genau weiß, unter welchen Gesichtspunkten Paare tatsächlich zusammenkommen werden. Insofern weiß man eben auch nicht, welche Informationen über eine Person relevant sind. Was der Programmierer dann tun kann, ist wenig: Er mischt die Daten ab, die er bekommt, bastelt die Wahrscheinlichkeiten zusammen und kontrolliert, ob es möglichst viele „gute Matches“ gibt. Sonst werden die „Suchenden“ sauer. Dafür, was ein gutes Mach ist, gibt es immerhin Stellschrauben in einem Computerprogramm, die sich auch nachträglich lockern lassen. Nun kommt der „Output“ – er muss zwangsläufig reichlich und positiv sein, sonst motzen die Kunden.

Das kling natürlich alles sehr aufregend. Aber ein Algorithmus ist noch keine künstliche Intelligenz, und so lese ich schmunzelnd:

So verwendet (ein Unternehmen der Branche) einen Algorithmus, um kompatible Myers-Briggs-Persönlichkeitstypen zu identifizieren und zuzuordnen – Benutzer füllen einfach einen Fragebogen aus.

Das bedeutet, auf einer stark angejahrten Persönlichkeitstheorie von Carl Gustav Jung aufzubauen, die 1944 für Fragebogen aufgearbeitet und später kommerzialisiert wurde. Niemand hat nachgefragt, was passiert, wenn eine über 75 Jahre alte Methode auf den Menschen des 21. Jahrhunderts angewendet wird. Aber weil der Konsument ohnehin nicht unterscheiden kann, was „künstliche Intelligenz“ ist, was Algorithmen bedeuten und wie die Ergebnisse zustande kommen, staunt er eben. Darauf baut die ganze Chose auf.

Ethik kann in Formeln gefasst werden - aber halten die Formeln stand?

Ob Computer irgendeine Ethik begreifen können? Ja, können sie, falls die Ethik-Regeln für alle gleich sind und es keine individuellen Abweichungen gibt. Bei Liebe, Lust, Leidenschaft, Begierden und ähnlichen Themen gibt es aber durchaus Unterschiede in der Sichtweise. Und es gibt eine eindeutige Stellungnahme: Menschen denken situativ durchaus unterschiedlich über das, was jetzt für sie wichtig ist. Es muss nicht das Gleiche sein, was sie beim Ausfüllen von Fragebogen dachten oder das, was sie bei einem Date vor drei Wochen gedacht haben.

Der KI-Experte David Tuffley drückte es so aus:

Die Realität ist, dass wir Menschen in Ethik nicht so sicher sind, weil wir uns nicht völlig klar sind, welche moralischen Anforderungen an erster Stelle stehen.

Das heißt kaum mehr, als dass die künstliche Intelligenz auch nichts verbessern kann, wenn sich die Menschen, die den Computer „füttern“ ungenaue Vorgaben verwenden.

Noch weiter geht Adrian David Cheok, ein Professor aus Tokio. Er sieht eine gefährliche Rückkoppelung im Verhältnis von Menschen zu KI:

Benutzer sollten sich des enormen Einflusses bewusst sein, den KI unwissentlich auf sie haben kann, und drauf achten, wer KI benutzt, denn

wenn Unternehmen die Macht dazu haben, können sie die Menschen definitiv dazu bringen, jemanden zu lieben. Also ist es wichtig, wer die KI kontrolliert.

Das ist nicht neu – nur ging die Faszination in früheren Zeiten von Kartenschlägerinnen, Astrologen und populistisch agierenden Psychologen aus, die alle eine gewisse Faszination auf das Volk ausübten. Auch das Wort „Algorithmus“ fehlt nirgendwo, wo die Passungen ausgebrütet werden, weil es so herrlich wissenschaftlich klingt.

Und nun? Nun heißt der neue Star „Künstliche Intelligenz“. Wer da in Ehrfurcht erstarrt, sollte schnell aufwachen.

Die Zitate entnahmen wir dieser Publikation.

Der Autor war 20 Jahre lang IT-Mitarbeiter, reisender Schulungsreferent und IT-Organisator.

Anmerkungen zu Liebe, Emotionen und künstlicher Intelligenz

Wenn Sie eine Abendgesellschaft, gleich, welchen Bildungsstands, einmal so richtig in Verlegenheit bringen wollen, dann fragen Sie doch mal:

Können Computer eigentlich Emotionen haben?


Sie könnten auch nach Robotern oder – ganz erbsenzählerisch nach „Computerprogrammen“ fragen. Und für Intellektuelle mit Pseudo-Computerwissen auch nach „künstlicher Intelligenz“.

Die Frage, die Sie eigentlich stellen sollten : was sind eigentlich Emotionen?

Sie werden sich wundern, wenn ich Ihnen sage: Versuchen Sie doch bitte erst einmal, Emotionen beschreibend darzustellen. Gerade das beschreibende Darstellen fällt dem Deutschen schwer – ergeht davon aus, dass die Bedeutung seiner Worte allen geläufig ist: Trauer, Liebe. Wut, Leidenschaft.

Einer Maschine ist nichts „geläufig“. Und der Knackpunkt jedes modernen Computers liegt darin, analoge Lebensbedingungen in digitale Prozesse zu wandeln. Doch das ist nur der Teil der Wahrheit, der für Computer gilt.

Warum wie Menschen unsere Emotionen nicht korrekt beschreiben können

Wir müssen zurück zum Menschen. Er ist ein sehr komplexes, Nachrichten verarbeitendes System, dessen allergrößte Schwierigkeit darin liegt, analoge Prozesse zu digitalisieren. Das heißt auf Deutsch: Gefühle so präzis auszudrücken, dass sie jemand anders versteht. Die meisten von Ihnen werden sagen: Das ist doch puppenleicht, da gibt es doch Ausdrücke dafür. Denken Sie noch einmal nach. Die Ausdrücke (Wut, Liebe, Trauer) sind das Endergebnis einer Beschreibung, von der angenommen wird, dass sie ein Gefühl definieren. Sie beschreiben aber nicht, wie das Gefühl entsteht, und wie es sich körperlich, geistig und mental genau auswirkt. Die Säugetiere, also auch die Primaten und damit die Menschen, verwenden einen Trick: Sie verwenden Körpersprache. Die wird analog abgegeben und analog aufgenommen und ist damit schneller und zuverlässiger als das Wort. Bloß: Sie funktioniert vollständig nur unter Anwesenden und läuft zunächst auf optischer und taktiler Ebene ab.

Sehen Sie, und da kommen wir schon auf den Knackpunkt:

Warum sollen Computer etwas können, was nicht einmal wir beherrschen: Gefühle genau zu beschreiben?


Klar gibt es da Tricks: Man könnte Veränderungen in der Stimmlage, im Pulsschlag, an Schweißdrüsen, Penissen und Vaginen abnehmen. Man könnte den Computer befähigen, alle Feinheiten der Gesichtsmuskulatur udn die Augenbewegungen zu lesen und man könnte dafür Beschreibungen hinterlegen, was nicht ganz problemlos ist. Man könnte, man könnte, man könnte.

Wenn Sie glauben, dass Computer Gefühle haben, dann haben Sie auch welche

Da wäre noch etwas zu erwähnen, was Sie vielleicht schon einmal erlebt haben: Menschen glauben auch dann, mit einem weisen System zu sprechen, wenn dieses System unendlich primitiv ist. Wie „Eliza“ oder moderne Chatbots. Die werden zu emotional lebendigen Wesen, weil der Benutzer einfach glaubt, dass sie es sind.

Sehen Sie, schon bei E.T.A Hoffmann, wird die Frage nach den Emotionen von Robotern beantwortet: Solange wir glauben, dass Maschinen Emotionen haben, haben sie welche – wenn wir es nicht glauben, haben sie keine. Hoffmans Held braucht dazu noch eine geheimnisvolle optische Täuschung, der moderne Mensch braucht den Glauben an all diese „Algorithmen“, in die manche Institutionen so viel hineingeheimnissen. In all diesen Fällen werden wir verblendet. Der „ELIZA“-Nutzer glaubt, die Intelligenz eines Psychotherapeuten ausnutzen zu können, der notgeile Jüngling, der einem Chatbot verfällt, sieht in ihr die Geliebte, und der Kunde einer Singlebörse glaubt an die Zauberkräfte der elektronischen Liebesboten.

Ach, haben Sie am Sonntagabend den Tatort-Krimi „Echolot“ gesehen? Und waren Sie fasziniert? Dann empfehle ich Ihnen, diesen Artikel noch einmal von vorne zu lesen. Oder diesen, den ich für SEHPFERD verfasst habe,