Skip to content
 Liebeszeitung - Liebe, Lust und Sex
Warnung! Teile dieser Texte könnten mithilfe menschlicher Intelligenz erzeugt worden sein.

Hilft uns „künstliche Intelligenz“ bei der Partnersuche?

„Künstliche Intelligenz“ beruht darauf, Sachverhalte und Situationen zu erfassen, in technisch verarbeitbare Formeln umzusetzen und daraus Schlüsse zu ziehen oder Aktionen auszuführen. Manche Systeme sind in der Lage, zu lernen und sich selbst zu optimieren – aber schon das ist nicht ganz einfach. Gegenwärtig liegt die Intelligenz vor allem in den Formeln – der Rest, der oft verblüfft, beruht auf der ungeheuren Datenmenge, die sich Daten verarbeitende Systeme aus unterschiedlichsten Informationsquellen holen können. (Eine allgemeinere, neutrale Definition findet ihr in "Computer Weekly (deutsch)".

Die Schwierigkeiten, ein zutreffendes Programm zu erstellen

Damit sind auch die Schwierigkeiten bereits definiert, nämlich:

- Was sind, auf das jeweilige Thema bezogen, überhaupt „relevante Sachverhalte?“
- Welche und wie viele Informationen benötigt man daraus, um ein Programm zu erstellen?
- Wie müssen die Formeln aufgebaut sein, um Schlüsse ziehen zu können?
- Aufgrund welcher Kriterien können (oder sollen) überhaupt Schlüsse gezogen werden?
- Welche der möglichen Schlüsse werden ausgegeben udn mit welcher Toleranz?

Zweifel am Wert der künstlichen Intelligenz bei der Partnersuche

Sieht man die Sache weniger logisch, so wird ein Mysterium daraus. Niemand sagt uns, was „relevante Sachverhalte“ sind, die als Input unbedingt benötigt werden. Ganz einfach, weil niemand genau weiß, unter welchen Gesichtspunkten Paare tatsächlich zusammenkommen werden. Insofern weiß man eben auch nicht, welche Informationen über eine Person relevant sind. Was der Programmierer dann tun kann, ist wenig: Er mischt die Daten ab, die er bekommt, bastelt die Wahrscheinlichkeiten zusammen und kontrolliert, ob es möglichst viele „gute Matches“ gibt. Sonst werden die „Suchenden“ sauer. Dafür, was ein gutes Mach ist, gibt es immerhin Stellschrauben in einem Computerprogramm, die sich auch nachträglich lockern lassen. Nun kommt der „Output“ – er muss zwangsläufig reichlich und positiv sein, sonst motzen die Kunden.

Das kling natürlich alles sehr aufregend. Aber ein Algorithmus ist noch keine künstliche Intelligenz, und so lese ich schmunzelnd:

So verwendet (ein Unternehmen der Branche) einen Algorithmus, um kompatible Myers-Briggs-Persönlichkeitstypen zu identifizieren und zuzuordnen – Benutzer füllen einfach einen Fragebogen aus.

Das bedeutet, auf einer stark angejahrten Persönlichkeitstheorie von Carl Gustav Jung aufzubauen, die 1944 für Fragebogen aufgearbeitet und später kommerzialisiert wurde. Niemand hat nachgefragt, was passiert, wenn eine über 75 Jahre alte Methode auf den Menschen des 21. Jahrhunderts angewendet wird. Aber weil der Konsument ohnehin nicht unterscheiden kann, was „künstliche Intelligenz“ ist, was Algorithmen bedeuten und wie die Ergebnisse zustande kommen, staunt er eben. Darauf baut die ganze Chose auf.

Ethik kann in Formeln gefasst werden - aber halten die Formeln stand?

Ob Computer irgendeine Ethik begreifen können? Ja, können sie, falls die Ethik-Regeln für alle gleich sind und es keine individuellen Abweichungen gibt. Bei Liebe, Lust, Leidenschaft, Begierden und ähnlichen Themen gibt es aber durchaus Unterschiede in der Sichtweise. Und es gibt eine eindeutige Stellungnahme: Menschen denken situativ durchaus unterschiedlich über das, was jetzt für sie wichtig ist. Es muss nicht das Gleiche sein, was sie beim Ausfüllen von Fragebogen dachten oder das, was sie bei einem Date vor drei Wochen gedacht haben.

Der KI-Experte David Tuffley drückte es so aus:

Die Realität ist, dass wir Menschen in Ethik nicht so sicher sind, weil wir uns nicht völlig klar sind, welche moralischen Anforderungen an erster Stelle stehen.

Das heißt kaum mehr, als dass die künstliche Intelligenz auch nichts verbessern kann, wenn sich die Menschen, die den Computer „füttern“ ungenaue Vorgaben verwenden.

Noch weiter geht Adrian David Cheok, ein Professor aus Tokio. Er sieht eine gefährliche Rückkoppelung im Verhältnis von Menschen zu KI:

Benutzer sollten sich des enormen Einflusses bewusst sein, den KI unwissentlich auf sie haben kann, und drauf achten, wer KI benutzt, denn

wenn Unternehmen die Macht dazu haben, können sie die Menschen definitiv dazu bringen, jemanden zu lieben. Also ist es wichtig, wer die KI kontrolliert.

Das ist nicht neu – nur ging die Faszination in früheren Zeiten von Kartenschlägerinnen, Astrologen und populistisch agierenden Psychologen aus, die alle eine gewisse Faszination auf das Volk ausübten. Auch das Wort „Algorithmus“ fehlt nirgendwo, wo die Passungen ausgebrütet werden, weil es so herrlich wissenschaftlich klingt.

Und nun? Nun heißt der neue Star „Künstliche Intelligenz“. Wer da in Ehrfurcht erstarrt, sollte schnell aufwachen.

Die Zitate entnahmen wir dieser Publikation.

Der Autor war 20 Jahre lang IT-Mitarbeiter, reisender Schulungsreferent und IT-Organisator.

Trackbacks

Keine Trackbacks

Kommentare

Ansicht der Kommentare: Linear | Verschachtelt

Noch keine Kommentare

Kommentar schreiben

Umschließende Sterne heben ein Wort hervor (*wort*), per _wort_ kann ein Wort unterstrichen werden.
Standard-Text Smilies wie :-) und ;-) werden zu Bildern konvertiert.

Um maschinelle und automatische Übertragung von Spamkommentaren zu verhindern, bitte die Zeichenfolge im dargestellten Bild in der Eingabemaske eintragen. Nur wenn die Zeichenfolge richtig eingegeben wurde, kann der Kommentar angenommen werden. Bitte beachten Sie, dass Ihr Browser Cookies unterstützen muss, um dieses Verfahren anzuwenden.
CAPTCHA

Formular-Optionen