Eine janusköpfige Technologie

Joël Frei
Forschung
Verband
KI-Systeme können der Gesellschaft schaden, sie bergen aber auch grosses Potenzial

Künstliche Intelligenz reproduziert die Ungerechtigkeiten unserer Gesellschaft. In Gebieten wie der Medizin könnte sie aber viel Gutes bewirken.

Der Schock sass tief, als das Computerprogramm Tay kurz nach seiner Lancierung im Frühling 2016 den Holocaust leugnete und den damaligen US-Präsidenten Barack Obama übel beschimpfte. Der von Microsoft in die sozialen Medien gestellte Social Bot, ein Programm in Form eines weiblichen Teenagers, sollte junge Menschen ansprechen und von ihnen lernen: «Je mehr du mit ihr sprichst, desto schlauer wird Tay», war unter dem Profilbild des künstlichen Teenies zu lesen.

Doch es kam anders. Microsoft musste den auf Basis von künstlicher Intelligenz (KI) entwickelten Bot aufgrund seiner rassistischen und sexistischen Äusserungen schon nach 16 Stunden vom Netz nehmen. Was war passiert? Gewisse User, die mit Tay chatteten, überschritten absichtlich Tabu-Grenzen, um den Bot zu problematischen Aussagen zu bewegen. Sie konfrontierten Tay mit ihren Vorurteilen, die das Programm schnell übernahm und weiterverbreitete. Die KI-Fachleute bei Microsoft hatten es offensichtlich versäumt, Tay einen rudimentären Ethikkodex mitzugeben.

Auch wenn künstliche Intelligenzen nicht intrinsisch asozial handeln können, weil sie kein Bewusstsein und keinen eigenen Antrieb aufweisen, so können ihre «Handlungen» dennoch die Rechte und die Würde von Menschen verletzen. Wir leben in einer Zeit, in der die 1942 aufgestellten Robotergesetze des ­Science-Fiction-Autors Isaac Asimov an Relevanz gewinnen. Insbesondere das erste Gesetz, das lautet: «Ein Roboter darf keinen Menschen verletzen.»

Wenn Algorithmen ausgrenzen
Die anfangs naive Tay verwandelte sich in einen gehässigen Internet-Troll, der mit dem Zweihänder austeilte. Der gescheiterte Social Bot von Microsoft ist keine Ausnahme. Auch andere KI-Programme diskriminieren Menschen, insbesondere solche, die einer Minderheit angehören. Je mehr sich die Technologie verbreitet, desto öfter kommen Beispiele ans Licht, wie KI ausgrenzen kann.

Da ist das Risikomanagement-Tool «Compas», das einschätzt, wie gross die Gefahr ist, dass ein Straftäter oder eine Straftäterin rückfällig wird. Delinquenten mit schwarzer Hautfarbe, die nicht rückfällig wurden, werden vom US-Tool dennoch fast doppelt so oft als «hohes Rückfallrisiko» eingestuft als weisse. Da ist das soziale Netzwerk Facebook, das jungen LGBT-Menschen (lesbisch, schwul, bisexuell und transgender) gezielt Werbung für «Konversionstherapie» zeigte. Facebooks Algorithmen sind in der Lage, die sexuelle Orientierung eines Users zu ermitteln – ohne dass er dies auf seinem Profil angibt. Und da ist die umstrittene russische Applikation FaceApp, mit der man sein Gesicht durch KI altern oder «verschönern» lassen kann. FaceApp färbte mit der Funktion «hot» Menschen mit schwarzer Hautfarbe weisser ein und verschmälerte ihre Nasen – ein Feature, das nach anhaltenden Protesten eingestellt wurde.

Spiegel menschlicher Voreingenommenheit
Die KI-Technologie ist nicht neutral. Sie widerspiegelt menschliche Voreingenommenheit. Ein erster Grund dafür ist, dass Algorithmen immer mit Vergangenheitsdaten trainiert werden müssen, damit sie sich die Mustererkennung aneignen können. Wenn ein Risikomanagement-Tool die Kriminalfälle der USA der letzten Jahrzehnte durchforstet, lernt es, dass Schwarze gefährlicher sind als Weisse. Die hinter der im Mittel höheren Delinquenz schwarzer Menschen stehenden diskriminierenden gesellschaftlichen Mechanismen werden ausgeblendet: Personen, die einer ethnischen Minderheit angehören, werden öfter von der Polizei kontrolliert. Zudem wachsen sie häufiger in sozial benachteiligten Quartieren auf, weil sie eingeschränkter in der Arbeits- und Wohnungssuche sind.

Ein zweiter Grund für die Befangenheit mancher KI-Programme ist, dass sie meist von einer – weltweit gesehen – Minderheit entwickelt werden. Nämlich von weissen Männern, die dazu tendieren, die KI-Programme mit nicht repräsentativen Daten zu füttern. Dies war der Grund für die Panne bei
FaceApp: Die Entwickler verwendeten für ihr Programm nicht genügend Trainingsdaten von Menschen mit schwarzer Hautfarbe. Aber nicht nur Russland hat ein Diversity-Problem: Eine aktuelle Studie der New York University zeigt, dass bei Facebook nur 15 Prozent der KI-Forschenden Frauen sind; bei Google sind es 10 Prozent. Bei ethnischen Minderheiten ist die Situation gravierend: Nur gerade 2,5 Prozent der Mitarbeitenden bei Google sind schwarzer Hautfarbe.

Wer hat Angst vor dem bösen Roboter?
Wer an künstliche Intelligenz denkt, dem kommen vielleicht humanoide Roboter in den Sinn, welche ein eigenes Bewusstsein entwickeln und die Menschen durch ihre kognitive Überlegenheit unterjochen. Für die Roboterpsychologin Martina Mara von der Universität Linz eine unbegründete und falsche Angst: «Die menschengleiche Maschine, die uns in all unserer komplexen Wesenhaftigkeit, mit all unseren kognitiven, sozialen und motorischen Fähigkeiten zu ersetzen droht, gehört der Science-Fiction-Sphäre an», schreibt die KI-Forscherin auf Anfrage des Psychoscope.

Diese Angst lenke von den eigentlichen Risiken der künstlichen Intelligenz ab: der Reproduktion von Fehlern sowie menschlichen Stereotypen und Rollenklischees, die in den Daten stecken, welche die KI-Fachleute ihren Programmen zwecks Training einspeisen. Handlungsbedarf gibt es laut Martina Mara insbesondere bei Entscheidungen, die aus Sicht des betroffenen Individuums hoch relevant sind. Also beispielsweise, wenn ein KI-System entscheidet, ob eine Bewerberin für den Job geeignet oder ob bei einem Patienten die vorgeschlagene Therapie indiziert ist. «In solchen Fällen braucht es Qualitätskriterien für die Trainings­daten, die den Fokus auf Repräsentativität, Fairness und Nachvollziehbarkeit legen.»

Überwachen, belohnen und strafen
Ob einst künstliche Intelligenzen mit eigenem Bewusstsein und Antrieb entwickelt werden, die uns schaden, gehört ins Reich der Spekulationen. Eine ernst zu nehmende Gefahr geht hingegen von KI-Systemen aus, die dafür entwickelt wurden, um Menschen effizienter zu überwachen, zu belohnen und zu strafen. Über solche Technologien verfügen nicht nur autoritäre Staaten wie China, wo das Regime daran arbeitet, seine Herrschaft auf das Internet auszuweiten. Ein «Sozialkreditsystem», eine Art Rating-System für Individuen, bewertet die Bürgerinnen und Bürger und belohnt sie mit Kreditpunkten für erwünschtes Verhalten. Für unerwünschtes Verhalten aber – wie bei Rot über die Strasse gehen – werden ihnen Punkte abgezogen.

Auch Unternehmen benutzen KI-Systeme für die Überwachung. Der US-Onlineversandhändler Amazon zum Beispiel hat ein automatisiertes System eingeführt, das einschneidende Konsequenzen für die Angestellten in den Lagerhäusern hat: «Das System von Amazon überwacht die Produktivität jedes Mitarbeitenden. Es spricht automatisch Warnungen hinsichtlich der Qualität und Produktivität ihrer Arbeit aus und generiert Kündigungen, ohne dass eine vorgesetzte Person in diesen Entscheid involviert ist», kann man im Technologie-Onlinemagazin The Verge lesen.

Gemäss Amazon haben die Vorgesetzten die Möglichkeit, die vom System ausgegebenen Kündigungen zu stornieren. Doch auch wenn sie bei Härtefällen schützend einschreiten und ungerechte Kündigungen zurücknehmen würden. Und auch wenn das Amazon-System ein Vorbild in Sachen Fairness, Verantwortlichkeit und Transparenz wäre. Es bliebe dennoch ein fahler Nachgeschmack: Dürfen Unternehmen Roboter einsetzen, die uns überwachen, verwarnen und kündigen? Und werden Regierungen solche Technologien auch beiseitelassen, wenn sie sich von ihnen etwa versprechen, die Kriminalitätsrate zu verringern?

Fleissarbeit abgeben, Gesundheit verbessern
Was die technologischen Umwälzungen unserer Zeit betrifft, so stehen wir vor einem Dilemma, das der israelische Historiker Yuval Harari jüngst in der Neuen Zürcher Zeitung wie folgt beschrieb: «Es ist ganz und gar nicht klar, ob wir hier etwas stoppen sollen und was wir von den neuen Technologien eigentlich wollen.» Der Vordenker warnt dezidiert vor den «disruptiven Technologien» Biotechnik und künstliche Intelligenz, die in seinen Augen dazu führen könnten, dass sich gewisse Menschen technologisch «optimieren», was die Gefahr einer gesellschaftlichen Spaltung berge: «Wenn jene Klassen, die es sich leisten können, langsam zu Supermenschen werden, bleibt der Homo sapiens abgehängt zurück.»

Der Mensch könnte aber auch einen anderen Weg an der vor ihm stehenden Gabelung der Geschichte einschlagen. Die Roboterpsychologin Martina Mara möchte aufzeigen, dass künstliche Intelligenz komplementär zu den menschlichen Bedürfnissen sein kann. Dazu sei es wichtig, viel mehr Menschen als heute in den Diskurs über das technologische Morgen einzubinden: «Wir müssen uns gemeinsam die Frage stellen, welche Zukunft wir eigentlich wollen, welche Tätigkeiten wir an schlaue Maschinen abgeben möchten – und welche eben nicht.»

Die Psychologin sieht das grösste Potenzial der KI darin, dass sie repetitive, standardisierbare Aufgaben abnehmen könnte, «prioritär solche, die Menschen im Mittel wenig Freude bereiten.» Und auch in der Medizin sieht sie Potenzial: «Als Patientin möchte ich nicht darauf verzichten, dass meine Röntgenbilder zusätzlich zur Ärztin oder zum Arzt auch von einer KI untersucht werden. Sie könnte einen Vergleich mit Millionen anderer Röntgenbilder anstellen.»

Künstliche Intelligenz kann zum Wohl der Gesellschaft, aber auch zu ihrem Schaden genutzt werden. So könnte dieselbe Technologie, die es autistischen Kindern ermöglichen könnte, die Emotionen anderer einzuschätzen, dazu verwendet werden, Schulkinder in China einer Gehirnwäsche zu unterziehen – unsere Innenwelt könnte durch KI zum offenen Buch werden.

Hoffen wir, dass die ägyptische Computerwissenschaftlerin Rana el Kaliouby, Entwicklerin einer App, die Emotionen in Gesichtern ablesen kann, Recht behalten wird. Sie sagte in einem TED-Talk: «Die Gefahr besteht, dass emotional intelligente Technologien missbraucht werden. Doch ihr gewinnbringendes Potenzial für die Menschheit ist um ein Vielfaches grösser als ihr Potenzial für den Missbrauch.»

«Individuen sind wenig vorhersehbar»

KI-Systeme sollen fair, verantwortlich und transparent agieren. Erfüllt das Risiko­management-Tool «Compas» diese Kriterien?
Das ist ein brisanter Fall, der international eine grosse Debatte ausgelöst hat. Sie lenkt den Blick auf wesentliche Fragen: Wie treffen Algorithmen Entscheidungen? Sollen öffentliche Rechtsträger solche Systeme nützen? Welche Verantwortung haben sie? Algorithmen werden häufig eingesetzt, auch im Strafrecht, wie «Compas» zeigt.
 
Wie muss KI ausgestaltet werden, damit sie keine Vorurteile reproduziert?
Wir müssen uns klar sein, dass die Voreingenommenheit in der Natur der Technologie liegt. Algorithmen werden mit historischen Daten gefüttert, damit sie Muster erkennen können. Diese Daten widerspiegeln die Ungleichheiten unserer Welt. Darum müssen wir die Algorithmen regelmässig testen, um gleiche und faire Ergebnisse für die unterschiedlichen Gruppen zu erzielen. Die Teams, die an KI forschen und Algorithmen entwickeln, sollten zudem gemischter werden – die Branche ist männerdominiert. Viele Stimmen müssen angehört werden, damit KI-Systeme der gesamten Gesellschaft dienen. «Was ist fair und ethisch?» ist eine philosophische und rechtliche Frage. Verantwortlichkeit können wir nur leben, wenn wir möglichst viele Disziplinen zusammenbringen, die von verschiedenen Blickwinkeln auf diese Frage schauen.

Sie sagten in einem Referat, dass Algorithmen den Menschen die Chance raubten, die «Ausnahme der Regel» zu sein. Warum?
Algorithmen schauen sich die Vergangenheit an und schliessen dadurch auf die Zukunft. Dies ist von Vorteil, wenn die Technologie auf gesellschaftlicher Ebene operiert. Etwa, indem man eine Grippewelle überwacht und dafür sorgt, dass genügend Medikamente vorhanden sind. Individuen aber sind spontan, autonom und wenig vorhersehbar. Ich war vor zehn Jahren eine ganz andere Person und entwickle mich stets weiter. Wir können uns aber nur weiterentwickeln und herausfinden, wer wir sein möchten, wenn wir frei von unserer Vergangenheit sind. /jof


Sandra Wachter ist Juristin und Professorin in Datenethik, KI, Robotik und Internet-Regulierung sowie Cyber-Sicherheit an der Universität Oxford.

Kommentare

Kommentar hinzufügen