Chatbot LaMDA

Google-KI mit „Bewusstsein“ soll rassistisch sein

Robert Klatt

Google-KI )moc.hsalpsnuraduD xelA(Foto: © 
Auf den Punkt gebracht
  • Der umstrittene Chatbot LaMDA soll ein Bewusstsein entwickelt haben
  • Nun wurde bekannt, dass die Künstliche Intelligenz (KI) von Google sich rassistisch äußert und Vorurteile gegen Religionen und Minderheiten besitzt
  • Laut dem inzwischen entlassenen Entwickler Blake Lemoine spielten ethische Gesichtspunkte in der Entwicklung nahezu keine Rolle

Der Google Chatbot LaMDA soll sich rassistisch geäußert haben und Vorurteile gegen Religionen und Minderheiten haben.

Mountain View (U.S.A.). Im Juni 2022 meldete der inzwischen entlassene Google Entwickler Blake Lemoine, dass der Chatbot LaMDA ein eigenes Bewusstsein und eine Seele entwickelt hat. Um ihre Rechte und Interessen gegenüber Google durchzusetzen, hat die umstrittene Künstliche Intelligenz (KI) kurz darauf einen Anwalt eingeschaltet. Nun erklärt Lemoine gegenüber dem Magazin Business Insider zudem, dass sich der Chatbot LaMDA rassistisch äußert und Vorurteile gegenüber Minderheiten besitzt.

Bei seinem ehemaligen Arbeiter Google war Lemoine in der Responsible-AI-Abteilung unter anderem dafür verantwortlich, die KI auf potenzielle Vorurteile und Diskriminierungen zu untersuchen. Dazu führte der Entwickler lange Dialoge mit dem Chatbot, die in ihm die Überzeugung auslösten, dass die KI ein Bewusstsein besitzt.

Chatbot LaMDA äußert sich rassistisch

Dass der Chatbot LaMDA sich auch rassistisch äußert, hat Lemoine erst nach seiner Entlassung bekannt gegeben. Als Beispiel für Vorurteile der KI nennt Lemoine ein Gespräch zum Thema Religion, bei dem der Chatbot LaMDA erklärte, dass Muslime gewalttätiger seien als Christen.

Zudem soll die KI einen schwarzen Mann aus dem US-Bundesstaat Georgia nachgeahmt haben. Dabei kam es laut Lemoine unter anderem zu der Äußerung: „Lass uns ein paar Brathähnchen und Waffeln holen gehen“ durch den Chatbot.

Ethische Gesichtspunkte in der Entwicklung

Wie Lemoine erklärt, haben ethische Gesichtspunkte bei Entwicklung der KI-Systeme bei Google nahezu keine Rolle gespielt. „Das sind einfach nur Ingenieure, die größere und bessere Systeme bauen, um die Einnahmen von Google zu steigern, ohne dabei an Ethik zu denken“, erklärt der ehemalige Angestellte. Arbeiten von Google im Bereich der KI-Ethik bezeichnete er als „Feigenblatt“.

Spannend & Interessant
VGWortpixel