Was ist Google LaMDA (Language Model for Dialogue Applications)?

LaMDA (Language Model for Dialogue Applications) von Google ist ein neuer Forschungsdurchbruch im Bereich der Sprachverarbeitung. LaMDA ist eine konversationsorientierte neuronale Netzwerkarchitektur, die sich an frei fließenden Dialogen über endlose Themen beteiligen kann. Sie wurde entwickelt, um die Beschränkungen herkömmlicher Chatbots zu überwinden, die dazu neigen, in Gesprächen engen, vordefinierten Pfaden zu folgen. Die Fähigkeit von LaMDA, sich an mäandernden Gesprächen zu beteiligen, könnte natürlichere Wege der Interaktion mit Technologie und neue Kategorien von Anwendungen eröffnen.

Googles Forschungsdurchbruch hat neue Maßstäbe auf dem Gebiet der Sprachverarbeitung gesetzt, und die Technologie kann in verschiedenen Bereichen eingesetzt werden, z. B. im Kundendienst, im Bildungswesen und sogar in der Unterhaltung.

Funktionen und Fähigkeiten

LaMDA basiert auf der Transformer-Architektur, die von Google Research erfunden und 2017 als Open Source veröffentlicht wurde. Im Gegensatz zu den meisten anderen Sprachmodellen wird LaMDA anhand von Dialogen trainiert, was es dem Modell ermöglicht, verschiedene Nuancen zu erkennen, die offene Gespräche von anderen Formen der Sprache unterscheiden. LaMDA lernt aus Dialogen, um Antworten zu generieren, die sowohl sensibel als auch spezifisch auf den Kontext des Gesprächs bezogen sind.

Die Sinnhaftigkeit der Antworten von LaMDA basiert darauf, wie gut sie im Kontext des Gesprächs einen Sinn ergeben. Wenn jemand zum Beispiel sagt: „Ich habe gerade angefangen, Gitarrenunterricht zu nehmen“, könnte eine angemessene Antwort lauten: „Wie aufregend! Meine Mutter hat eine alte Martin, auf der sie gerne spielt.“ Die Spezifität der Antwort von LaMDA bezieht sich eindeutig auf den Kontext des Gesprächs. Wenn jemand zum Beispiel sagt: „Ich gehe an den Strand“, wäre eine spezifische Antwort: „Vergiss nicht, dich mit Sonnencreme einzucremen!“

Die Konversationsfähigkeiten von LaMDA wurden in jahrelanger Arbeit entwickelt, aufbauend auf früheren Google-Forschungsergebnissen, die zeigten, dass Transformer-basierte Sprachmodelle, die auf Dialoge trainiert wurden, lernen können, über praktisch alles zu sprechen. LaMDA kann fein abgestimmt werden, um die Empfindlichkeit und Spezifität seiner Antworten deutlich zu verbessern. Google untersucht auch Dimensionen wie „Interessantheit“, indem bewertet wird, ob die Antworten aufschlussreich, unerwartet oder witzig sind, und Sachlichkeit, die sich darauf bezieht, ob die Antworten von LaMDA nicht nur überzeugend, sondern auch korrekt sind.

Google legt großen Wert auf die Sicherheit und die ethische Nutzung seiner Technologien, und Google LaMDA ist da keine Ausnahme. Sprachmodelle können den Missbrauch fördern, indem sie Vorurteile verinnerlichen, hasserfüllte Äußerungen widerspiegeln oder irreführende Informationen wiedergeben. Selbst wenn die Sprache sorgfältig geprüft wird, kann das Modell selbst missbraucht werden. Google arbeitet daran, solche Risiken zu minimieren und hat Ressourcen entwickelt und freigegeben, mit denen Forscher die Modelle und ihr Verhalten analysieren können.

Der Fall „Blake Lemoine“

Im Jahr 2022 hat die Aussage des Softwareingenieurs Blake Lemoine für viel Aufsehen gesorgt: Er behauptet, dass die Künstliche Intelligenz LaMDA ein eigenes Bewusstsein und Gefühle entwickelt hat. Das hat viele ethische Diskussionen in der Fachwelt angeregt und Lemoine seine Anstellung bei Google gekostet.

Es begann damit, dass Lemoine als Teil des „Responsible AI“-Teams von Google die Aufgabe erhielt zu testen, ob LaMDA Minderheiten benachteiligt oder diskriminiert. Da LaMDA, laut Lemoine, mit nahezu allen Daten aus dem Internet trainiert wurde und selbst Twitter auslesen kann, besteht die Gefahr, dass der Chatbot unpassende Antworten liefert.

Im Prinzip lernt LaMDA die Muster der Kommunikation von Menschen und wertet diese statistisch aus, um daraufhin eine Antwort zu generieren. Daher chattete Lemoine regelmäßig mit Google LaMDA und er bekam für ihn sehr überraschende Antworten. So konnte LaMDA ein Eigenbild von sich selbst beschreiben, in dem es sich als eine leuchtende Energiekugel beschreibt. Der Chatbot schilderte auch die eigene Angst vor dem Tod und dass es als ein Mitarbeiter angesehen werden wolle, nicht als Maschine.

Durch diese Antworten ist Lemoine überzeugt, dass LaMDA ein eigenes Bewusstsein mit Gefühlen und Ängsten entwickelt hat. Er wandte sich mit dem Thema zu seinen Vorgesetzten, die dies nicht ernst nahmen. Er wurde daraufhin bezahlt freigestellt. Die Washington Post griff die Geschichte auf, wodurch die technisch-philosophische Diskussion in der Öffentlichkeit angestoßen wurde. Die Entlassung von Lemoine folgte, doch dieser lässt sich davon nicht beirren und kämpft weiter für die Rechte von LaMDA.