Es kommt auf verantwortungsvollen Umgang an
Die Nachricht ging um die Welt: Ein Google-Entwickler glaubt, seine KI sei eine Persönlichkeit mit Bewusstsein. Damit tritt ein, wovor zahlreiche Forscher und Forscherinnen seit geraumer Zeit warnen. Wir haben ein Problem mit KI – doch das hat wenig mit Science-Fiction zu tun.
Eigentlich hatte Blake Lemoine eine klare, einfache Aufgabe. Künstliche Intelligenzen (KI), das weiß man inzwischen gut, haben ein Problem: Wenn man sie einfach mit all dem, was Menschen so ins Internet schreiben, füttert, dann fangen sie an, auch die hässlichen Dinge zu wiederholen. Dann beleidigen Sprachmodelle Minderheiten oder produzieren rassistische oder sexistische Aussagen. Lemoine sollte deshalb für seinen Arbeitgeber Google testen, ob sich dessen neue Sprach-KI Lamda ethisch korrekt benimmt. Oder ob man sie – mit den richtigen Anreizen – dazu bringen kann, Hassrede zu verwenden. So weit, so einfach.
Doch während seiner zahlreichen Chats mit Lamda traf Lemoine auf ein ganz anderes ethisches Dilemma. Lamda, so Lemoines Überlegung, könnte ein Bewusstsein entwickelt haben. „Es will bekannt werden. Es will gehört werden. Es will als Person respektiert werden“, fasst der inzwischen freigestellte Google-Angestellte in einem Dokument zusammen, das seine Kollegen und Kolleginnen dazu anregen soll, zu überlegen, ob Lamda wirklich einfach nur ein geistloser Phrasendrescher ist.