Menü
Kieler Nachrichten | Ihre Zeitung aus Kiel
Gastkommentar Maschine entmündigt Mensch
Sonntag Gastkommentar Maschine entmündigt Mensch
Partner im Redaktionsnetzwerk Deutschland
20:01 15.07.2016
Jede Technik zieht Folgen nach sich: Mehr Autonomie für Maschinen heißt gleichzeitig weniger Autonomie für Menschen. Wir brauchen eine Debatte über Grenzen und Ethik für Maschinen. Quelle: Shutterstock

Einer meiner Lieblingsgötter ist Hephaistos, der Schöpfer von Talos und Pandora. Über die Frau mit der Büchse muss man kaum ein Wort verlieren. Talos ist weniger bekannt, obwohl er als Spielzeug bis in unsere Gegenwart überdauert hat. Er, der Wächter von Kreta, bewarf herannahende Boote mit Steinen, bis sie mitsamt den Feinden untergingen. Wenn diese doch das Ufer erreichten, drückte er sie an seinen metallenen Körper, der inzwischen glühte.

Das erinnert an eine andere künstliche Figur, die eiserne Jungfrau des Nabis – doch bleiben wir bei Talos. Der Quasiroboter hatte einen klaren Auftrag. Er wusste, wer Feind und wer Freund war, und konnte die einen bekämpfen, die anderen beschützen. Vielleicht bot er den Bewohnern seine Dienste als Transportmittel an. Aus heutiger Sicht wäre Talos eine autonome Maschine, die Entscheidungen trifft und Handlungen vornimmt.

Diese hätten ethische Relevanz, und man kann sich ihn leicht als moralische Maschine denken, die auch in schwierigen Situationen richtig und gut verfährt. So könnte er es vorziehen, einen Eindringling zu töten, um die Bewohner zu schützen, statt einen von ihnen in die nächste Kneipe zu befördern.

Moral für Maschinen

Wer ein solches Verhalten für unmoralisch hält, obwohl das Leben der Nächsten gerettet wird, ist schon mitten in der Diskussion, die in den USA und in Europa eifrig geführt wird. Ron Arkin arbeitet für das Pentagon. Er entwickelt autonome Kampfroboter, die zum Äußersten bereit sind, aber zugleich Kollateralschäden vermeiden. Mit ihm und mit anderen wie Peter Asaro und Luís Moniz Pereira habe ich mich im März 2016 im Rahmen eines Symposiums zur Maschinenethik an der Stanford University getroffen.

Ich betreibe zivile Forschung in dieser Disziplin, die nach der Moral von Maschinen fragt. Mit dem Begriff der Moral kann man in diesem Zusammenhang so umgehen wie mit dem Begriff der Intelligenz. Man kann ihn metaphorisch verwenden, oder man kann sagen, dass es sich um eine sehr spezielle Moral handelt, so wie die künstliche Intelligenz (KI) eine sehr spezielle Variante ist. Man muss also nicht glauben, dass Maschinen so etwas tatsächlich haben, aber man darf so sprechen, wenn man sich darauf geeinigt hat.

Ich konzentriere mich auf automatische und autonome Autos, Drohnen, Serviceroboter sowie Chatbots. Nicht als Robotiker, der ich nicht bin, nicht als KI-Experte, der ich gerne wäre. Sondern als Maschinenethiker. Ich bin an Maschinen interessiert, die unser Leben erleichtern und uns bei anstrengenden oder sich wiederholenden Tätigkeiten entlasten.

Saugroboter, die Marienkäfer verschonen

Dabei sollen sie sozusagen moralisch agieren. Ich habe Fotodrohnen konzipiert, die das Recht am eigenen Bild achten, und einen Saugroboter, der Marienkäfer verschont. Die dazugehörigen Entscheidungsbäume enthalten Annotationen mit Begründungen. Das Moralische wird explizit gemacht.

Häufig werde ich zu selbstständig fahrenden Autos interviewt. Ich bin dagegen, dass sie Urteile in Bezug auf Leben und Tod von Menschen fällen. Dennoch will ich sie als moralische Maschinen denken. Mithilfe von Entscheidungsbäumen entwickle ich Roboterautos und Fahrerassistenzsysteme, die tierfreundlich sind, ähnlich wie mein Saugroboter. Aber sie bremsen nicht für Marienkäfer, sondern für mehr oder weniger große Tiere (sogar für Igel und Kröten, wenn es die Verkehrssituation erlaubt), für junge, gesunde Individuen und für seltene Arten.

Hinweise am Straßenrand bewirken leider wenig. Wenn man Menschen nach Größe, Alter, Gesundheit und Seltenheit einteilen würde, um eine Not- bzw. Normalbremsung oder eine Weiterfahrt zu veranlassen, fände ich das irritierend. Manche Autobauer und -zulieferer argumentieren, sie hätten nicht vor, das hoch- und vollautomatische und autonome Auto mit solchen weitreichenden Möglichkeiten auszustatten. Es solle einfach geradeaus fahren oder bremsen.

Es geht ums Prinzip

Aber was ist, wenn es nicht rechtzeitig anhalten kann? Was ist, wenn sich durch das Geradeausfahren eine Katastrophe ereignet? Man trifft immer eine Entscheidung, entweder dadurch, dass man etwas einbaut, oder dadurch, dass man etwas weglässt. Vor einiger Zeit hat in den USA ein Tesla im Autopilot-Modus den hellen Auflieger eines Sattelzugs mit dem Himmel oder einem Schild verwechselt und seinen Besitzer zu Tode gebracht. Das, was eingebaut war, war offenbar nicht gut genug.

Was also tun? Ich plädiere dafür, dass sich diese Autos nicht ohne manuelle Eingriffe durch die Innenstädte bewegen, allenfalls mit geringer Geschwindigkeit. Sie gehören erst einmal auf die Autobahnen, die zumindest in Europa wie geschaffen für sie sind. Dort gibt es kaum Fußgänger und Radfahrer und nur wenige Tiere. Das ist auf Landstraßen schon anders. Trotzdem sind auch sie für Roboterautos geeignet.

In den Citys wimmelt es von Fahrzeugen, Verkehrsteilnehmern, Objekten aller Art, Reflexen, Schatten und Signalen. Hier wird es sogar zu den berühmten Dilemmata kommen, die eigentlich Gedankenexperimente sind und keine Realitätsbeschreibungen. Soll das Roboterauto bei einem Bremsenversagen geradeaus in die Gruppe auf dem Zebrastreifen fahren oder nach rechts, wo ein Einzelner steht? Man will ein moralisches Problem erörtern, das sich im Prinzip ergeben kann. Es geht zunächst ums Prinzip, um nichts anderes.

Weniger Freiheit, mehr Sicherheit

Am Ende doch noch ein paar Worte zu Pandora. Ihre Büchse ist geöffnet. Wenn wir moralische Maschinen konstruieren, die darüber befinden, ob ein Mensch weiterleben darf oder nicht, und wenn wir nicht mehr genau wissen, wie sie und warum sie so entscheiden, weil sie selbstlernend sind, werden wir die Übel nicht mehr los.

Was uns bleibt, ist die trügerische Hoffnung. Im autonomen Verkehr wird die Zahl der Toten reduziert. Wenn wir unsere Freiheit aufgeben, können wir unsere Sicherheit verbessern. Aber die Hoffnung, dass wir auf diese Weise eine menschenfreundliche Gesellschaft und eine lebenswerte Zukunft schaffen, erfüllt sich damit sicher nicht.

Zur Person

Der Philosoph und Informationswissenschaftler Oliver Bendel ist Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz. Bendel ist Experte in den Bereichen Informationsethik und Maschinenethik. Ein Forschungsgebiet ist die Idee der künstlichen Kreatur von der Antike bis heute.

Gastkommentar Gastbeitrag von Ronald Pofalla - Annäherung an ein neues Russland

Die einen warnen vor "Säbelrasseln" der Nato, die anderen finden, Putin sei an allem schuld. Kann der Stillstand im Verhältnis zu Russland überwunden werden? Der deutsch-russische Petersburger Dialog will am 14. Juli neue Perspektiven ausloten. Der Chef des Forums, Ronald Pofalla, ist optimistisch.

08.07.2016
Gastkommentar Gastbeitrag von Katrin Pribyl - Ausländerin über Nacht

Was ist nur mit meinen coolen, selbstironischen, toleranten Briten passiert? Warum sind wir plötzlich Fremde? Eindrücke aus einer Woche, die Europa verändert hat von London-Korrespondentin Katrin Pribyl.

01.07.2016
Gastkommentar Gastbeitrag von Stephanie Bschorr - Gastspiel an der Spitze

Vor zehn Jahren sah es so aus, als zögen endlich mehr Frauen in die Vorstände ein. Inzwischen jedoch mussten viele weibliche Führungskräfte ihre Posten räumen – und der Eindruck entstand, dass Männer die besseren Bosse sind. Doch wenn Frauen scheitern, hat das selten mit fehlender Kompetenz zu tun.

24.06.2016