Menü
Göttinger Tageblatt / Eichsfelder Tageblatt | Ihre Zeitung aus Göttingen
Anmelden
Göttingen Soll ein Staubsaug-Roboter einen Marienkäfer einsaugen oder umfahren, Frau Misselhorn?
Campus Göttingen Soll ein Staubsaug-Roboter einen Marienkäfer einsaugen oder umfahren, Frau Misselhorn?
Partner im Redaktionsnetzwerk Deutschland
10:56 25.09.2019
Fordert eine Ethik für Maschinen: Philosophin Catrin Misselhorn.moralischen Entscheiden und Handeln befähigt werden? Wo sind Grenzen? Mit diesen Fragen beschäftigt sich die Maschinenethik. Quelle: Martin Stollberg
Anzeige
Göttingen

Der zunehmende Einsatz künstlicher Intelligenz wirft moralische Fragen auf. „Das hat zur Entstehung einer neuen Disziplin geführt, der Maschinenethik“, berichtetdie Göttinger Philosophie-Professorin Catrin Misselhorn. Die Wissenschaftlerin beschäftigt sich mit dem neuen Forschungsfeld an der Schnittstelle von Informatik, Philosophie und Robotik. Künstliche Systeme sollen nicht nur mit Intelligenz, sondern auch mit der Fähigkeit zum moralischen Entscheiden und Handeln ausgestattet werden. Wichtige Anwendungsbereiche der Maschinenethik sind etwa Pflegesysteme, Kriegsroboter und das autonome Fahren.

Einsaugen oder umfahren?

„Es gibt viele Tätigkeiten, die Menschen gerne Maschinen überlassen wollen, weil sie zu schwer, gefährlich oder unangenehm sind“, sagt die Professorin. Die meisten Menschen empfinden zum Beispiel Staubsaugen als lästig. Die Arbeit kann ein Saugroboter erledigen, der autonom durch die Wohnung fährt. Doch wie soll das Gerät mit einem Marienkäfer umgehen, ihn einsaugen oder umfahren? Wie sieht das bei einer Spinne aus? Ist es richtig, Tiere um der Sauberkeit willen zu töten? Sollen Unterschiede zwischen ihnen gemacht werden?

Drängender sind die Fragen, die Kriegsroboter aufwerfen. Für „hochproblematisch“ hält Misselhorn sie. Roboter verfügen, anders als Menschen, über keinen moralischen Entscheidungsspielraum. Auch im Krieg besteht keine Pflicht zu töten, sondern bestenfalls eine situative Erlaubnis, betont die Wissenschaftlerin. Wie damit in Einzelsituationen umgegangen wird, sollte dem menschlichen Ermessen überlassen bleiben, findet sie.

Drängender sind die Fragen, die Kriegsroboter aufwerfen. Für „hochproblematisch“ hält Misselhorn sie. Roboter Quelle: iStock Editorial

„Grundlegende ethische Fragen wirft das autonome Fahren auf“, weiß Misselhorn. Soll ein autonomes Fahrzeug in einer Unfallsituation entweder ein Kind oder einen alten Menschen überfahren? Soll es fünf Menschenleben retten, indem es eine Person auf dem Gehweg überfährt? Ist ein besonderer Schutz für die Insassen moralisch legitim oder kommt den anderen Verkehrsteilnehmern vom moralischen Standpunkt mehr Gewicht zu?

Die Göttingerin hält es moralisch für fragwürdig, Maschinen die Entscheidung über Leben und Tod von Menschen zu übertragen. Sie lehnt das autonome Fahren aber nicht gänzlich ab, will es aber auch nicht voreilig forcieren. Die Göttingerin plädiert dafür, zunächst zu prüfen, wie viel Zugewinn an Sicherheit Assistenzsysteme bieten.

Ein anderes Themenfeld: künstliche Intelligenz und menschliche Selbstbestimmung. Selbstbestimmung beinhaltet unter anderem die Möglichkeit, gewisse gesundheitliche Risiken einzugehen, führt die Professorin aus. Solange ein Mensch in der Lage ist, grundsätzliche Entscheidungen über sein Leben zu treffen, muss er diese Möglichkeit eingeräumt bekommen.

Aus diesem Grund spricht sich die Wissenschaftlerin im Bereich der häuslichen Pflege für Systeme aus, die sich auf moralische Wertvorstellungen des Nutzers einstellen. Einen Pflegeroboter, der einem Patienten gegen dessen Willen aus gesundheitlichen Gründen ein Glas Wein oder ein Stück Schokolade verwehrt, lehnt sie ab.

Schutz der Privatsphäre

Eine andere Frage ist die der Privatsphäre. Im Pflegebereich gibt es Systeme, die den Nutzer an Essen, Trinken und Medikamentenaufnahme erinnern, die einen Arzt oder Angehörige rufen, wenn sich der Nutzer eine Zeit lang nicht bewegt. Das kann die Privatsphäre eines Menschen verletzen. Das kann nur mit Zustimmung der Betroffenen geschehen, fordert die Philosophin.

„Durch den vermehrten Einsatz von künstlicher Intelligenz entsteht ein Verantwortungsvakuum“, sagt die Professorin. Maschinen können auf dem derzeitigen Stand der Technik keine Verantwortung übernehmen. Andererseits führt der Mangel an Vorhersehbarkeit und Kontrolle im Fall autonomer Systeme dazu, dass die Verantwortungszuschreibung an Menschen problematisch wird. So wussten weder die Spieler noch die Entwickler von AlphaGo, dem System, welches als Erstes die besten menschlichen Go-Spieler besiegte, welchen Zug das System als Nächstes wählen würde. „Das heißt, dass es zu Entscheidungen kommen kann, die niemand so beabsichtigt oder vorhergesehen hat und über die niemand direkte Kontrolle besitzt“, sagt die Wissenschaftlerin. Bei einem System, das moralische Entscheidungen fällt, könnte das dazu führen, dass eine Verantwortungslücke entsteht und niemand für moralisch desaströse Entscheidungen eines solchen Systems verantwortlich gemacht werden kann.

Emotionale Manipulation

Fragen wirft zudem die Fähigkeit von Maschinen auf, Emotionen von Menschen zu erkennen und darauf zu reagieren. „Künstliche Systeme können wie ausgebuffte Psychopathen Emotionen erkennen und sozial angemessen darauf reagieren“, erklärt Misselhorn. Diese Fähigkeit dient – ähnlich wie bei den Psychopathen – in vielen Fällen manipulativen Zwecken. Diese setzt sich das System nicht selbst, sondern sie sind ihm von seinen Entwicklern vorgegeben.

„Emotionale KI soll Menschen zu einem gewünschten Verhalten bringen. Dieses kann darin bestehen, ein bestimmtes Produkt zu kaufen, aber das Ziel könnte auch sein, dass wir uns beim Autofahren nicht aufregen oder produktiver arbeiten“, sagt die Göttingerin. Darüber muss sich die Gesellschaft Gedanken machen. Selbst Emotionen empfinden, Gefühle oder Bewusstsein haben, können Maschinen hingegen nicht, zumindest nicht solche, die mit den derzeitig zur Verfügung stehenden KI-Ansätzen gebaut wurden.

„Menschen neigen dazu, KI und Roboter als denkende und fühlende Wesen wahrzunehmen“, sagt Misselhorn. Ein solches Vermenschlichen von Maschinen kann sich in therapeutischen Kontexten positiv auswirken. Es kann aber auch zu Missverständnissen bis zur emotionalen Manipulation führen.

„Ich gehöre zwar nicht der Generation der Digital Natives an, aber in meiner Altersgruppe war ich doch unter den Ersten, die von Computern fasziniert waren“, erzählt Misselhorn über ihr Interesse am Thema. Ende der 1980er-Jahre kaufte sie sich als Teenager von ihrem Taschengeld einen gebrauchten Atari. KI interessierte sie daher schon zu Beginn ihres Philosophiestudiums. Allerdings blieb die Entwicklung der KI in den 90er-Jahren weit hinter den vollmundigen Versprechungen zurück. Erst 2007/2008 kam Misselhorn auf das Thema zurück. 2019 erschien ihr Buch „Grundfragen der Maschinenethik“ in dritter Auflage.

Von Michael Caspar

„Im Zeitraum vom 1. Januar bis zum 9. September gingen insgesamt 4367 Bewerbungen auf einen Wohnheimplatz ein“, so Studentenwerk-Pressesprecherin Annett Reyer-Günther. Anfang September standen 1853 Bewerber auf der Warteliste für einen Wohnheimplatz.

23.09.2019

Ob Depressionen, Phobien oder Zwangsstörungen. Die Zahl der psychischen Erkrankungen steigt. In Göttingen bietet das Psychiatrie-Forum im Oktober zwanglose Möglichkeiten zum Erfahrungsaustausch.

23.09.2019

„Tag der Rückengesundheit“: Studierende und Beschäftigte der Universität Göttingen sowie alle Mitarbeiter des Studentenwerks und des Göttingen Campus können am am Mittwoch, 25. September, teilnehmen.

23.09.2019