Warum Asimovs Gesetze der Robotik für das 21. Jahrhundert aktualisiert werden sollten

Viele EU-finanzierte Projekte arbeiten daran, die Robotik voranzutreiben, um Menschen dabei zu helfen, gesellschaftliche Herausforderungen zu meistern, zum Beispiel durch die Betreuung älterer Menschen oder durch Katastrophenhilfe. Ein Akademiker, der an einem solchen Projekt beteiligt war, argumentiert nun, dass die Gesetze der Robotik des Autors Isaac Asimov nicht die moralischen Richtlinien sind, die sie zu sein scheinen und dass sie aktualisiert werden sollten.

Isaac Asimov ist einer der bekanntesten Science-Fiction-Schriftsteller, und seine berühmteste Schöpfung sind wohl die „Drei Gesetze der Robotik“. Kurz erklärt besagen sie: Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt; ein Roboter muss Anweisungen, die ihm von Menschen gegeben wurden, befolgen, es sei denn, diese Anweisungen stehen im Konflikt zum Ersten Gesetz, und ein Roboter muss seine eigene Existenz schützen, sofern der Schutz nicht im Konflikt zum Ersten oder Zweiten Gesetz steht.

Die Gültigkeit von Asimov in der heutigen Zeit

Professor Tom Sorell von der Universität Warwick, Vereinigtes Königreich argumentierte vor kurzem, dass die drei Gesetze von Asimov eine natürliche Reaktion auf die Idee zu sein scheinen, dass Roboter eines Tages zum Alltag gehören und eine interne Programmierung brauchen, die verhindert, dass sie Menschen schaden. Allerdings argumentiert er, dass Asimovs Gesetze am moralischen Wert der Vermeidung von Schäden an Menschen ausgerichtet sind und sich somit nicht so einfach deuten lassen. Prof. Sorell, Experte für Roboterethik, arbeitete am EU-finanzierten Projekt ACCOMPANY, in dem ein Begleitroboter entwickelt wurde, der älteren Menschen dabei helfen soll, ein selbstständiges Leben zu führen.

Sorell schreibt, dass Asimovs Gesetze dem Wortlaut nach immer noch plausibel zu sein scheinen, denn es gibt berechtigte Ängste, dass Roboter den Menschen schaden könnten, wie im Beispiel der jüngsten Todesfälle in den USA, die aufgrund einer Fehlfunktion autonomer Autos geschehen sind. Aber wir leben auch in einem Zeitalter, in dem immer höher entwickelte Roboter eingesetzt werden, um immer komplexere Aufgaben zum Schutz und zur Pflege von Menschen zu übernehmen.

Dazu gehören nicht nur die Roboter, die zur Pflege älterer Menschen konzipiert wurden, wie im Projekt ACCOMPANY (um mehr über weitere EU-finanzierte Projekte zu erfahren, in denen Roboter zur Unterstützung älterer Menschen eingesetzt werden, siehe CORDIS Results Pack zum Thema IKT für ein unabhängiges Leben), sondern auch Roboter, die für die Katastrophenhilfe entwickelt wurden. Ein Beispiel hierfür ist der in einem EU-finanzierten Projekt eingesetzte Roboter, der beschädigte Kulturbauten in der von Erdbeben betroffenen italienischen Stadt Amatrice bewerten soll.

Neue Roboter, neue Paradoxe – neue Gesetze?

Asimovs Gesetze geraten ins Wanken, wenn man die Entwicklung der von Menschen gesteuerten Militärdrohnen betrachtet, die zur Tötung von Menschen aus der Ferne bestimmt sind. Paradoxerweise kann man sagen, dass ein Roboter, der von einem Menschen die Anweisung erhält, das Leben von Mitbürgern zu retten, indem er die Menschen tötet, die diese angreifen, Asimovs Erstes Gesetz sowohl befolgt als auch dagegen verstößt.

Auch kann man argumentieren, dass nicht die Drohne dafür verantwortlich ist, wenn in einer Kampfsituation ein Mensch getötet wird, sondern der Mensch, der dem Roboter die Anweisung erteilt hat. Tatsächlich gäbe es insgesamt gesehen deutlich weniger Todesopfer, wenn Armeen mit Drohnen ausgestattet werden – demnach wäre es vielleicht besser, wenn Roboter statt Menschen als „Kanonenfutter“ eingesetzt werden.

Am anderen Ende der Skala sind Asimovs Gesetze zutreffend, wenn das Hauptziel des Roboters darin besteht, einen älteren Menschen zu schützen. Robotik passt jedoch häufig in eine Reihe von „Unterstützungstechnologien“, die älteren Menschen helfen, unabhängig zu sein, wie auch das Ziel des Projekts ACCOMPANY lautet. Das bedeutet, dass sie ihre eigenen Entscheidungen treffen können, auch solche, die dazu führen könnten, dass sie sich selbst verletzen, z. B. durch einen Sturz. Ein Roboter, der seinem Menschen ermöglicht, unabhängige Entscheidungen zu treffen, die zu einer Verletzung durch einen Sturz führen könnten, würde das Erste Gesetz verletzen, weil er durch Untätigkeit zugelassen hat, dass ein Mensch zu Schaden kommt.

Sorell argumentiert jedoch, dass die Autonomie des Menschen respektiert werden muss, sowohl von anderen Menschen als auch von Robotern. Es muss also auch respektiert werden, dass ältere Menschen Entscheidungen treffen, die ihnen weiterhin ein unabhängiges Leben ermöglichen, aber das Risiko beinhalten, dass sie sich verletzen.

Nachdem Asimovs Gesetze die Robotik-Entwickler seit Jahrzehnten beeinflusst haben, ist es vielleicht jetzt an der Zeit, ihre Wirksamkeit neu zu bewerten und Diskussionen über eine neue Reihe von Gesetzen einzuleiten, die zu den aktuellen beeindruckenden Durchbrüchen in der Roboter- und AI-Technologie passen, die es derzeit in Europa und der ganzen Welt gibt.

Weitere Informationen erhalten Sie unter:
ACCOMPANY Projektwebsite

veröffentlicht: 2017-03-30
Kommentare


Privacy Policy