Wie bringt man Robotern Moral bei?

Wie bringt man Robotern Moral bei?

Geposted von Tinkerbots Team am

Sie werden in der Industrie, im Service und in der Pflege eingesetzt und haben dank Tinkerbots auch den Weg in unsere Kinderzimmer gefunden: Roboter spielen im Leben der Menschen bereits heute eine wichtige Rolle. In der Zukunft sollen sie weitere Aufgaben, beispielsweise im Bereich Sicherheit, übernehmen und ein noch wichtigerer Teil unseres Alltags werden. Wenn wir jedoch harmonisch mit den Robotern zusammenleben möchten, müssen wir dafür sorgen, dass sie sich auch benehmen können. Science-Fiction-Autor Isaac Asimov hat bereits 1942 Gesetze festgelegt, an die sich Roboter halten sollten.

1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.

2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Als eine Art von Basisregeln sind die von Asimov aufgestellten Gesetze sicherlich hilfreich. Doch seit sie niedergeschriebenen wurden, fand eine rasante Entwicklung in den Bereichen Robotik und Künstliche Intelligenz (KI) statt. Zudem stammen sie aus der Welt der Science-Fiction. Prototypen von Robotern sind heute wesentlich komplexer, als man es sich 1942 hätte vorstellen können. Daher muss ein neuer Leitfaden geschaffen werden, der aus Robotern zukünftig moralisch handelnde Wesen macht. Aktuell sind sich Wissenschaft allerdings noch uneinig, wie KIs zu beurteilen sind und was man ihnen mit auf den Weg geben sollte.

Unterschiedliche Einschätzungen der Experten

So geht etwa das britische Engineering and Physical Science Research Council (EPSRC) davon aus, dass Roboter Werkzeuge sind, die von Menschen entwickelt und benutzt werden. Dementsprechend liegt die Verantwortung für das moralische Verhalten der Roboter laut EPSRC bei den Menschen. Die entsprechenden Regeln müssten sich daher an die Entwickler, Verkäufer und Benutzer der Maschinen richten. Der schwedische Philosoph und Experte auf den Gebieten der Bioethik und Technikfolgenabschätzung, Nick Bostrom, beschreibt in seinem Buch „Superintelligenz – Szenarien einer kommenden Revolution“ hingegen, wie superintelligente Roboter den Menschen als dominante Lebensform auf der Erde ersetzen könnten. Hier wären ganz sicher Verhaltensregeln für Roboter angebracht.

Wo die Entwicklung von Robotern und künstlicher Intelligenz hinführt, ist heute noch nicht abzusehen. Doch eines ist sicher: Einen Moralkodex oder Gesetze zu schaffen, die das harmonische Zusammenleben von Mensch und Roboter garantieren, wird nicht einfach. Schließlich gibt es auch selbst unter Menschen teilweise unterschiedliche Vorstellungen davon, was moralisch vertretbar ist und was nicht. Weltweit auf einen gemeinsamen nenner zu kommen, dürfte sich daher sicherlich schwierig gestalten.

← Älterer Post Neuerer Post →


Hinterlassen Sie einen Kommentar