London/Karlsruhe. Autonome Systeme wie fahrerlose Autos, robotische Gefährten oder intelligente Häuser sind theoretisch schon bald einsatzreif, doch unser Rechtswesen und unsere Ethik sind dafür noch nicht gerüstet, meint die britische Royal Academy of Engineering. Sie fordert eine Diskussion darüber, wie der Einsatz aussehen soll – und wer haftet.
Die Akademie fordert in dem Bericht „Autonomous Systems: Social, Legal & Ethical Issues“ eine umfassende Diskussion über soziale, rechtliche und ethische Fragen rund um den Einsatz solcher Systeme beispielsweise im Transport- und Betreuungsbereich. Denn wenngleich autonome Systeme viele Vorteile versprechen, ist so mancher wichtiger Punkt aus Sicht der Gelehrtengesellschaft bislang ungeklärt. So sei etwa fraglich, wer genau die Verantwortung trägt, wenn durch ein autonomes System Menschen zu Schaden kommen.
Robotische Fahrzeuge, die ganz ohne Fahrer auskommen wurden bereits im Rahmen der Grand Challenge der amerikanischen Defense Advanced Research Projects Agency (DARPA) erfolgreich erprobt. Bis vollautonome Autos die Straßen im Alltag erobern, wird es zwar noch dauern. Wie auch in anderen Anwendungsbereichen wird sich dann aber die Frage stellen, wer im Unfallsfall die Verantwortung trägt – etwa der Entwickler, der Hersteller, der Programmierer oder der Nutzer.
Patientenrecht auf Pflege durch Menschen?
Im Pflegebereich werden Roboter von Forschern beispielsweise als Gefährten autistischer Kinder als vielversprechend gesehen. Intelligente Häuser, die auf medizinische oder andere Bedürfnisse der Einwohner eingehen können, könnten wiederum die Betreuung älterer Personen erleichtern. Hier warnt die RAEng etwa davor, dass das zu ungewollter Isolation führen könnte. Auch stelle sich die Frage, ob Pfleglinge die Technologien verstehen und ihrer Nutzung sinnvoll zustimmen könnten. Die Gefahren solcher Einschränkungen und Engführungen hätten die Debatten um Großtechniken der letzten vierzig Jahre deutlich gemacht, heißt es dazu an der Uni Karlsruhe. (pte)