Seit meiner Zeit in Kiel befasse ich mich nun mit der Roboterethik, habe dazu zahlreiche Vorträge gehalten, Interviews gegeben und publiziert – 2019 im Suhrkamp Verlag eine erste deutschsprachige Einführung in die Roboterethik.
Die Roboterethik ist eine verhältnismäßig junge Bereichsethik, eine Teilbereichsethik der Maschinenethik. Denn alle Roboter sind Maschinen, aber nicht umgekehrt alle Maschinen auch Roboter. Diese Einordnung der Roboterethik als (Teil-)Bereichsethik ruht auf einem Verständnis von Ethik als einer für Menschen spezifischen Kategorie des Handelns. So befasst sich die philosophische Disziplin der Ethik seit Aristoteles einerseits mit den menschlichen Sitten, Bräuchen und Gewohnheiten, andererseits mit dem guten Leben, nimmt darüber hinaus die wissenschaftliche Reflexion menschlicher Praxis vor und beurteilt die Kriterien guten und schlechten Handelns. Es wird vorausgesetzt, dass nur Menschen handelnde Wesen sind, deren Tun nicht blindem Instinkt und Trieb unterworfen ist, sondern durch Intentionen, Normen und Gründe geformt wird.
Die Roboterethik ist noch einmal von der Roboterphilosophie zu unterscheiden. Roboterethik ist eine Disziplin der Roboterphilosophie, die zusätzlich bspw. epistemologische, ästhetische, politikphilosophische und rechtsphilosophische Themen behandelt, wobei es innerhalb der Roboterphilosophie natürlich zu einer Überschneidung zahlreicher Fragen – wie etwa von ethischen und politikphilosophischen Fragen – kommt. Im deutschsprachigen Raum stellt die Roboterethik noch keine allgemein anerkannte Disziplin innerhalb der akademischen Philosophie dar, auch wenn das Interesse an teildisziplinübergreifenden Kollaborationen wächst. Im Vergleich mit dem englischsprachigen Raum, wo die ethische Auseinandersetzung mit artifiziellen Systemen seit Mitte des vergangenen Jahrhunderts einen Kanon klassischer Literatur hervorgebracht hat, präsentiert sich der deutschsprachige Diskurs überschaubar.
Es lassen sich in der Roboterethik drei Arbeitsbereiche unterscheiden. Zum einen wird darüber nachgedacht, inwiefern das fragliche Gegenüber selbst als moralisches Akteury und damit als Subjekt moralischen Handelns interpretiert werden muss, inwiefern Roboter also moral agents und damit Wesen sind, die selbst (moralische) Handlungen ausführen können. Innerhalb dieses Arbeitsbereiches werden Roboter als potenzielle Subjekte moralischen Handelns verstanden, denen für gewöhnlich ein intrinsischer (das heißt ein absoluter oder Eigenwert) zukommt. In einem zweiten Bereich wird danach gefragt, inwiefern man sich Robotern gegenüber in einer bestimmten Weise verhalten sollte bzw. ob ihnen ein spezifischer Umgang zusteht und inwiefern sie damit in die Kategorie der sogenannten moral patients fallen, also als Entitäten zu verstehen sind, die man gut oder schlecht behandeln kann, die allerdings nicht selbst (moralisch) handeln können. Hier werden Roboter als Objekten moralischen Handelns interpretiert. Beide Bereiche der Roboterethik können als exklusiv bzw. exkludierend bezeichnet werden. Weiterhin, in einem dritten Bereich, diskutiert die Roboterethik Alternativen zu dieser klassischen Unterscheidung zwischen Subjekten und Objekten moralischen Handelns. Im Rahmen dieser inklusiven bzw. inkludierenden Ansätze zeigt sich, inwiefern einige Roboterethikys die aristotelische Differenzierung zwischen moralischen Handlungssubjekten und -objekten sowie insb. das gängige Verständnis vom moralischen Handlungssubjekt problematisieren und welche Alternativen sie dafür vorschlagen. Ich verstehe mich selbst als Vertreterin eines inklusiven ethischen Denkens.
Die Roboterethik stellt also traditionelle ethische Fragen mit Blick auf Roboter – etwa danach, welche Kompetenzen wir generell als grundlegend für moralische Akteursschaft erachten, welche moralischen (und anderen) Werte wir artifiziellen Systemen implementieren sollten, auf was für ein moralisches Selbstverständnis es schließen lässt, wenn wir Roboter ›schlecht‹ behandeln und in welchen Bereichen – zum Beispiel Industrie-, Militär-, Medizin-, Altenpflege-, Servicerobotik – wir uns auch zukünftig ausschließlich bzw. in einem signifikanten Ausmaß auf menschliche und nicht auf artifizielle Expertise verlassen sollten.
Since my time in Kiel, I have now been working on robot ethics, have given numerous talks on the subject, given interviews, and published – in 2019 the first German introduction to robot ethics (Suhrkamp).
Robot ethics is a relatively young field of applied ethics, a subfield of machine ethics. All robots are machines, but not all machines are robots. This classification of robot ethics as a (sub-)field of applied ethics rests on an understanding of ethics as a category of action specific to humans. Thus, since Aristotle, the philosophical discipline of ethics has been concerned on the one hand with human customs, traditions, and habits, and on the other hand with the good life; it also undertakes scientific reflection on human practice and assesses the criteria of good and bad action. It is assumed that only human beings are beings who are able to act, whose doings are not subject to blind instinct and drive, but are formed by intentions, norms, and reasons.
Robot ethics is to be distinguished from robot philosophy. Robot ethics is a discipline of robot philosophy, which additionally deals with e.g. epistemological, aesthetic, political-philosophical and legal-philosophical topics. Within robot philosophy there is of course an overlapping of numerous questions – such as ethical and political-philosophical questions. In German-speaking countries, robot ethics not yet a generally recognized discipline within academic philosophy, even though interest in cross-subdisciplinary collaborations is growing. Compared to the English-speaking countries, where the ethical discussion of artificial systems has produced a canon of classical literature since the middle of the last century, the German discourse presents itself as more or less limited.
Three areas of work can be distinguished in robot ethics. On the one hand, it is considered to what extent robots must be interpreted as moral agents and thus as a subject of moral action, i.e. to what extent robots are beings that can themselves perform (moral) actions. Within this field of work, robots are understood as beings, which usually have an intrinsic (i.e. an absolute) value. In a second area, robot ethicists ask to what extent one should behave in a certain way towards robots or whether they are entitled to a specific treatment and to what extent they thus fall into the category of moral patients, i.e., are to be understood as entities that can be treated well or badly, but which cannot act (morally) themselves. Here, robots are interpreted as objects of moral action. Both areas of robot ethics can be described as exclusive or exclusionary. Furthermore, in a third area, robot ethics discusses alternatives to this classical distinction between subjects and objects of moral agency. In the context of these inclusive or inclusionary approaches, it becomes clear to what extent some robot ethicists problematize the Aristotelian differentiation between moral agents and patients, as well as the common understanding of the moral agent, and which alternatives they propose. I understand myself as a proponent of inclusive ethical thinking.
Robot ethics thus poses traditional ethical questions with respect to robots – such as what competencies we generally consider fundamental to moral agency, what moral (and other) values we should implement in artificial systems, what kind of moral self-understanding it suggests when we treat robots ›badly‹, and in what domains – for instance, industrial, military, medical, care, service robotics – we should continue to rely exclusively or to a significant extent on human rather than artificial expertise.