Kategorie Informationen & Tipps - 13. Februar 2018
„Kooperieren, statt den Menschen zu ersetzen“
Mark Coeckelbergh will nicht, dass ihn einmal ein Roboter pflegt. Sorge lasse sich nicht programmieren.
Von Alice Grancy
Die Presse: Warum braucht es heute eine Roboterphilosophie?
Mark Coeckelbergh: Natürlich gibt es schon lange Forschung, die sich mit Robotik befasst. Aber jetzt dringen die Roboter in den Alltag der Menschen vor, sind nicht mehr nur in der Industrie. Das kreiert diese neuen Fragen, zum Beispiel die nach dem moralischen Status des Roboters. Sind Roboter nur Dinge oder doch mehr? Was unterscheidet sie vom Tier oder vom Menschen?
Kann die Philosophie denn da klare Antworten liefern? Nein, aber sie kann die Fragen klarer stellen. Was bedeutet das zum Beispiel für die Beziehung zwischen Mensch und Maschine?
Technik ermöglicht heute vielmehr Interaktion. Daher meinen manche, sie können eine Beziehung zu Robotern aufbauen, und argumentieren: Da passiert mehr, als wenn wir nur ein Glas benutzen oder einen Hammer. Manche denken auch, wir Menschen sind Maschinen, sehr komplexe Maschinen, damit bin ich nicht einverstanden.
Das heißt, es kann eine Beziehung zu einem Roboter geben, aber sie ist anders als die zu einem Menschen, weil er letztlich doch ein Ding ist?
Auf jeden Fall. Die Beziehung ist anders, aber man soll ernst nehmen, dass der Mensch diese Maschine nicht nur als solche sieht – seine Erfahrung ist für den Philosophen interessant. Die heutigen Maschinen regen uns auch an, darüber nachzudenken, was das spezifisch Menschliche ist. Maschinen sind intelligenter, spielen besser Schach – aber was können wir, was sie nicht können? Durch solche Fragen definieren wir uns. Wir benötigen immer eine Art Spiegel, um uns als Mensch zu definieren. Die Maschine ist also ein Werkzeug in unserem philosophisch-anthropologischen Workshop.
Immer mehr Pflegeroboter kommen auf den Markt, aber es bleibt die ethische Frage: Sollen Maschinen menschliche Pflege ersetzen? Würden Sie selbst das wollen?
Ich will es nicht und habe auch als Philosoph das richtige Gegenargument. Sorge ist mehr als nur eine technische Handlung. Wenn die Oma im Krankenhaus von der Schwester einen Tee bekommt, will sie vielleicht auch reden und menschlichen Kontakt. Ich glaube, das wollen wir alle. Roboter sollen uns nicht ersetzen, lasst uns zusammenarbeiten und nicht weniger Menschen einsetzen.
Wann wird das zum Problem?
Wenn Technik und Software in eine Ideologie passen, wo alles schneller und effizienter passieren muss und keine Zeit mehr für das Soziale bleibt. Sie werden schon heute benutzt, damit sich Menschen weniger Zeit nehmen, um andere zu betreuen, zu pflegen. Aber ich bin optimistisch, dass wir Technik auch auf andere Weise gestalten und benutzen können. Dazu sollten Philosophen und auch andere Forscher zusammenarbeiten mit Ingenieuren.
Passiert das bereits?
Ja, ich arbeite etwa in einem europäischen Projekt, wo es um Roboter für autistische Kinder geht. Mein Job ist, ethische Fragen zu stellen und diese für Techniker zu übersetzen. Es geht darum, ob es ethisch ist, die Kinder von Robotern betreuen zu lassen. Sie sind besonders verletzlich, so wie auch Ältere. Das ist nicht nur philosophisch interessant, man soll auch einen Ratschlag geben. Zum Beispiel, dass es besser ist, wenn die Therapeutin noch dabei bleibt.
Wie wird man eigentlich Roboterphilosoph? Hatten Sie ein Schlüsselerlebnis?
Am Ende meiner Doktorarbeit haben zwei Jobs mein Berufsleben verändert: einer in einem Nuklearforschungszentrum in Belgien und ein anderer in einer Maschinenbauabteilung in England. Bei beiden ging es um Ethik in den Ingenieurwissenschaften. Ich habe gesehen, dass man Philosophie betreiben kann, bezogen auf Themen, die für den Alltag und die Gesellschaft wichtig sind – und habe weitergemacht. Eine andere wichtige Frage ist die nach der Zukunft der Arbeit. Es ist wichtig, dass man nicht nur die technischen, sondern auch die gesellschaftlichen Aspekte sieht. Die Automatisierung im Industriebereich schreitet stark fort. Man muss fragen, was das für den Arbeiter heißt.
Sie meinen die Zusammenarbeit von Mensch und Maschine.
Ja, genau. Hier kann man entweder die Angst befördern, indem man sagt: Die Roboter kommen, und viele verlieren den Job. Aber eigentlich wird die Frage in naher Zukunft eher lauten: Wie kann man kooperieren und wie müssen die Maschinen gestaltet werden, damit das auf eine sichere und an den Menschen angepasste Weise passiert. Anders als im 19. Jahrhundert, als die Maschinen kamen und die Menschen sich anpassen mussten. Damals wurde als Gesellschaft nicht so viel darüber nachgedacht. Heute haben wir die Chance, das zu tun. Und Philosophie und auch andere Geistes- und die Sozialwissenschaften können dabei helfen.
Also nicht nur kritisieren, sondern Konstruktives beitragen.
Das ist die Idee. Im 20. Jahrhundert haben Philosophen noch viel geklagt: über Kultur und über Technik, da war immer das Schlimme, das Schlechte. Natürlich muss man eine technische Entwicklung kritisch betrachten, aber heute können wir einen proaktiveren Zugang wählen und versuchen, vorher mit Designern und Ingenieuren zu sprechen. Hier ein Regelwerk zu finden ist allerdings schwierig, denn die Technik entwickelt sich sehr schnell. Die Frage ist, ob wir auch weiter in die Zukunft schauen können. Natürlich haben wir als Roboterphilosophen keine Glaskugel, aber man kann schon Trends erkennen und versuchen, Szenarien zu konstruieren. Das sollten wir nicht nur den Politikern überlassen, es soll öffentlich diskutiert werden. Das ist meine Vision einer Demokratie als etwas Partizipatives.
Welche sind die brennendsten Fragen, die uns in den nächsten Jahren beschäftigen werden?
Wir sehen schon jetzt, dass es neue Jobs gib, aber welche? Entweder hoch qualifizierte. Aber dafür hat nicht jeder das Talent. Oder man sagt, man kann sich selbstständig machen und kreativ sein. Aber auch wenn man das in der Schule fördert, ist es eine sehr prekäre Existenz, die gelingen kann oder eben nicht. Man muss dringend darüber nachdenken, wie sich das gestalten lässt, anstatt abzuwarten, bis es einfach passiert.
Viele Technologien sind in der Hand großer Konzerne.
Ja, etwa zehn große Unternehmen, darunter Google, Microsoft, Amazon oder Facebook, bestimmen unseren Alltag sehr stark. Sie haben immer mehr politische Bedeutung, weil sie so einflussreich sind für unseren Alltag. Die Herausforderung ist, von Seiten der Politik und der Unternehmen Prozesse zu finden, um das demokratischer zu machen. Aber das sind sehr schwierige Fragen in einem kapitalistischen und freien Markt.
Ein weiteres Beispiel?
Technologien zu Spracherkennung wie Alexa und andere breiten sich in den Haushalten aus. Das bedeutet, dass die Roboter mithören. Das kann problematisch sein, wenn Kinder diese als Freunde sehen, aber eben auch für Privatsphäre und Datenschutz. Große Unternehmen können uns jetzt schon mit ihren mobilen Geräten abhören: der Spion im Haushalt also. Und: Die gleiche Software, wie sie in einer Puppe sitzt, kann auch für militärische Drohnen benutzt werden, die Leute töten, Killerroboter in Kriegen. Das macht es schwierig, als Nationalstaaten im globalen Kontext damit umzugehen. Software kennt keine Grenzen – nicht zwischen Hardware und nicht zwischen Ländern.
Was kann man tun?
Entwicklungsingenieure haben oft idealistische Vorstellungen, wollen die Welt verbessern. Es ist wichtig, dass man mehr Bewusstsein schafft, dass, auch wenn man gute Absichten hat, die Technik eine ganz eigene Entwicklung nehmen kann.
Bleibt am Ende in der Produktion nicht immer ein Konflikt zwischen ethischen und wirtschaftlichen Interessen?
Ja, das stimmt kurzfristig. Aber langfristig ist es im wirtschaftlichen Interesse von Unternehmen, Ethik und Verantwortung mit einzubeziehen. Wenn man ein Auto produziert, das in zu viele Unfälle verwickelt ist oder einen Haushaltsroboter, der alle Daten nach außen gibt, schadet das dem Unternehmen. Aber es ist freilich immer schwierig, weil Shareholder schnelle Gewinne sehen wollen.
Kann man Maschinen beibringen, menschliche Werte zu respektieren? Sind das nicht immer nur die Werte eines bestimmten Programmierers?
So ist es. Zu glauben, dass man Ethik einfach in ein paar Regeln zusammenfassen und einprogrammieren kann, ist eine gefährlich Idee. Ethik braucht immer menschliches Urteilsvermögen. Die Lösung ist eine Kombination von Mensch und Maschine.
Manche argumentieren, dass Automaten mitunter sogar ethischer, weil unbelasteter und damit objektiver agieren können als Menschen.
Das sehe ich nicht so. Wenn Ethik völlig rational und mit Regeln zu fassen wäre, dann wäre die Maschine besser als der Mensch, weil sie konsistenter ist, mehr Daten und dadurch einen besseren Überblick hat. Aber ich glaube, Ethik ist nicht nur rational, hat auch mit Emotionen zu tun und damit, was wir wichtig finden. Und vor allem: Die Maschine fühlt nicht, insofern ist ihr alles egal. Wenn wir uns mit Ethik befassen, dann weil wir uns verantwortlich fühlen und es etwas mit uns macht, wenn ein Mensch leidet oder vielleicht stirbt. Wir wissen, was Angst bedeutet.
Zur Person: Mark Coeckelbergh, geboren 1975, stammt aus dem belgischen Leuven. Dort studierte er zunächst Politikwissenschaften und dann Sozialphilosophie. Nach der Promotion im englischen Birmingham war er an den niederländischen Universitäten Maastricht und Twente tätig, seit 2014 hält er eine Professur für Technologie und Soziale Verantwortung an der DeMontfort-Universität in in Leicester, Großbritannien. Die Uni Wien berief ihn 2015 zum Professor für Medien- und Technikphilosophie. Coeckelbergh ist Präsident der internationalen Society for Philosophy and Technology sowie Mitglied des im Vorjahr vom Technologieministerium begründeten „Robotikrats„.
Expertentreffen: Coeckelbergh versammelt vom 14. bis zum 17. Februar 2018 Forscher verschiedener Disziplinen aus aller Welt an der Uni Wien, um über Automatisierung, künstliche Intelligenz und deren Auswirkungen auf Mensch und Gesellschaft zu diskutieren.