Kategorie Innovation & Technologie - 27. August 2019
Ethik & KI: „Sicherstellen, dass es nicht zu systematischen Diskriminierungen kommt“
Die Sozialwissenschaftlerin Sabine Theresia Köszegi diskutierte bei den Alpbacher Technologiegesprächen über die Chancen und Risken der neuen Technologie. Sie ist Professorin für Arbeitswissenschaft und Organisation am Institut für Managementwissenschaften der TU Wien und Vorsitzende des Austrian Council on Robotics and Artificial Intelligence (ACRAI), des sogenannten Robotikrates.
Als Mitglied der High Level Expertgroup on Artificial Intelligence der EU-Kommission hat sie die ethischen Leitlinien zur Entwicklung vertrauenswürdiger künstlicher Intelligenz für Europa mitgestaltet. Im Gespräch mit Wolfgang Däuble von der Presse fordert sie neben mehr Transparenz vor allem eine Bildungsoffensive.
Die Presse: Der Begriff Intelligenz ist schon beim Menschen nicht leicht zu definieren. Wie verhält es sich da mit der künstlichen Intelligenz (KI)?
Sabine Theresia Köszegi: Die Bezeichnung künstliche Intelligenz ist tatsächlich irreführend, im Englischen wird daher auch immer häufiger der passendere Begriff prediction machine verwendet. Denn was KI-Systeme tatsächlich machen, ist, große Datenmengen zu verarbeiten und darin Muster zu erkennen, um aktuelle Zustände zu klassifizieren und Prognosen für zukünftige zu erstellen. Mit der menschlichen Intelligenz hat das also wenig zu tun.
Ängste, dass KI-Systeme einmal dem Menschen überlegen sein werden, sind also unbegründet?
Es gibt eine kleine Gruppe von Experten wie Ray Kurzweil und Nick Bostrom, die halten es für möglich, dass eine Art Super-KI den Menschen überholen wird. Doch die meisten, zu denen ich mich auch zähle, halten das für sehr unwahrscheinlich. Künstliche Intelligenzen sind immer auf den Kontext beschränkt, der ihnen von den Menschen vorgegeben wird und in dem sie trainiert werden. In diesen eng definierten Aufgaben können sie dann sogar bessere Ergebnisse erzielen als der Mensch. Ihre Fähigkeiten so wie wir auf einen neuen Kontext zu transferieren, das können sie aber nicht.
Wo sehen Sie das größte Potenzial für KI-Anwendungen?
Das Spannende an der KI-Technologie ist ja, dass sie quasi in jedem Bereich eingesetzt werden kann, ähnlich wie der elektrische Strom oder das Internet. Das macht sie auch so wertvoll und mächtig: Ob für die Vorhersage, wann ein Verschleißteil in einer Industriemaschine ausgetauscht werden muss, für das Erkennen einer Krebszelle auf Mikroskopiebildern oder für die Optimierung von Lagerbeständen eines Einzelhändlers – die Liste der Anwendungen ließe sich endlos fortsetzen. Die Batterielaufzeit Ihres Smartphones wird vermutlich auch über einen KI-Algorithmus gesteuert.
Das wären alles technologische Fortschritte – gibt es auch Einsatzgebiete, die Sie als kritisch betrachten?
Es ist wichtig sicherzustellen, dass es durch den Einsatz von KI-Systemen nicht zu systematischen und ungerechtfertigten Diskriminierungen kommt. Ich sehe es beispielsweise kritisch, dass der Zugang zu bestimmten Services auf dem Arbeitsmarkt davon abhängig gemacht wird, wie hoch ein sogenanntes KI-System aufgrund vergangener Arbeitsmarktdaten Ihre individuellen Chancen auf dem Arbeitsmarkt einschätzt, da in den Daten gesellschaftliche Vorurteile und Diskriminierungen reflektiert sind.
Es müssen rechtzeitig Maßnahmen gesetzt werden, um sicherzustellen, dass die Menschenrechte, die Autonomie der Menschen und der Datenschutz gewährleistet sind.
Wie könnten solche Maßnahmen aussehen?
Einerseits muss die Transparenz verbessert werden, also die Nachvollziehbarkeit der durch KI ermittelten Prognosen. Denn hier gibt es das sogenannte Blackbox-Problem: Eine KI liefert Ihnen einen bestimmten Wert, es ist aber für uns nicht nachvollziehbar, warum das System zu diesem Wert gekommen ist. Andererseits braucht es dringend eine Bildungsoffensive. Unser Schulsystem bildet Kinder noch immer für eine industrialisierte Gesellschaft des 20. Jahrhunderts aus, aber nicht für die Herausforderungen, denen wir in Zukunft begegnen werden.
Welche Herausforderungen werden das sein?
Der Arbeitsmarkt wird sich beispielsweise durch die KI grundlegend verändern. Viele Tätigkeiten, die sich gut programmieren lassen, wird man in Zukunft automatisieren. Für einen Standard-Steuerausgleich werden sie etwa keinen Buchhalter mehr brauchen, das kann eine Software für Sie erledigen. Zwar sind nicht alle Aufgaben automatisierbar, aber dennoch werden sich viele Jobs inhaltlich verändern. Während manche Tätigkeiten automatisiert werden, kommen neue Aufgaben mit neuen Anforderungen hinzu.
Da wird es einen großen Bedarf für Weiterqualifizierungen geben. Wir brauchen eine Bildungsoffensive aber auch, um über die Nutzung von KI-Technologien aufzuklären. Denn die wenigsten wissen, wie manipulierbar sie werden, wenn sie z. B. sorglos mit ihren persönlichen Daten umgehen.
Sie sprechen von Suchmaschinen und sozialen Medien?
Richtig, denn hier wird das Recht auf Selbstbestimmung und Autonomie bereits grundlegend eingeschränkt. Sie können nicht mehr bestimmen, welchen Newsfeed Sie auf Facebook bekommen, Sie bestimmen nicht die Sortierung Ihrer Suchergebnisse, das macht Google für Sie. Und zwar nicht, weil Google Sie lieb hat, sondern weil es ökonomische Eigeninteressen verfolgt.
Damit sind Sie bereits manipuliert, jeder von uns ist das. Der Wahnsinn ist ja, dass diese KI-basierten Systeme so tief in unsere Gesellschaft eingedrungen sind, dass sie quasi alternativlos geworden sind. Und wenn man bedenkt, welchen demokratiepolitischen Einfluss ein nicht gewählter Konzernchef damit erhält, ist es wirklich erstaunlich, dass die Empörung darüber nicht viel größer ist.
Geht es nach der EU-Kommission, dann muss Europa im Hype rund um die Entwicklung von Künstlicher Intelligenz mit vertrauenswürdiger KI punkten. Die Weichen in diese Richtung wurden heuer in Brüssel durch eine EU-Expertengruppe gestellt.
Die Gruppe, der mit den Professoren Sabine Köszegi und Mark Coeckelbergh auch Vertreter der TU Wien und der Universität Wien angehören, schickte die ethischen Leitlinien zur Entwicklung vertrauenswürdiger künstlicher Intelligenz im Sommer in eine Pilotphase, um Feedback zur praktischen Umsetzung sammeln zu können. Interessenten können im Rahmen der European AI Alliance teilnehmen. Eine adaptierte Fassung, die die Rückmeldungen aller Interessenvertreter berücksichtigt, soll Anfang 2020 der Europäischen Kommission vorgelegt werden.
KI, die besser Artifizielle Intelligenz (AI) (von englisch artificial intelligence) genannt werden sollte, hat vielfach ein Imageproblem, fordert sie doch ihren Schöpfer genau auf dem Gebiet heraus, auf dem sich dessen Identität gründet – dem Denken. Dazu kommen erste Anwendungen, die durchaus dubios erscheinen: Etwa in Systemen zur Gesichtserkennung im öffentlichen Raum oder beim Einsatz von undurchsichtigen Algorithmen, die auf Social Media-Plattformen gehörig dabei mitreden, welche Informationen welche Nutzer erreichen.
Dabei sollte KI unsere Gesellschaft nachhaltig zum Positiven verändern – von selbstfahrenden Autos über die Steuerung des Energiesystems und selbstlernende Überwachungssysteme bis hin zu automatisierten Finanztransaktionen und präzisen medizinischen Diagnosen. Also weit bedeutsamere Aufgabe als der Selbstprogrammierung eines Schachcomputers, wie mit der KI-Software AlphaZero im letzten Jahr von Google demonstriert.
Die Forschung in diesen Bereich soll in Schlüsselbereichen oder Nischen auf ein weltweites Spitzenniveau gehoben, der Transfer von KI-Anwendung in heimische Klein- und Mittelbetriebe vorangebracht werden. Zudem sollen rechtliche Rahmenbedingungen geschaffen werden, die die Sicherheit der KI-Nutzung gewährleisten. Genannt werden auch Bewusstseinsbildung und gesellschaftliche Dialoge über den Umgang mit KI, Aus- und Weiterbildungsmaßnahmen sowie die Einführung von KI gestützten Technologien im sicherheits- und kriminalpolizeilichen Umfeld.
Service: Die Strategie zur Zukunft der Künstlichen Intelligenz in Österreich sowie das White Paper des Robotik-Rates, jeweils als .pdf zum Download.