Hat KI Menschenhirne schon überholt?
Ethikrat fordert klare Regeln zwischen Mensch und Maschine
BERLIN (dpa/vs) - Die sogenannte Künstliche Intelligenz ist dem Menschen inzwischen in vielerlei Hinsicht überlegen, und die Entwicklung geht rasant weiter. Jetzt hat sich der Ethikrat eingeschaltet mit der Frage, ob man der KI wirklich alles machen lassen darf, was sie kann.
Von Christoph Dernbach, dpa
«Handelt es sich bei diesem dunklen Hautfleck um ein gutartiges Muttermal oder schwarzen Hautkrebs?» - Lässt man bei der Beantwortung dieser Frage eine Maschine mit Künstlicher Intelligenz gegen Ärztinnen und Ärzte aus Fleisch und Blut antreten, so liegt statistisch gesehen inzwischen die KI-Maschine häufiger richtig.
Dazu kommt: Die Entscheidungen der KI hängen nicht von menschlichen Stimmungsschwankungen ab, die Maschinen brauchen für die Analyse nur Sekunden und sie werden auch nach vielen Stunden Einsatz nicht müde.
Doch auch wenn die Vorteile eines KI-Einsatzes auf der Hand liegen, warnt der Deutsche Ethikrat eindringlich davor, der Maschine zu viel Verantwortung zu übertragen. «KI darf den Menschen nicht ersetzen», sagte die Vorsitzende des Ethikrats, Alena Buyx.
Verhältnis zwischen Mensch und Maschine
KI in der Medizin ist einer von vier Bereichen, den der Ethikrat auf das Verhältnis zwischen Mensch und Maschine hin analysiert hat. Unter die Lupe genommen wurden auch die KI-Verwendung in der Schule, bei der Kommunikation und Meinungsbildung sowie in der öffentlichen Verwaltung. Im Oktober 2020 hatte der damalige Bundestagspräsident Wolfgang Schäuble (CDU) das Gremium darum gebeten, eine Stellungnahme zum Verhältnis «Mensch und Maschine» zu erarbeiten. Zur Präsentation der 287 Seiten dicken Studie am Montag in Berlin bringt Buyx das Ergebnis auf den Punkt: «Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern», sagt die Medizinethikerin.
Für den Medizinbereich führt der Bericht etliche Gründe auf, warum ein KI-Einsatz sinnvoll sein könne: So könnten mit Hilfe von KI Versorgungsengpässe aufgrund von Personalmangel gelindert und präzisere Diagnosen erstellt werden. So würden in der medizinischen Versorgung KI-Instrumente auch für die Diagnostik und Therapie entwickelt, beispielsweise bei Brust- und Prostatakrebs.
Gleichzeitig sieht der Ethikrat aber Gefahren, die nicht ignoriert werden dürften: Bei der Entwicklung und Nutzung von KI-Produkten müsse ein ärztlicher Kompetenzverlust vermieden werden. Die Privatsphäre von Patientinnen und Patienten müsse mit intensiver Datennutzung in der medizinischen Forschung in Einklang gebracht werden. Eine vollständige Ersetzung von Ärztinnen und Ärzten durch ein KI-System gefährde das Patientenwohl und sei auch nicht durch den Personalmangel zu rechtfertigen.
Diskussion um Einsatz in der Schule
Im Bereich Bildung diskutierten die Mitglieder des Ethikrates durchaus kontrovers, ob ein KI-Einsatz in der Schule ganz generell verboten werden sollte oder nicht. Konkret ging es um die Frage, ob man das Geschehen im Klassenzimmer per Video aufzeichnen darf, um mit Hilfe von KI zu analysieren, wie der Lernprozess bei einzelnen Schülern abläuft.
Während Teile des Ethikrates diese Form von «Classroom Analytics» ganz grundsätzlich ablehnten, sahen andere durchaus Chancen, weil damit die Lehrkräfte ein kontinuierliches Feedback erhalten könnten und die Unterrichtsergebnisse erheblich verbessert werden könnten. Als Kompromiss einigte man sich auf die Position, dass die Datenerfassung und -bereitstellung dem Lernprozess dienen sollte. «Sie darf nicht zur Überwachung und Stigmatisierung von Lernenden missbraucht werden», sagte Julian Nida-Rümelin, der stellvertretende Vorsitzende des Deutschen Ethikrats.
Vorwiegend kritisch sieht der Ethikrat auch die Rolle der KI in der öffentlichen Kommunikation und Meinungsbildung. In den Sozialen Medien habe die Polarisierung und die Verrohung des Diskurses zugenommen, beklagte Nida-Rümelin. Man könne aus dem «weißen Rauschen» der Netze oft nur mit besonders extremen Auffassungen herausragen.
Facebook und Twitter
Der ehemalige Kulturstaatsminister machte dafür auch das kommerzielle Interesse der Plattformen wie Facebook und Twitter an einem möglichst langen Verbleib der Nutzerinnen und Nutzer verantwortlich. Dies werde mit personalisierten Angeboten erreicht, die mit Hilfe von KI auf die Empfänger zugeschnitten würden.
KI werde aber auch bei der Moderation von problematischen oder gar strafbaren Inhalten verwendet. Damit entstehe ein Spannungsverhältnis zwischen Meinungsfreiheit und Zivilkultur der Kommunikation, das in den Händen privater Digitalunternehmen nach eigenen Regeln aufgelöst werde, sagte Nida-Rümelin.
Der Ethikrat bringt an dieser Stelle eine öffentlich-rechtliche Alternative ins Gespräch, um dieses Thema nicht alleine privaten kommerziellen Konzernen zu überlassen. «Wir meinen damit nicht die öffentlichen Rundfunkanstalten», sagte Nida-Rümelin. Denkbar seien öffentlich-rechtliche Stiftungsmodelle ohne großen Staatseinfluss.
In der öffentlichen Verwaltung werde KI immer häufiger eingesetzt, um Entscheidungen zu unterstützen und für höhere Effizienz zu sorgen, berichtete Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg. Es sei aber nicht erwiesen, dass die Verwendung zwangsläufig zu besseren Entscheidungen führe. Der Ethikrat setzt sich dafür ein, dass die Bürgerinnen und Bürger vor Diskriminierung geschützt werden. Maschinellen Empfehlungen dürfe man nicht blind folgen. Weiterhin müssten Einzelfallbetrachtungen sowie die Einsichts- und Einspruchsrechte von Betroffenen gewährleistet werden.
Das gelte auch für den Einsatz der KI zur Verbesserung der Inneren Sicherheit. «Wenn eine Software vorhersagt, dass eine Person zu 99 Prozent straffällig wird, so können wir eben niemals wissen, ob die Person vor uns nicht genau das eine Prozent ist.»
Forschungsministerin Bettina Stark-Watzinger (FDP) erklärte, der Ethikrat verdeutliche «die vielfältigen Potenziale und Chancen», die mit dem Einsatz von Künstlicher Intelligenz in zentralen gesellschaftlichen Anwendungsbereichen verbunden seien. «Diese müssen wir unbedingt nutzen.» Gleichzeitig gebe der Bericht Orientierung, wie möglichen Risiken wie etwa Diskriminierung bei der Anwendung von KI begegnet werden könne.
Kritischer nahm der KI-Verband den Bericht auf: Er gehe zu wenig auf die positiven Auswirkungen von KI ein, erklärte Verbandsgeschäftsführer Daniel Abbou. Die Möglichkeiten, die KI im wirtschaftlichen Kontext haben werde, insbesondere in Bezug auf den Fachkräftemangel, würden ignoriert.
Kommentare
Sie möchten kommentieren?
Sie möchten zur Diskussion beitragen? Melden Sie sich an, um Kommentare zu verfassen.