Jenseits einfacher Lösungen: Leopoldina-Diskussionspapier zur verantwortungsvollen Entwicklung generativer KI

Seit der allgemeinen Verfügbarkeit von Programmen wie ChatGPT oder Dall-E werden Risiken und Chancen generativer künstlicher Intelligenz (KI) intensiv diskutiert. Inzwischen gibt es erste Ansätze, der Intransparenz oder der Nichtobjektivität (Bias) generativer KI entgegenzuwirken. Allerdings warnen die Autorinnen eines Diskussionspapiers der Nationalen Akademie der Wissenschaften Leopoldina vor überzogenen Erwartungen an diese Ansätze. Mit der Publikation „Generative KI – jenseits von Euphorie und einfachen Lösungen“ werfen sie einen realistischen Blick auf die Möglichkeiten und Herausforderungen bei der Entwicklung und Anwendung generativer KI.

In dem Diskussionspapier plädieren die Autorinnen für einen nüchternen und abwägenden Blick auf Technologien und Tools, die die Transparenz generativer KI erhöhen und Verzerrungen aufdecken oder minimieren sollen. Als Beispiel nennen sie den Umgang mit Bias: Ohne aktives Gegensteuern spiegeln KI-Systeme die jeweiligen gesellschaftlichen und kulturellen Verhältnisse ihrer Datenbasis und die darin enthaltenen Wertvorstellungen und Ungleichheiten wider. Ob und auf welche Weise diesem Bias in der Programmierung aktiv entgegengewirkt werden soll, ist jedoch keine triviale Entscheidung, so die Autorinnen. Sie erfordert sowohl technisch-mathematische als auch politisch-ethische Expertise und sollte nicht allein den Entwicklerinnen und Entwicklern überlassen werden.

Auch die bisherigen Ansätze, der Intransparenz generativer KI entgegenzuwirken, sind nur oberflächlich betrachtet eine Lösung: Für die Nutzerinnen und Nutzer ist oft nicht nachvollziehbar, wie generative KI arbeitet. Ein noch junges Forschungsfeld ist die sogenannte erklärbare KI: Hier werden Verfahren entwickelt, die KI-generierte Vorschläge oder Entscheidungen im Nachhinein begreiflich machen sollen. Die Autorinnen weisen jedoch darauf hin, dass die so zustande kommenden Erklärungen ebenfalls nicht verlässlich sind, auch wenn sie schlüssig klingen können. Erklärbare KI-Systeme können sogar bewusst manipuliert werden. Die Autorinnen betonen deshalb, dass generative KI dort, wo Transparenz unverzichtbar ist (beispielsweise im juristischen Kontext), nur mit äußerster Vorsicht eingesetzt und entwickelt werden sollte.

Die Autorinnen erläutern außerdem, welche vielfältigen Täuschungspotenziale im Zusammenhang mit generativer KI bestehen, z. B. wenn Nutzerinnen und Nutzern nicht bewusst ist, dass sie mit einer KI kommunizieren, aber auch wenn sie nicht wissen, was eine KI leisten kann und was nicht. Oft neigen Nutzerinnen und Nutzer dazu, der KI menschliche Fähigkeiten wie Bewusstsein oder Verständnis zuzuschreiben. Die Qualität, Einfachheit und Geschwindigkeit, mit der heute Texte, Bilder und Videos generiert werden können, eröffnen neue Dimensionen des möglichen Missbrauchs, z. B. wenn generative KI für Propaganda oder kriminelle Zwecke eingesetzt wird.

Das Diskussionspapier widmet sich zudem Fragen des Datenschutzes. Der Erfolg generativer KI basiert zum Teil auch darauf, dass personenbezogene Daten der Nutzerinnen und Nutzer erfasst und verwertet werden. Es gibt bisher jedoch kein überzeugendes Konzept, wie die Entscheidungshoheit der Nutzerseite über die Weitergabe und Verwendung ihrer Daten gewahrt werden kann, so die Autorinnen.

Das Diskussionspapier ist auf der Website der Leopoldina veröffentlicht: https://www.leopoldina.org/generative-ki

Nationale Akademie der Wissenschaften Leopoldina

04.11.2024 | Wissenschaft | Politik & Gesellschaft | Berlin