Grundlagen, Implikationen, Instrumente
Vertrauen in KI?
Vertrauen ist uns vor allem als elementarer Bestanteil zwischenmenschlicher Beziehungen gegenwärtig. Es kann Komplexität reduzieren, Kooperationen erleichtern oder gar erst ermöglichen und ist häufig eine Voraussetzung für ihr Gelingen. Vertrauen überbrückt Leerstellen des Wissens und geht dabei immer mit dem Risiko einher, dass es enttäuscht oder gar missbraucht wird.
Vertrauen in KI schaffen
In den letzten Jahren haben Vertrauen und Vertrauenswürdigkeit auch im Kontext der Entwicklung und Nutzung von Künstlicher Intelligenz an Relevanz und Prominenz gewonnen. Die Vertrauenswürdigkeit von KI-Systemen wurde sogar als „[…] als Schlüssel zu einer ‚verantwortlichen Wettbewerbsfähigkeit‘“ (Hochrangige Expertengruppe zu Künstlicher Intelligenz der Europäischen Kommission, 2019:6) identifiziert.
Prof. Dr. Dr. Eric Hilgendorf ist Inhaber des Lehrstuhls für Strafrecht, Strafprozessrecht, Rechtstheorie, Informationsrecht und Rechtsinformatik an der Julius-Maximilians-Universität Würzburg.
Prof. Dr. Patrick Glauner, Professor für Künstliche Intelligenzen an der Technische Hochschule Deggendorf
Prof. Dr. Peter Dabrock, Professor für systematische Theologie II und theologische Ethik an der FAU Erlangen-Nürnberg
Dr. Reinhard Brandl, MdB, ist Mitglied des Ausschusses für Digitales im Deutschen Bundestag.
Kai Zenner ist Wissenschaftlicher Mitarbeiter von Axel Voss, MdEP, und war aktiv an der Ausarbeitung des europäischen AI-Acts beteiligt.
Prof. Dr. Ute Schmid ist Lehrstuhlbeauftragte für Kognitive Systeme an der Universität Bamberg.
Johannes Welsch ist Leiter des Referats für Neue Technologien und gesellschaftliche Transformation der Akademie für Politik und Zeitgeschehen der Hanns-Seidel-Stiftung.
von vorne nach hinten: Patrick Rothe, Johannes Welsch, Prof. Dr. Diane Robers, Prof. Dr. Dr. Eric Hilgendorf, Dr. Jens Römer, Dr. Jan Remy, Dr. Robert Roschlaub
©HSS
Wie lässt sich Vertrauen in KI schaffen und gewährleisten? Was macht KI-Systeme vertrauenswürdig? Entscheidend ist, dass KI-Systeme als sozio-technische Systeme begriffen werden. Die KI-basierten Technologien werden in schon bestehende soziale, wirtschaftliche, politische oder andere Praktiken eingeführt und in ihnen genutzt. Dabei birgt der Einsatz von KI sowohl positive als auch negative Potenziale, kann Vertrauen in Prozesse und Ergebnisse stärken, aber auch bestehendes Vertrauen, z.B. in die Wissenschaft oder Gesundheitsversorgung, zerstören.
Um Vertrauen in KI-basierte Technologien zu schaffen, ist es notwendig, positive Erfahrungen mit ihnen zu machen und zu erleben, dass sie einen persönlichen und gesellschaftlichen Nutzen stiften und keinen Schaden verursachen.
Vertrauenswürdigkeit von KI gewährleisten
Um die Vertrauenswürdigkeit von KI zu gewährleisten, ist Regulierung unabdingbar. Um Vertrauen auch nach durch KI verursachte Schadensereignisse wieder herstellen zu können, müssen Fragen der Erklärbarkeit von Outputs und der Haftbarkeit geklärt werden. Zur Vertrauenswürdigkeit von KI-Systemen gehört auch ein gewisses Maß an Einblick in die Trainingsdaten der Algorithmen und in die in der Anwendung verarbeiteten Daten.
v.l.n.r. Prof. Dr. Patrick Glauner, Kai Zenner, Dr. Reinhard Brandl, MdB, Prof. Dr. Peter Dabrock, Prof. Dr. Bernhard Sabel, Andreas Sachs
©HSS
Dabei darf die Regulierung nicht in Bürokratismus umschlagen. So würden zum Beispiel ausufernde Zertifizierungsprozesse vor allem kleine und mittlere Unternehmen sowie Start-ups benachteiligen und die Marktmacht großer Konzerne stärken. Damit aber würde die Regulierung von KI, die auf das Wohl der Gesellschaft und die Vertrauenswürdigkeit der KI abzielt, Innovation verhindern.
Auch die Regulierung muss KI dabei vor allem das sozio-technische System im Blick haben: Der KI wird nur Vertrauen geschenkt werden, wenn sich das ganze System, in das sie eingebettet ist, als vertrauenswürdig erweist – neben der Technologie selbst also auch die menschlichen und institutionellen Akteure.
Konkrete Empfehlungen
Vor diesem Hintergrund forderten die Teilnehmer des Round Tables die frühestmögliche Vermittlung von Technikkompetenzen und kritischem Denken schon in der Schule, unabhängig vom Bildungszweig. Nur auf diesem Fundament sei die Einschätzung der Vertrauenswürdigkeit von KI-Systemen begründet möglich.
Die Regulierung müsse das Gemeinwohl fokussieren, dabei aber die berechtigten Interessen von Unternehmen und anderen Akteuren mitbedenken und ausbalancieren.
Staatliche Institutionen seien aufgerufen, Beispiele für den gelingenden und vertrauenswürdigen Einsatz von KI-Systemen in den Verwaltungsdienstleistungen zu geben und damit zu einem Klima beizutragen, in dem Nutzer bereit sind, KI Vertrauen zu schenken.
Inputgeber des Round Tables
- Prof. Dr. Patrick Glauner, TH Deggendorf
- Prof. Dr. Ute Schmid, Otto-Friedrich-Universität Bamberg
- Prof. Dr. Bernhard Sabel, Otto-von-Guericke-Universität Magdeburg
- Prof. Dr. Alexis Fritz, Katholische Universität Eichstätt-Ingolstadt
- Dr. Reinhard Brandl, MdB
- Kai Zenner, Mitarbeiter von Axel Voss, MdEP
- Prof. Dr. Peter Dabrock, Friedrich-Alexander-Universität Erlangen-Nürnberg
- Prof. Dr. Dr. Eric Hilgendorf, Julius-Maximilians-Universität Würzburg
Diskussionsteilnehmer
- Cyber-Allianz-Zentrum Bayern
- Bayerisches Staatsministerium der Finanzen und für Heimat
- ZITiS – Zentrale Stelle für Informationstechnik im Sicherheitsbereich
- Bayerisches Landesamt für Digitalisierung, Breitband und Vermessung
- Bayerisches Landesamt für Statistik
- Bayerisches Landesamt für Datenschutzaufsicht
Kontakt