Pressemitteilung | TÜV Verband e.V.

VdTÜV-Studie: Verbraucher wollen Sicherheit und Transparenz bei Künstlicher Intelligenz

(Berlin) - Forderungen nach klarer Kennzeichnung und unabhängigen Prüfungen / Hoffnung auf Fortschritte in Medizin, Forschung und Bildung / TÜV-Verband fordert gesetzliche Leitlinien für den KI-Einsatz in sicherheitskritischen Bereichen / Studie zur Sicherheit von Künstlicher Intelligenz

Die Verbraucherinnen und Verbraucher in Deutschland fordern mehr Transparenz und Sicherheit beim Einsatz Künstlicher Intelligenz (KI): 85 Prozent der Bundesbürger wollen, dass Produkte und Anwendungen mit Künstlicher Intelligenz klar gekennzeichnet werden. Ebenfalls 85 Prozent sind der Meinung, dass KI-Produkte erst auf den Markt gebracht werden sollten, wenn ihre Sicherheit von unabhängigen Stellen überprüft wurde. Und 78 Prozent der Befragten sagen, dass der Staat Gesetze und Vorschriften zur Regulierung von KI verabschieden sollte. Das hat eine repräsentative Ipsos-Umfrage im Auftrag des TÜV-Verbands unter 1.000 Personen ab 16 Jahren ergeben.

"Der Ruf nach einer gesetzlichen Regulierung von Künstlicher Intelligenz wird lauter", sagte Dr. Michael Fübi, Präsident des TÜV-Verbands (VdTÜV), bei der Vorstellung der Studienergebnisse in Berlin. "Beim Einsatz von Künstlicher Intelligenz in sicherheitskritischen Bereichen gibt es erhebliche Regelungslücken. Immer dann, wenn Gefahren für die Gesundheit von Menschen oder deren elementare Grundrechte bestehen, sind klare Leitlinien für die Anbieter, Entwickler und Nutzer von KI-Anwendungen notwendig." Das betreffe zum Beispiel hoch automatisierte Fahrzeuge, mit KI-gesteuerte Maschinen oder die medizinische Diagnostik auf Basis von KI. Laut der Umfrage halten nur 17 Prozent der Befragten eine Selbsterklärung der Anbieter von KI-Anwendungen darüber für ausreichend, dass ihre Produkte sicher sind.

Die TÜV-Studie zeigt, dass die Deutschen offen sind für diese neue Technologie. Mit 46 Prozent empfindet fast die Hälfte aller Befragten etwas Positives oder sehr Positives, wenn sie an KI denken. Weitere 21 Prozent sind neutral. Dagegen empfinden 28 Prozent eher etwas Negatives oder sehr Negatives. Fragt man, was die Menschen fühlen, wenn die Medien über Künstliche Intelligenz berichten, ist das Ergebnis ambivalent: Einerseits herrscht bei 53 Prozent der Befragten Interesse und Neugier, andererseits Skepsis (43 Prozent). Viele sind erwartungsvoll (36 Prozent), viele aber auch verunsichert (25 Prozent). Fübi: "Insgesamt überwiegen die positiven Empfindungen in Bezug auf KI und viele Menschen erhoffen sich von der Technologie Fortschritte in verschiedenen Lebensbereichen."

Positiv bewertet eine breite Mehrheit in der Bevölkerung die Weiterentwicklung von Künstlicher Intelligenz in der Forschung (75 Prozent), in der Industrie (73 Prozent) und in der Medizin (65 Prozent). Überwiegend positiv bewerten die Befragten auch Verbesserungen durch KI bei der Verbrechensbekämpfung (65 Prozent) oder bei der Vermittlung von Wissen, zum Beispiel durch den Einsatz persönlicher Assistenten (64 Prozent). Sehr oder eher negativ sehen es dagegen 69 Prozent der Befragten, wenn KI menschliche Kontakte ersetzt. Überwiegend kritisch beurteilen sie auch die Nutzung von KI in der Rechtsprechung (66 Prozent), in der Verteidigung (50 Prozent) oder in der Altenpflege (49 Prozent).

Aus Sicht des TÜV-Verbands stellt sich mit dem massenhaften Einsatz von Künstlicher Intelligenz in sicherheitskritischen Bereichen wie Fahrzeugen, Maschinen, Anlagen und Geräten immer drängender die Frage nach einer angemessenen Regulierung der Technologie. Neben den sicherheitskritischen Themen sind auch ethische Fragen relevant. Manipulation in sozialen Medien oder die Diskriminierung bestimmter Bevölkerungsgruppen sollten daher diskutiert werden. Nach den Ergebnissen der TÜV-Umfrage haben 72 Prozent der Bundesbürger große oder sehr große Sorgen vor Hackerangriffen, die mit Hilfe von KI automatisiert oder personalisiert werden können. An zweiter Stelle steht mit 71 Prozent die Sorge, dass KI missbraucht wird, um Menschen zu manipulieren. Zwei von drei Befragten (67 Prozent) haben Angst, dass KI-Systeme bei sicherheitskritischen Anwendungen Fehler machen, zum Beispiel bei hoch automatisierten Fahrzeugen. Ist das KI-System beispielsweise nicht in der Lage, eine Verkehrssituation richtig zu erfassen, kann es zu schweren Unfällen kommen. Weitere Sorgen drehen sich um das Thema Entmenschlichung (62 Prozent) und eine noch stärkere Abhängigkeit von digitalen Technologien (61 Prozent). 56 Prozent der Befragten haben große oder sehr große Sorgen, dass KI-Anwendungen Arbeitsplätze von Menschen ersetzen. "Die Sorge vor Arbeitsplatzverlusten durch KI-Anwendungen ist berechtigt", sagte Fübi. "Wir müssen schon heute diskutieren, wie unsere Gesellschaft diesen Strukturwandel gestalten will."

Laut der Umfrage kennen 94 Prozent der Befragten den Begriff Künstliche Intelligenz, aber nur etwa jeder Dritte (34 Prozent) kann ihre wichtigsten Eigenschaften erklären oder die Technologie sogar in all ihren Facetten beschreiben. Fast die Hälfte der Befragten (47 Prozent) kann allenfalls eine grobe Erklärung abgeben, weiß aber nichts Genaues. 16 Prozent wissen sehr wenig oder gar nichts, obwohl viele den Begriff schon mal gehört haben. Es existiert zwar keine einheitliche Definition von Künstlicher Intelligenz, aber die wichtigsten Merkmale lassen sich beschreiben: KI-Systeme lernen eigenständig, verarbeiten in der Regel riesige Datenmengen und können ihre Umgebung wahrnehmen und darauf reagieren. Mit diesen "Fähigkeiten" sind KI-Anwendungen in der Lage, sehr komplexe Aufgaben zu lösen.

Es gilt als sicher, dass KI-Anwendungen immer mehr Aufgaben von Menschen übernehmen oder diese bei ihren täglichen Entscheidungen unterstützen werden, zum Beispiel beim Autofahren, bei medizinischen Diagnosen oder anderen beruflichen Tätigkeiten. Besonders hohe Akzeptanz findet KI, wenn es die Experten bei ihren Entscheidungen unterstützt. So begrüßen 69 Prozent der Befragten, dass Ärzte durch KI unterstützt werden. Der Arzt soll allerdings die Entscheidungshoheit behalten. Nur 24 Prozent würden auf die ausschließliche Empfehlung der Algorithmen vertrauen.

Wie tolerant sind die Verbraucher gegenüber Fehlern, die ein KI-System macht? Immerhin 40 Prozent der Befragten erwarten 100 Prozent Fehlerfreiheit. 34 Prozent würden einem KI-System in Ausnahmefällen Fehler zugestehen und 17 Prozent sagen sogar, Fehler sind normal. 9 Prozent wollen sich nicht festlegen. Deutlich weniger fehlertolerant sind die Befragten allerdings bei der Frage nach einer besonders sicherheitskritischen Anwendung wie dem automatisierten Fahren. Dann stimmen 84 Prozent der Befragten der Aussage zu, dass autonome Fahrzeuge absolut fehlerfrei arbeiten müssen. Und ebenfalls 84 Prozent sind der Meinung, dass KI-Systeme in Fahrzeugen von unabhängigen Stellen geprüft werden sollten. Fübi: "Für sicherheitskritische KI-Systeme brauchen wir einen klaren gesetzlichen Prüfauftrag, um die Sicherheit von Fahrzeugen oder Maschinen testen zu können."

Aus Sicht des TÜV-Verbands führt an einer angemessenen Regulierung auf nationaler und internationaler Ebene kein Weg vorbei. Die neue EU-Kommission hat angekündigt, eine KI-Strategie vorzulegen. In Deutschland plant das Bundesarbeitsministerium ein KI-Observatorium, um die Auswirkungen am Arbeitsmarkt zu beobachten und im Sommer will die Enquete-Kommission des Deutschen Bundestages zur Künstlichen Intelligenz ihren Abschlussbericht vorlegen. "Beim Einsatz von Künstlicher Intelligenz geht es in vielen Bereichen um die körperliche Unversehrtheit von Menschen und die Wahrung ihrer elementaren Grundrechte", betonte Fübi. "Natürlich müssen wir darauf achten, dass die Regulierung nicht übers Ziel hinausschießt und Innovationen bremst." Ein Weg, um das zu vermeiden, sei ein risikobasierter Ansatz. Nicht jede KI-Anwendung müsse umfangreich getestet werden. Es komme darauf an, wie groß der Schaden ist, den ein KI-System anrichten kann.

Die Empfehlungen des TÜV-Verbands an die Politik im Überblick:

- KI-Anwendungen sollten in verschiedene Risikoklassen eingeordnet werden. In Abhängigkeit vom Risiko können sie dann zugelassen, überprüft oder sogar laufend überwacht werden. Der Ansatz der Datenethikkommission der Bundesregierung weist genau in diese Richtung.

- Die Prüfung von KI-Systemen mit hohem oder sehr hohem Risiko sollte von unabhängigen Prüforganisationen vorgenommen werden. Der risikobasierte Ansatz ist ein etabliertes Verfahren des europäischen Binnenmarktes, um Sicherheit und Innovationen miteinander zu verbinden.

- Voraussetzung für herstellerunabhängige Prüfungen von algorithmischen Systemen ist der Zugang zu den dafür notwendigen sicherheitsrelevanten Daten. Schon heute fehlt den Prüforganisationen zum Beispiel der Zugang zu wichtigen Daten von digital gesteuerten Aufzügen oder Fahrerassistenzsystemen in Autos.

- Für lernende KI-Systeme sind fortlaufende Prüfungen notwendig. Periodische Prüfungen alle ein oder zwei Jahre dürften im digitalen Zeitalter bald der Vergangenheit angehören.

- Auch zur Einhaltung ethischer Standards bei der KI-Entwicklung können unabhängige Prüforganisationen einen Beitrag leisten, indem sie die innerbetrieblichen Prozesse der Unternehmen überprüfen und zertifizieren.

Der TÜV-Verband sieht für entsprechende Gesetzesinitiativen im Bund und in der EU dringenden Handlungsbedarf. "Jeden Tag drängen viele neue KI-Anwendungen auf den Markt", sagte Fübi. "Die Zeit der politischen Meinungsbildung sollte zu Ende gehen. Jetzt ist politisches Handeln gefragt." Seine Empfehlungen an die Politik hat der TÜV-Verband in seinem Positionspapier "Vertrauen in KI-basierte Systeme schaffen" zusammengefasst (https://www.vdtuev.de/themen/politische_positionen_vdtuev/kuenstliche-intelligenz).

Methodik-Hinweis

Grundlage der Studienergebnisse ist eine repräsentative Umfrage des Marktforschungsunternehmens Ipsos im Auftrag des TÜV-Verbands unter 1.000 Personen ab 16 Jahren in Deutschland.

Quelle und Kontaktadresse:
Verband der TÜV e.V. (VdTÜV) Maurice Shahd, Leiter Kommunikation Friedrichstr. 136, 10117 Berlin Telefon: (030) 760095-400, Fax: (030) 760095-401

NEWS TEILEN: