Drei Jahre ChatGPT: Zwei von drei nutzen KI-Anwendungen
(Berlin) - Drei Jahre nach dem Start von ChatGPT ist die Nutzung von generativer Künstlicher Intelligenz (KI) so selbstverständlich wie nie zuvor. Fast zwei von drei Bundesbürger:innen (65 Prozent) haben KI bereits ausprobiert oder nutzen sie regelmäßig. Das ist ein deutlicher Anstieg im Vergleich zum Vorjahr mit 53 Prozent und 37 Prozent vor zwei Jahren. Besonders ausgeprägt ist die Nutzung bei jungen Menschen: Gut neun von zehn (91 Prozent) der 16- bis 29-Jährigen verwenden KI-Tools. Das ist ein Ergebnis der TÜV-KI-Studie 2025, für die das Meinungsforschungsinstitut Forsa im Auftrag des TÜV-Verbands 1.005 Personen ab 16 Jahren befragt hat. "Generative KI ist innerhalb weniger Jahre für eine ganze Generation zum festen Bestandteil ihres Alltags geworden", sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. Laut Umfrage nutzen auch vier von fünf (80 Prozent) der 30- bis 49-Jährigen ChatGPT und Co, unter den 50- bis 64-Jährigen sind es 63 Prozent und in der Generation 65-Plus 35 Prozent. "KI ist für viele Menschen überall und jederzeit ein Werkzeug für die unterschiedlichsten Aufgaben", sagt Bühler. "Doch die Sicherheitskultur hält mit dieser Entwicklung nicht Schritt. Viele erkennen den Unterschied zwischen realen und KI-Inhalten kaum und unterschätzen die Risiken von Deepfakes und Datenlecks. Wir müssen dafür sorgen, dass zur breiten Nutzung auch ein sicherer und aufgeklärter Umgang mit KI gehört."
ChatGPT führt klar, andere KI-Anwendungen holen auf
Laut den Ergebnissen der Studie nutzt fast die Hälfte der Befragten (45 Prozent) KI täglich oder mehrmals pro Woche, 55 Prozent mehrmals pro Monat oder seltener. Das mit weitem Abstand am häufigsten genutzte KI-Tool ist ChatGPT, das 85 Prozent der KI-Nutzer:innen verwenden. Google Gemini nutzen 33 Prozent und 14 Prozent die KI-Antworten in der Google Suche. Google hatte erst kurz vor der Umfrage damit begonnen, seine Suchergebnisse mit einer "KI-Übersicht" zu ergänzen. Die Microsoft-Produkte Copilot und Bing Search, die auf ChatGPT basieren, nutzen 26 Prozent und 10 Prozent. Immerhin jede:r fünfte KI-Nutzer:in (20 Prozent) verwendet für Übersetzungen und Schreibarbeiten das deutsche Tool DeepL. 18 Prozent nutzen Meta AI, das in Meta-Anwendungen wie WhatsApp, Instagram und Facebook integriert ist. Noch nicht so weit verbreitet sind Canva AI (8 Prozent), Perplexity (7 Prozent) und Deepseek (4 Prozent). Die europäische KI-Hoffnung Le Chat des französischen Anbieters Mistral nutzen nur 1 Prozent. "Google macht mit seiner KI-Suche gegenüber ChatGPT Boden gut und Microsoft bleibt mit Copilot im Rennen", sagt Bühler. "Erfreulich aus deutscher Sicht ist, dass sich mit DeepL ein Startup aus Köln in diesem dynamischen Markt behaupten kann." Bemerkenswert ist, dass gut jede:r zehnte KI-Anwender:in (11 Prozent) im privaten Bereich bereits einen kostenpflichtigen Account nutzt. Über berufsbezogene Premium-Zugänge verfügen 31 Prozent derjenigen, die KI für berufliche Zwecke nutzen. Diese Zahlungsbereitschaft unterstreicht nicht nur den Mehrwert für die Nutzer:innen, sondern ist auch ein Hinweis auf das ökonomische Potenzial von KI.
KI im Alltag: Mehr Produktivität, weniger Unterhaltung
Auch bei den konkreten Anwendungsfeldern zeigt sich, wie tief generative KI inzwischen in den Alltag integriert ist. Am häufigsten wird sie für Recherche und Informationssuche eingesetzt. Rund zwei Drittel der Nutzer:innen verwenden KI "sehr bzw. eher häufig" dafür (72 Prozent). Texte verfassen oder optimieren gehört für viele ebenfalls zum Standardrepertoire: 43 Prozent greifen regelmäßig darauf zurück. Rund ein Drittel nutzt KI für kreative Aufgaben und Ideenfindung (38 Prozent) und jede:r Sechste arbeitet mit KI an Bildern und Videos (16 Prozent). Die Gründe für diesen breiten Einsatz sind vielfältig: Mehr als die Hälfte der Befragten sieht KI als praktisches Hilfsmittel, um produktiver zu arbeiten und sich weiterzubilden (beides 61 Prozent). Ein interessanter Trend zeigt sich beim Einsatz "aus Spaß" oder zu reinen Unterhaltungszwecken. Während 2023 noch 52 Prozent KI zur Unterhaltung nutzten und 2024 noch 44 Prozent, sind es 2025 nur noch 29 Prozent. Die spielerische Nutzung nimmt damit Jahr für Jahr ab und KI wird zunehmend als funktionales Arbeits- und Lernwerkzeug verwendet.
Mensch - Maschine - Interaktion: Vom Arbeitswerkzeug bis zum guten Freund
Die TÜV-KI-Studie 2025 ist auch der Frage nachgegangen, inwieweit KI-Nutzer:innen eine emotionale Bindung zu verschiedenen KI-Tools oder -Chatbots aufbauen. 80 Prozent der Nutzer:innen sehen KI vor allem als Werkzeug, das ihnen konkrete Aufgaben erleichtert und zu der sie keine emotionale Bindung haben. Aber gut jede:r vierte KI-Nutzer:in (27 Prozent) beschreibt die KI-Anwendung als einen klugen Coach, der beim Lernen oder Arbeiten unterstützt. Und 6 Prozent empfinden KI sogar als guten Freund, dem sie persönliche Gedanken oder Probleme anvertrauen. Romantische Gefühle spielen, so die Umfrage, offenbar keine Rolle. "Die Grenzen zwischen maschinellen und menschlichen Fähigkeiten verschwimmen. Gut ein Drittel der Anwenderinnen und Anwender erleben KI oft emotionaler, als die rein funktionale Nutzung vermuten lässt", sagt Bühler. Dazu trage auch bei, dass viele Nutzer:innen mit ihrem Chatbot sprechen. Zwar dominiert die Texteingabe per Tastatur, die 96 Prozent der KI-Nutzer:innen verwenden. Doch viele wenden sich zunehmend der Sprache zu: 38 Prozent greifen auf die Diktierfunktion zurück, bei der Fragen per Mikrofon aufgenommen und in Text umgewandelt werden. 33 Prozent führen sogar echte Sprachdialoge im sogenannten Voice Mode, bei denen die KI auch mit gesprochener Sprache antwortet. Insgesamt verwendet die Hälfte der Nutzenden (50 Prozent) mindestens eine dieser beiden Formen der Spracheingabe. Bühler: "Auch das Sprechen trägt dazu bei, der Künstlichen Intelligenz menschliche Fähigkeiten zuzuschreiben."
Sorge vor Datenmissbrauch, Deepfakes und Falschinformationen
13 Prozent der Nutzer:innen haben schon persönliche oder vertrauliche Informationen wie Adressen, Gesundheitsdaten oder Passwörter in KI-Systeme eingegeben. Gleichzeitig äußern 50 Prozent Sorge vor Datenmissbrauch oder Hacking. Immer mehr Menschen haben Schwierigkeiten, zu unterscheiden, ob Texte, Bilder oder Videos authentisch sind oder künstlich erzeugt wurden, zeigt die TÜV-KI-Studie: Jede:r Zweite hat KI-Inhalte bereits für echt gehalten (51 Prozent). Besonders visuelle Deepfakes begegnen den Nutzer:innen. Ebenfalls jede:r Zweite (51 Prozent) ist online schon auf mit Hilfe von KI veränderte oder manipulierte Videos gestoßen, die reale Personen zeigen. Eine große Mehrheit gibt an, dass es Künstliche Intelligenz bei digitalen Inhalten zunehmend schwieriger macht, echte und manipulierte Erzeugnisse zu unterscheiden (91 Prozent). Viele gehen zudem davon aus, dass diese Entwicklung die Verbreitung von Desinformation deutlich beschleunigt (83 Prozent). "KI-generierte Inhalte verändern die digitale Öffentlichkeit. Deepfakes werden für viele Menschen vom abstrakten Technologiethema zum realen Alltagsrisiko, weil sie kaum noch zu erkennen sind", sagt Bühler. "Falschinformationen sowie manipulierte Bilder und Videos beeinflussen die politische Meinungsbildung und setzen demokratische Debatten unter Druck."
Die Studie zeigt daher eine klare Erwartungshaltung gegenüber Politik, Unternehmen und Plattformbetreibern. 89 Prozent der Befragten fordern eine eindeutige Kennzeichnung von KI-generierten Inhalten, um Deepfakes und Manipulation besser erkennen zu können. 83 Prozent halten eine Regulierung von KI generell für notwendig, und 80 Prozent sprechen sich für verpflichtende Sicherheitsprüfungen durch unabhängige Stellen wie die TÜV-Organisationen aus. Trotz dieses deutlichen Regelungswunsches kennen viele die in der EU geplanten Regeln kaum. Der EU AI Act, der in den kommenden Jahren schrittweise für mehr Transparenz und Sicherheit sorgen soll, ist der Mehrheit der Bevölkerung weitgehend unbekannt: Nur 32 Prozent haben überhaupt schon einmal von der KI-Verordnung gehört. Der AI Act sieht unter anderem vor, dass Hochrisiko-KI-Systeme - zum Beispiel im Gesundheitsbereich oder in kritischen Infrastrukturen - besondere Sicherheitsanforderungen erfüllen müssen. Die TÜV-Unternehmen bereiten sich mit dem TÜV AI Lab auf diese Prüftätigkeiten vor. Bühler: "Viele Menschen erwarten, dass Staat und Technologieanbieter wirksame Schutzmechanismen schaffen. Deshalb muss die Einigung zum europäischen AI Act jetzt zügig in nationales Recht umgesetzt werden." Der TÜV-Verband setzt sich dafür ein, dass das nationale Umsetzungsgesetz die Grundlage für verlässliche KI-Prüfungen legt. Dafür braucht es eine Benennung unabhängiger Prüforganisationen durch die zuständigen Behörden. Bühler: "Unternehmen und Prüforganisationen brauchen Planungs- und Rechtssicherheit, um eine unbürokratische sowie innovationsfreundliche Umsetzung des EU AI Acts zu ermöglichen und Vertrauen in KI-Anwendungen zu stärken."
Weitere Informationen zur TÜV-KI-Studie und eine Präsentation mit den Studienergebnissen sind abrufbar unter http://ots.de/OOmdIZ .
Quelle und Kontaktadresse:
TÜV Verband e.V., Maurice Shahd, Leiter(in) Kommunikation, Friedrichstr. 136, 10117 Berlin, Telefon: 030 760095-400
Sie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen



