ChatGPT, Google Gemini, MidJourney oder Anthropic Claude: Anwendungen generativer Künstlicher Intelligenz (KI) prägen zunehmend den Alltag in Deutschland. Gut jeder zweite Bundesbürger (53 Prozent) hat generative KI bereits genutzt. Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.001 Personen ab 16 Jahren ergeben.
Zum Vergleich: Im Oktober 2023 gaben bei einer Umfrage 37 Prozent der Deutschen an, KI bereits zu nutzen, und im April 2023, ein halbes Jahr nach Einführung von ChatGPT, waren es 23 Prozent. „KI-Dienste entwickeln sich zu unverzichtbaren digitalen Alltagshelfern, ähnlich wie Suchmaschinen, E-Mails oder Navigationsdienste, sowohl im privaten als auch im beruflichen Bereich“, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, bei Vorstellung der Studienergebnisse.
Demnach nutzen derzeit vor allem Jüngere KI-Anwendungen: 78 Prozent der 16- bis 35-Jährigen, 55 Prozent der 36- bis 55-Jährigen, aber nur 26 Prozent in der Altersgruppe von 56 bis 75 Jahren. Männer nutzen KI mit einem Anteil von 60 Prozent deutlich häufiger als Frauen mit 45 Prozent. Gut ein Viertel der KI-Nutzenden (26 Prozent) sind „heavy user“, die entsprechende Anwendungen täglich oder mehrmals wöchentlich einsetzen. Eine deutliche Mehrheit stimmt der Aussage zu, dass die KI-Technologie das Potenzial hat, sie im privaten (61 Prozent) und beruflichen (59 Prozent) Leben zu unterstützen.
Sorge vor Wahlmanipulation und Desinformation
Es gibt aber auch starke Vorbehalte und Sorgen: Eine deutliche Mehrheit sieht derzeit nicht abschätzbare Risiken der KI-Technologie (76 Prozent). Bühler: „Mit Blick auf die Bundestagswahl ist es wichtig, KI-Kompetenzen zu fördern und Maßnahmen für die Erkennung und Abwehr von Desinformation zu ergreifen. Die Parteien sollten sich im Wahlkampf auf Regeln für den Einsatz von KI verständigen und KI-generierte Wahlwerbung kennzeichnen.“ Der TÜV-Verband fordert daher Maßnahmen, um vertrauenswürdige KI-Systeme zu gewährleisten und die Demokratie zu schützen.
Laut den Ergebnissen der dritten TÜV ChatGPT-Studie werden in der Bevölkerung die Auswirkungen von KI auf Demokratie und Mediensystem besonders kritisch gesehen: So befürchten 87 Prozent, dass mithilfe von KI gefälschte Bilder und Videos (Deepfakes) Wähler manipulieren können. 83 Prozent sind der Meinung, dass die KI-Technologie die Verbreitung von „Fake News“ massiv beschleunigt. Und 79 Prozent glauben, dass KI-generierte Bilder und Videos von Parteien Wahlergebnisse beeinflussen können. „Im US-Wahlkampf waren Deepfakes ein verbreitetes Mittel, um Wähler zu manipulieren“, sagte Bühler.
Laut Umfrage kann ein Großteil der Bundesbürger (81 Prozent) durch den Einsatz von KI kaum erkennen, ob Fotos und Videos echt oder gefälscht sind. 77 Prozent geben an, dass sie den Wahrheitsgehalt eines KI-generierten Textes nicht erkennen können. Und 45 Prozent sind der Meinung, dass die KI-Technologie eine Gefahr für die Demokratie ist. „Um die Risiken von Wahlmanipulation zu verringern, müssen sich die demokratischen Parteien sowie öffentliche Institutionen gegen Desinformation wappnen“, sagte Bühler. „Es braucht klare Leitlinien für den Einsatz von KI im Wahlkampf und freiwillige Selbstverpflichtungen der politischen Parteien zum verantwortungsvollen Umgang mit KI. Die Betreiber von Social-Media-Plattformen müssen konkrete Maßnahmen ergreifen, um demokratische Prozesse zu schützen.“
Darüber hinaus müsse der Referentenentwurf für die deutschen Umsetzungsbestimmungen des EU AI Acts trotz Regierungskrise zügig fertiggestellt werden. Dies schaffe nicht nur Planungs- und Rechtssicherheit für Unternehmen und Prüforganisationen, sondern auch ein höheres Schutzniveau für die Bürger.
KI-Anwendungen werden zum Arbeitswerkzeug – Skepsis gegenüber den Ergebnissen
Die Umfrage zeigt, dass sich generative KI-Anwendungen zu einem Arbeitswerkzeug entwickeln: Die Hälfte der KI-Nutzenden setzt die Tools ein, um Texte korrekt zu verfassen (50 Prozent). Das sind zehn Prozentpunkte mehr als im Vorjahr. Fast ebenso viele nutzen KI für allgemeine Recherchezwecke oder als Alternative zur Internetsuche (48 Prozent). Gut ein Drittel der Befragten nutzt generative KI für kreative und Prozesse wie Ideenfindung (36 Prozent) sowie zur Lösung von Problemstellungen (34 Prozent). Etwa jeder Vierte nutzt sie zum Erstellen und Bearbeiten von Bildern und Videos (24 Prozent) und jeder Fünfte für Übersetzungen (20 Prozent). Immerhin 44 Prozent nutzen KI-Anwendungen aus Spaß beziehungsweise zu Unterhaltungszwecken.
Was die Qualität der Ergebnisse angeht, sind die Meinungen geteilt: Knapp die Hälfte der Nutzenden hat nur geringes oder kein Vertrauen in die Richtigkeit der Ergebnisse von KI-Anwendungen (48 Prozent). Dagegen haben genauso viele großes oder sehr großes Vertrauen. 43 Prozent geben an, dass die Ergebnisse nicht konkret genug sind und 31 Prozent, dass sie oft fehlerhaft oder falsch sind. Allerdings wissen sich die meisten zu helfen und überprüfen die Ergebnisse von ChatGPT und Co. durch weitere Recherchen (78 Prozent). Immerhin 44 Prozent fragen die KI nach Quellen, um Ergebnisse zu überprüfen.
„Die Skepsis gegenüber der Verlässlichkeit von KI-Ergebnissen verdeutlicht, wie wichtig es ist, Kompetenzen im Umgang mit KI-Technologien zu stärken“, betonte Bühler. „Der Erwerb von KI-Kompetenzen und kontinuierliche Weiterbildung sind der Schlüssel für einen verantwortungsbewussten Umgang mit der Technologie und gegen Manipulation.“
Mehrheit fordert Kennzeichnungspflicht für Künstliche Intelligenz
Um die Gesellschaft vor möglichen Risiken von KI-Systemen zu schützen, hat die EU im August 2024 die europäische KI-Verordnung (EU AI Act) verabschiedet. Der AI Act teilt KI-Anwendungen in vier Risikoklassen mit jeweils unterschiedlichen Anforderungen ein, die in den kommenden Monaten schrittweise erfüllt werden müssen. Die Anforderungen an Transparenz, Risikomanagement und Kennzeichnung von KI-generierten Inhalten treten allerdings erst im August 2026 in Kraft.
Eine deutliche Mehrheit der Deutschen fordert Transparenz- und Kennzeichnungspflichten für KI-generierte Inhalte (90 Prozent). Eine verpflichtende Sicherheitsprüfung von KI-Systemen durch unabhängige Prüforganisationen halten 83 Prozent für wichtig, damit Produkte und Anwendungen mit KI sicher und ethisch vertretbar sind. Und 80 Prozent halten eine Regulierung von KI für notwendig, um die Entwicklung und den Einsatz von KI verantwortungsvoll zu steuern.
Bühler: „Jetzt gilt es, zügig einen einheitlichen Leitmarkt für KI-Prüfungen und -Zertifizierungen zu entwickeln, damit vertrauenswürdige KI ‚Made in Europe‘ zu einem Alleinstellungsmerkmal wird. Die TÜV-Unternehmen haben das TÜV AI.Lab gegründet, um Prüfmethoden und Prüfwerkzeuge für die Sicherheit von KI zu entwickeln. Jetzt müssen sie als notifizierte Stelle zugelassen werden, um Prüfung und Zertifizierung von KI durchführen zu können. Um reale KI-Risiken gezielt regulieren zu können, ist es wichtig, eine systematische KI-Schadensstatistik aufzubauen. Mithilfe eines evidenzbasierten Bildes realer Schäden mit KI-Beteiligung oder KI-Auslöser, können entsprechende Vorkehrungen gegen diese Risiken getroffen und das Vertrauen der Bürgerinnen und Bürger in die Technologie gestärkt werden.“
Methodik-Hinweis: Grundlage der Angaben ist eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.001 Personen zwischen 16 und 75 Jahren. Die Umfrage wurde vom 16. bis 24. Oktober 2024 durchgeführt.
Quelle: TÜV-Verband