Im Mai 2025 stellte Google auf der I/O-Konferenz ein neues Produkt vor, das nicht weniger als die Zukunft der Videoproduktion einläuten soll: Veo 3. Ein KI-Modell, das aus simplen Texteingaben oder Bildern vollständige, realistisch wirkende Videos erzeugt. In Full-HD, mit flüssigen Bewegungen, stimmiger Beleuchtung, optionalem Ton und – so Google – in einer Qualität, die „kinoreif“ ist. Und das ist ein Problem.
Veo 3 kann Videos erstellen, die wirken, als wären sie mit echten Kameras aufgenommen. Eine Strandpromenade in Barcelona bei Sonnenuntergang? Eine Interview-Szene mit künstlich erzeugter Person und glaubwürdigem Tonfall? Kein Problem. Es reicht ein Prompt: „Ein Mann mit Brille sitzt auf einer Bank und erklärt die Auswirkungen des Klimawandels.“ Veo liefert ein Video, das aussieht wie ein Nachrichtenbeitrag.
Auf Youtube feiern Tech-Influencer die neue Google Video KI bereits euphorisch. Von einem Gamechanger ist die Rede. Von unbegrenzten Möglichkeiten für Filmschaffende und Kreative. Ja, vielleicht. Oder aber auch das Ende davon. Denn wenn eine gut formulierte Texteingabe für einen Blockbuster ausreicht, müssen Filmemacher wohl umschulen.
Aber da gibt es noch ein Problem.
Inhalt
KI-Videos mit Veo 3 & Co.: Die Demokratisierung der Desinformation?
Bei aller Begeisterung für das technisch machbare -und ja – auch mich haben die Videoclips, die durch einfache Textprompts sofort erzeugt werden, inklusive Lippensynchroner Vertonung fasziniert. Aber gleichzeitig machen sie mir auch Sorgen.
Wenn wir nicht mehr unterscheiden können, ob das Video, das wir sehen, tatsächlich aufgenommen wurde oder in wenigen Sekunden am Rechner entstand, dann wackelt ein zentrales Fundament unserer Informationsgesellschaft: die visuelle Beweiskraft.
Früher galt: Wenn es ein Video davon gibt, ist es wahrscheinlich echt. Heute ist diese Aussage wertlos geworden.
Und obwohl Google Sicherheitsmechanismen wie SynthID (ein unsichtbares Wasserzeichen für KI-generierte Inhalte) verspricht, ist die eigentliche Frage: Wird das reichen? Wird es uns davor bewahren, noch mehr manipuliert zu werden? Oder öffnen wir gerade das nächste Tor in eine Welt, in der Desinformation zum Standard gehört?
Wahrheit oder Fälschung: Die große Verunsicherung
Die Warnungen kommen längst nicht mehr nur von Ethikräten oder Digitalromantikern. So etwa auch von Gary Marcus, wohl einer der prominentesten KI-Kritiker. Marcus ist ein renommierter US-amerikanischer Kognitionswissenschaftler, KI-Forscher, Autor und Unternehmer. Er zählt zu den bekanntesten Kritikern des aktuellen KI-Hypes und plädiert regelmäßig für einen vorsichtigen, wissenschaftlich fundierten Umgang mit künstlicher Intelligenz.
Bereits vor einem Jahr, also noch zu einer Zeit als KI-generierte Videoclips längst noch nicht so professionell wie die nun gezeigten Beispiele waren, sagte er in einem Interview mit heise.de „Die Leute, die KI betreiben, kümmern sich nicht wirklich um das, was man als verantwortungsvolle KI bezeichnet“ Und dann kam die Warnung: „Die Folgen für die Gesellschaft könnten schwerwiegend sein.“
Die Leute, die KI betreiben, kümmern sich nicht wirklich um das, was man als verantwortungsvolle KI bezeichnet. — Gary Marcus
Und was sollen wir jetzt machen?
heise.de zitiert Marcus weiter „Wir müssen die Öffentlichkeit in den Kampf einbeziehen, um die KI-Unternehmen dazu zu bringen, sich verantwortungsvoll zu verhalten“. Es gebe eine Reihe von Maßnahmen, die die Menschen ergreifen können, vom Boykott einiger Softwareprodukte bis hin zur Wahl von Politikern, die sich an einer ethischen Technologiepolitik orientieren.
Nur, Softwareprodukte boykottieren? Seriously? Ich glaube das machen nur ein paar Idealisten. Und eine ethische Technologiepolitik? Aktuell habe ich eher das Gefühl, dass die Tech-Bros‘ des Silicon Valley es bereits recht erfolgreich darauf anlegen, Demokratien zu schwächen, um ihre Produkte unreguliert unter die Menschheit zu bringen.
Demokratie im Schatten künstlicher Bilder
Die Frage, die sich hier stellt, ist keine technische. Es ist eine politische, gesellschaftliche und moralische:
Was passiert mit Demokratien, wenn Bürgerinnen und Bürger nicht mehr sicher wissen, ob das, was sie sehen, wahr ist?
Die Erosion von Vertrauen in Medien, Politik und Wissenschaft ist bereits spürbar. Wer heute ein Video sieht, das einen Politiker bei einer vermeintlichen Aussage zeigt, fragt sich vielleicht: „Hat er das wirklich gesagt – oder ist es ein Fake?“
Diese Unsicherheit ist pures Gift für den öffentlichen Diskurs. Denn sie lähmt. Wer nicht mehr unterscheiden kann, was echt ist, gibt irgendwann auf, überhaupt noch zu bewerten. Und genau das ist das Ziel sogenannter „Informationskriegsführung“ – oder, frei nach Wladimir Putin: „Die beste Waffe ist, die Wahrheit so zu vernebeln, dass niemand sie mehr erkennen kann.“
Die beste Waffe ist, die Wahrheit so zu vernebeln, dass niemand sie mehr erkennen kann.
Wie lassen sich KI-Videos erkennen?
Wir werden in Zukunft – und das ist keine Übertreibung – alle zu Faktencheckern werden müssen. Es reicht nicht mehr, kritisch zu denken. Wir müssen kritisch sehen lernen. Noch lassen sich Fakes bei genauem hinsehen enttarnen. Noch. Doch mit Veo 3 ist das ab heute noch ein ganzes Stück schwieriger geworden. Ein paar Hinweise könnten sein:
- Unnatürliche Bewegungen
Ruckartige Kopfbewegungen, flackernde Gliedmaßen oder unrealistische Mimik sind typische Hinweise. - Fehler bei Händen oder Ohren
KI hat (noch) Probleme mit feinmotorischen Details. Achten Sie auf deformierte Finger, asymmetrische Ohren oder wechselnde Accessoires. - Fehlende Reflektionen
Sonnenlicht, Spiegelungen, Schattenverläufe – oft stimmen sie nicht mit dem restlichen Bild überein. - Lippenbewegung und Ton nicht synchron
Besonders bei gesprochenem Text treten leichte Asynchronitäten auf. - Verzerrte Bildränder
Übergänge zu Kleidung, Hintergründen oder Gläserrahmen wirken oft künstlich oder verschwimmen. - Kontext checken!
Woher stammt das Video? Wer hat es gepostet? Gibt es unabhängige Quellen? Ist es in seriösen Medien erschienen?
Umgang mit Fake News: Ignorieren ist manchmal Macht
Ich habe unter „Don’t Feed The Trolls – Warum Ignorieren die wirksamste Waffe gegen Fake News ist“ schon geschrieben, wie wichtig es ist, nicht jeder Provokation zu folgen. Das gilt auch für solche KI-Videos: Jeder Share, jeder empörte Kommentar, jede Reaktion – selbst wenn sie kritisch ist – trägt zur Verbreitung bei. Genau das wollen Desinformationskampagnen. Sie spekulieren auf Reichweite durch Empörung.
Mein Rat: Nicht teilen. Nicht kommentieren. Melden. Stille ist Macht.
Denn der Algorithmus lebt von Aufmerksamkeit – nicht von Wahrheit.
Was muss sich ändern?
Solange KI-Tools mit einer Technologie wie die Veo 3 für jeden zugänglich sind, muss die Technik mit gesellschaftlicher Verantwortung wachsen. Das bedeutet:
- Pflicht zur Kennzeichnung KI-generierter Inhalte – sichtbar, nicht nur im Code.
- Staatlich finanzierte Medienkompetenz-Kampagnen.
- Transparenzpflicht für Plattformen, die KI-Videos verbreiten.
- Rechtsrahmen gegen böswillige Deepfake-Nutzung.
Fazit
Google Veo 3 ist eine beeindruckende technische Leistung. Es zeigt, was heute möglich ist – und gleichzeitig, was bald nicht mehr möglich sein wird: Wahrheit auf den ersten Blick zu erkennen. Die Verantwortung liegt nicht nur bei Tech-Konzernen. Sie liegt bei uns allen – beim Teilen, beim Hinterfragen, beim Schweigen, wo Schweigen schützt.
Wir müssen lernen, nicht jedem Bild zu trauen. Und manchmal ist es besser, nicht jedes Bild überhaupt zu sehen.
Bleibt kritisch. Bleibt wachsam. Und manchmal: bleibt stumm.