In de AI-video's van Sora 2 schuilt een gevaar dat ook vroeger in nieuwe media school, waarschuwt Hendrik Atze van Doezum | opinie

donderdag, 9 oktober 2025 (11:43) - Leeuwarder Courant

In dit artikel:

Hendrik Atze van Doezum, geschiedenisdocent en columnist uit Buitenpost, waarschuwt voor de gevaarlijke sprong die met recente AI-video-apps wordt gemaakt. Afgelopen weekend dook Sora 2 op — een door de makers van ChatGPT ontwikkelde tool die levensechte nepvideo’s produceert. Met die software kunnen mensen en publieke figuren in volledig gefabriceerde scènes verschijnen: politici die vreemde uitspraken doen, fictieve beelden van Pikachu tijdens D-Day en zelfs verzinsels over een buitenaardse aanval gingen al rond. De realiteitsillusie is zo overtuigend dat de grens tussen echt en gemaakt dreigt te verdwijnen.

Van Doezum plaatst die ontwikkeling in een lange traditie: elk nieuw medium bracht kansen voor creatie en communicatie, maar ook voor manipulatie. Toen kranten massale lezers kregen, werden ze ingezet om opinies te sturen en macht te verwerven. De radio maakte woorden emotioneel en invloedrijk, de film gaf propaganda visuele macht — voorbeelden als de producties van Leni Riefenstahl tonen hoe beeldkracht mensen kan overtuigen en haat kan normaliseren. Met internet en sociale media verschoof de dynamiek opnieuw: algoritmes bepaalden wat we te zien kregen en maakten winstgevendheid van sensatie en misleiding mogelijk; de Brexit-campagne illustreerde hoe zorgvuldig geconstrueerde onwaarheden politieke gevolgen konden hebben.

Sora en soortgelijke AI-tools vormen volgens de auteur de volgende escalatie: niet alleen tekst of een enkele foto kan vals zijn, maar bewegend beeld dat ons zintuiglijk vertrouwen tart. Als iedereen straks zijn eigen gefabriceerde werkelijkheid kan creëren en verspreiden, ondermijnt dat de gedeelde feitenbasis die samenlevingen nodig hebben om samen te functioneren. Van Doezum trekt een scherpe vergelijking met Oppenheimer: niet een fysiek wapen maar de verwoestende kracht van beeldvorming zelf kan ons bestaan bedreigen als we niet opletten.

Voor wie het probleem wil aanpakken zijn impliciete pistes te lezen: wie krijgt de controle over de techniek, welke waarborgen, detectie- en reguleringsmaatregelen en hoe versterken we mediageletterdheid? De oproep is duidelijk: dankzij de geschiedenis weten we dat technologie manipuleerbaar is — het is nu aan ons om te voorkomen dat overtuigende nepbeelden de gemeenschappelijke werkelijkheid vernietigen.