Deepfake het nieuwe gevaar van desinformatie: 'Nixon' die NASA Apollo 11-ramp aankondigt

Gepubliceerd op 22 juli 2020 om 16:34
Deepfake het nieuwe gevaar van desinformatie: 'Nixon' die NASA Apollo 11-ramp aankondigt

‘Het lot heeft bepaald dat de mannen die de maan in vrede gingen verkennen, nu op de maan in vrede zullen rusten’, zie je Richard Nixon vertellen over het eerste duo op de maan. En het lijken net echte historische beelden.

MIT en Mozilla willen dat mensen de verontrustende kracht van deepfake-video's beter begrijpen in een nieuw project genaamd 'In Event of Moon Disaster'

Kijk hoe president Richard Nixon heel slecht nieuws brengt over de Apollo 11-maanlanding in deze deepfake-video gemaakt door MIT. 

Apollo 11 maanlanding

De maanlanding van Apollo 11 op 20 juli 1969 was een mijlpaal in de ruimtegeschiedenis. Maar wat als de astronauten stierven tijdens hun missie naar de maan en president Richard Nixon tragisch nieuws op tv moest brengen aan het Amerikaanse kijkerspubliek?

In deze verontrustend echte deepfake- video breekt president Nixon het nieuws dat NASA heeft gefaald en dat astronauten op de maan zijn gestorven. Deepfakes zijn video-vervalsingen waardoor mensen lijken te doen of dingen zeggen die ze niet zijn. Deepfake-software heeft gemanipuleerde video's toegankelijk gemaakt en steeds moeilijker te detecteren als nep.

'Het lot heeft bepaald dat de mannen die naar de maan zijn gegaan om in vrede te verkennen, op de maan zullen blijven om in vrede te rusten', zegt Nixon in de deepfake-video die verwijst naar astronauten Neil Armstrong, Buzz Aldrin en Michael Collins .

Het duurde een half jaar voordat de AI-experts van het Massachusetts Institute of Technology een zeer overtuigende  7 minuten durende deepfake-video maakten  die feitelijk NASA-beeldmateriaal combineert  met Nixon die een tragische toespraak hield , alsof Apollo 11 niet was geslaagd in zijn missie naar de maan.

Deep-learning

Kunstmatige intelligentie "deep-learning" -technologie werd gebruikt om Nixons stem- en gezichtsbewegingen overtuigend te maken. De contingentie toespraak (te vinden in het  Nationaal Archief ) werd voorgelezen door een acteur. 

MIT's Center for Advanced Virtuality creëerde zijn nieuwe project genaamd 'In Event of Moon Disaster' - dat op maandag werd gelanceerd - om mensen te laten zien welke gevaarlijke invloed deepfake-video's kunnen hebben op een nietsvermoedend publiek. 

Dit is de eerste keer dat de Nixon Apollo 11 deepfake-video in zijn geheel aan het publiek wordt gepresenteerd na een fysieke kunstinstallatie op MIT in de herfst van 2019. 

"In Event of Moon Disaster is een meeslepend kunstproject dat je uitnodigt in een alternatieve geschiedenis en ons allemaal vraagt ​​om na te denken over hoe nieuwe technologieën de waarheid om ons heen kunnen buigen, omleiden en verdoezelen", aldus de website van het project. "Door deze alternatieve geschiedenis te creëren, onderzoekt het project de invloed en de alomtegenwoordigheid van verkeerde informatie en deepfake-technologieën in onze hedendaagse samenleving."

In Event of Moon Disaster wil mensen niet alleen deepfakes beter begrijpen, maar ook uitleggen hoe deepfakes worden gemaakt en hoe ze werken; hoe je een deepfake kunt herkennen ; hun potentieel gebruik en misbruik; en wat er wordt gedaan om deepfakes en desinformatie te bestrijden. 

Dit project wordt ondersteund door een subsidie ​​van Mozilla's Creative Media Awards , die voortbouwen op de missie van Mozilla om meer betrouwbare AI in consumententechnologie te realiseren. 

Rn 100 6 1 2
PDF – 131,7 KB 489 downloads

De contingentie toespraak Nationaal Archief

Onderwijs en bewustwording

De video "In Event of Moon Disaster" als casuïstiek benadrukt de gevaren van desinformatie en het belang van betrouwbare media voor het behoud van de democratie. Deze zorgen zijn actueler en relevanter voor studenten dan ooit. In een tijdperk van toenemend autoritair populisme, begeleidende acties tegen legitieme journalistieke verkooppunten en de roep om burgerlijke en raciale rechtvaardigheid, hebben burgers behoefte aan geloofwaardige informatie en een beter begrip van hoe ze met deze gefragmenteerde mediaomgeving moeten omgaan.

Hoewel initiatieven op het gebied van mediageletterdheid sterk variëren tussen middelbare scholen en hogescholen, richten ze zich meestal op een constellatie van interpretatieve praktijken, waardoor studenten de tools krijgen die nodig zijn om te onderzoeken hoe verschillende vormen van media worden gemaakt, gebruikt en geïnterpreteerd.

Onderwijsstof Ter Bewustwording Van Gemanipuleerde Media
PDF – 637,9 KB 446 downloads

Bron: cnet, moondisaster

Gerelateerde berichten

Deepfakes kunnen op termijn de samenleving ontwrichten

Deepfake-video's worden steeds populairder en daarmee neemt het gevaar voor misbruik toe. Onderzoekers van de Tilburg University onderzochten hoe het nieuwe kabinet dit kan tegengaan. Bart van der Sloot, privacy- en big data-expert en Associate Professor bij Tilburg University voorziet dat dat flink wat problemen gaat opleveren.

Lees meer »

Meer nieuws

Generatieve AI: De nieuwe uitdaging voor cyberveiligheid

In deze podcast bespreken we het artikel “Generatieve AI: De nieuwe uitdaging voor cyberveiligheid”, geschreven door de Algemene Inlichtingen- en Veiligheidsdienst (AIVD) en de Rijksinspectie Digitale Infrastructuur (RDI). Het artikel beschrijft de impact van generatieve AI op cybersecurity, waarbij wordt gesteld dat generatieve AI een “gamechanger” is, omdat het nieuwe en complexe cyberaanvallen mogelijk maakt. We introduceren het “AI Cybersecurity Kwadrant”, een model dat de risico’s en kansen van generatieve AI analyseert, met een focus op aanvallen met en tegen AI, en verdediging met en van AI. De auteurs benadrukken het belang van proactieve cybersecurity-strategieën om de snelle ontwikkelingen op het gebied van generatieve AI bij te houden.

Lees meer »

Hybride cyberaanvallen: de vervagende lijnen tussen staten en criminelen

In deze podcast bespreken we de toenemende samenwerking tussen cybercriminelen en overheden, waarbij ze hun middelen en technieken combineren om zowel financiële als geopolitieke doelen te bereiken. We benadrukken dat ransomware een ernstige bedreiging blijft, met name voor de gezondheidszorg, en dat het gebruik van kunstmatige intelligentie (AI) door zowel cybercriminelen als overheden aanvallen complexer en moeilijker te stoppen maakt. Daarnaast bespreken we het belang van samenwerking tussen de publieke en private sector om cyberdreigingen effectief te bestrijden. De noodzaak voor strengere internationale normen en sancties voor cyberaanvallen komt ook aan bod, evenals de rol van geavanceerde technologieën zoals AI en internationale samenwerkingen voor de toekomst van cyberbeveiliging.

Lees meer »

Nederland in de top 5 van meest getroffen landen door mobiele malware

In deze podcast waarschuwen we voor de groeiende dreiging van mobiele malware in Nederland, dat inmiddels tot de top 5 van meest getroffen landen behoort. We leggen uit waarom Nederland een aantrekkelijk doelwit is voor cybercriminelen, mede door de hoge technologische adoptie, economische welvaart en geavanceerde infrastructuur. Daarnaast bespreken we verschillende soorten mobiele malware die in Nederland worden waargenomen, zoals banking malware, spyware, ransomware, adware en phishing-apps. De impact op zowel individuen als bedrijven wordt uitgelicht, met de nadruk op financiële verliezen, identiteitsdiefstal en reputatieschade. We sluiten af met praktische tips om jezelf te beschermen tegen mobiele malware, zoals bewustwording, veilig downloaden, gebruik van beveiligingssoftware, regelmatige updates, sterke wachtwoorden, beperken van toestemmingen, bedrijfsbeleid, regelmatige back-ups en samenwerking met experts.

Lees meer »

Heeft u tips of verdachte activiteiten gezien online? Neem dan contact op met de politie. Telefonisch via het nummer 0900-8844 of online via het meld formulier. Uiteraard kunt u daarnaast ook tips melden bij Cybercrimeinfo.