‘Het lot heeft bepaald dat de mannen die de maan in vrede gingen verkennen, nu op de maan in vrede zullen rusten’, zie je Richard Nixon vertellen over het eerste duo op de maan. En het lijken net echte historische beelden.
MIT en Mozilla willen dat mensen de verontrustende kracht van deepfake-video's beter begrijpen in een nieuw project genaamd 'In Event of Moon Disaster'
Kijk hoe president Richard Nixon heel slecht nieuws brengt over de Apollo 11-maanlanding in deze deepfake-video gemaakt door MIT.
Apollo 11 maanlanding
De maanlanding van Apollo 11 op 20 juli 1969 was een mijlpaal in de ruimtegeschiedenis. Maar wat als de astronauten stierven tijdens hun missie naar de maan en president Richard Nixon tragisch nieuws op tv moest brengen aan het Amerikaanse kijkerspubliek?
In deze verontrustend echte deepfake- video breekt president Nixon het nieuws dat NASA heeft gefaald en dat astronauten op de maan zijn gestorven. Deepfakes zijn video-vervalsingen waardoor mensen lijken te doen of dingen zeggen die ze niet zijn. Deepfake-software heeft gemanipuleerde video's toegankelijk gemaakt en steeds moeilijker te detecteren als nep.
'Het lot heeft bepaald dat de mannen die naar de maan zijn gegaan om in vrede te verkennen, op de maan zullen blijven om in vrede te rusten', zegt Nixon in de deepfake-video die verwijst naar astronauten Neil Armstrong, Buzz Aldrin en Michael Collins .
Het duurde een half jaar voordat de AI-experts van het Massachusetts Institute of Technology een zeer overtuigende 7 minuten durende deepfake-video maakten die feitelijk NASA-beeldmateriaal combineert met Nixon die een tragische toespraak hield , alsof Apollo 11 niet was geslaagd in zijn missie naar de maan.
Deep-learning
Kunstmatige intelligentie "deep-learning" -technologie werd gebruikt om Nixons stem- en gezichtsbewegingen overtuigend te maken. De contingentie toespraak (te vinden in het Nationaal Archief ) werd voorgelezen door een acteur.
MIT's Center for Advanced Virtuality creëerde zijn nieuwe project genaamd 'In Event of Moon Disaster' - dat op maandag werd gelanceerd - om mensen te laten zien welke gevaarlijke invloed deepfake-video's kunnen hebben op een nietsvermoedend publiek.
Dit is de eerste keer dat de Nixon Apollo 11 deepfake-video in zijn geheel aan het publiek wordt gepresenteerd na een fysieke kunstinstallatie op MIT in de herfst van 2019.
"In Event of Moon Disaster is een meeslepend kunstproject dat je uitnodigt in een alternatieve geschiedenis en ons allemaal vraagt om na te denken over hoe nieuwe technologieën de waarheid om ons heen kunnen buigen, omleiden en verdoezelen", aldus de website van het project. "Door deze alternatieve geschiedenis te creëren, onderzoekt het project de invloed en de alomtegenwoordigheid van verkeerde informatie en deepfake-technologieën in onze hedendaagse samenleving."
In Event of Moon Disaster wil mensen niet alleen deepfakes beter begrijpen, maar ook uitleggen hoe deepfakes worden gemaakt en hoe ze werken; hoe je een deepfake kunt herkennen ; hun potentieel gebruik en misbruik; en wat er wordt gedaan om deepfakes en desinformatie te bestrijden.
Dit project wordt ondersteund door een subsidie van Mozilla's Creative Media Awards , die voortbouwen op de missie van Mozilla om meer betrouwbare AI in consumententechnologie te realiseren.
Onderwijs en bewustwording
De video "In Event of Moon Disaster" als casuïstiek benadrukt de gevaren van desinformatie en het belang van betrouwbare media voor het behoud van de democratie. Deze zorgen zijn actueler en relevanter voor studenten dan ooit. In een tijdperk van toenemend autoritair populisme, begeleidende acties tegen legitieme journalistieke verkooppunten en de roep om burgerlijke en raciale rechtvaardigheid, hebben burgers behoefte aan geloofwaardige informatie en een beter begrip van hoe ze met deze gefragmenteerde mediaomgeving moeten omgaan.
Hoewel initiatieven op het gebied van mediageletterdheid sterk variëren tussen middelbare scholen en hogescholen, richten ze zich meestal op een constellatie van interpretatieve praktijken, waardoor studenten de tools krijgen die nodig zijn om te onderzoeken hoe verschillende vormen van media worden gemaakt, gebruikt en geïnterpreteerd.
Bron: cnet, moondisaster
Gerelateerde berichten
Waarom je je ogen niet kunt vertrouwen: De gevaren van deepfakes en hoe je jezelf kunt beschermen
Reading in 🇬🇧 or another language
Deepfakes kunnen op termijn de samenleving ontwrichten
Deepfake-video's worden steeds populairder en daarmee neemt het gevaar voor misbruik toe. Onderzoekers van de Tilburg University onderzochten hoe het nieuwe kabinet dit kan tegengaan. Bart van der Sloot, privacy- en big data-expert en Associate Professor bij Tilburg University voorziet dat dat flink wat problemen gaat opleveren.
Nieuwe evolutie ontdekt op het beruchte 'DeepNude'
Onderzoekers van 'Sensity' hebben een nieuw deepfake-ecosysteem ontdekt op het berichtenplatform Telegram.
Deepfake het nieuwe gevaar van desinformatie: 'Nixon' die NASA Apollo 11-ramp aankondigt
‘Het lot heeft bepaald dat de mannen die de maan in vrede gingen verkennen, nu op de maan in vrede zullen rusten’, zie je Richard Nixon vertellen over het eerste duo op de maan. En het lijken net echte historische beelden.
'Deepfake Ransomware' is één van de meest gevreesde toekomstige cyberdreigingen
'Deepfake Ransomware' is een aanval waarbij een cybercrimineel een selectie van een reeks afbeeldingen neemt die mensen online plaatsen, om ze om te zetten in beschamende of schandalige video’s.
Meer nieuws
AI gedreven ransomware, botnet exploits en gerichte aanvallen op organisaties zoals Proximus en UZ Gent
Reading in another language
Digitale stalking bestraft, kritieke updates na mobiele aanvallen, DDoS en nieuw afperscollectief
Reading in another language
EU locatiegegevens te koop, AI in nep sollicitaties, 92 kwetsbare DNS servers en RMM misbruik in transport
Reading in another language
Toegang tot Nederlands bedrijf verkocht op hackforum terwijl AI wordt ingezet voor digitale manipulatie
Reading in another language
NB390: Radiant cybercriminelen treffen Spijkermat (NL) Qilin valt Bagnoles (NL) aan en Avalon (B) wordt getroffen door Incransom
Reading in another language
Belgische zorginstelling geraakt door ransomware, malware steelt betaaldata en diplomaten onder vuur van cyberaanvallen
Reading in another language
Aanvallen op Bagnoles (NL) en gas- en waterbedrijven illustreren groeiende digitale kwetsbaarheid
Reading in another language
Spijkermat getroffen terwijl hackers via medewerkers, valse investeringsplatformen en nieuwe malware hun slag slaan
Reading in another language
Omrin gegevens op darkweb Herodotus malware misleidt detectie Wasp infostealer te koop en fatbike verkoopfraude neemt toe
Reading in another language
Riel / Breda / Haarlem - Bankhelpdeskfraude
Reading in another language
Broncode gestolen bij Irias, Microsoft WSUS kwetsbaar en Brigitte Macron doelwit van hackers
Reading in another language
Noord-Koreaanse hackers richten zich op Europese dronebedrijven kwetsbare Windows servers smishingdreiging en PVV AI beelden
Reading in another language
Heeft u tips of verdachte activiteiten gezien online? Neem dan contact op met de politie. Telefonisch via het nummer 0900-8844 of online via het meld formulier. Uiteraard kunt u daarnaast ook tips melden bij Cybercrimeinfo.