Sadržaj:

2023 Autor: Mary Ward | [email protected]. Zadnja izmjena: 2023-05-21 20:21
Izložba u Muzeju pokretne slike bavi se uznemirujućim svijetom dezinformacija. Ovdje kokustos emisije objašnjava kako uočiti deepfake i zašto je medijska manipulacija u krizi
Tokom prvog sletanja na Mjesec 1969. godine, pripremljena su dva govora za predsjednika Nixona da se obrati naciji. Radna verzija – koja nikada nije emitovana na televiziji nakon što je misija prošla uspješno – napisana je u slučaju da Neil Armstrong i Buzz Aldrin ne stignu kući: “Sudbina je odredila da ljudi koji su otišli na Mjesec da istražuju u miru, ostanu na mjesecu da počivam u miru.”
Postoji mnogo ljudi koji vjeruju da astronauti nikada nisu stigli do Mjeseca, te da je slijetanje bila prevara, s teorijama zavjere koje zabavljaju internet tragače 30 godina. Ali, u pokušaju da dokaže koliko se mogu proizvesti realistične dezinformacije, MIT je kreirao alternativnu verziju izvještavanja o slijetanju na Mjesec, gdje duboko lažirani Nixon ozbiljno gleda u kameru, govoreći Amerikancima da "nema nade za njihov oporavak".
Ovaj kratki film nagrađen Emmyjem, In Event of Moon Disaster, u fokusu je nove izložbe u Muzeju pokretne slike u New Yorku: Deepfake: Nestabilni dokazi na ekranu. Rekreirajući dnevnu sobu iz kasnih 60-ih, zajedno sa biljkom švicarskog sira i retro tapetama, alternativna verzija istorije se emituje na kutijastom TV-u, omogućavajući gledaocima da razmotre uznemirujuću mogućnost da bi ih tako lako mogli lagati.
Sa mračnim potencijalima za prevaru, osvetničku pornografiju i lažno predstavljanje, nije iznenađenje da su deepfakes oslobodili osjećaj histerije u svijetu koji se još uvijek bori s novim tehnologijama. Pa kako možemo uočiti deepfake? Možemo li? "Postoje neki znakovi koji ukazuju na to: sjaj ili sjaj na obrazima i čelu, zajedno s nervoznim pokretima između glave i vrata", kaže Joshua Glick, ko-kustos izložbe, za Dazed. „Takođe i neke nijanse u njihovim očima koje se ne mešaju nužno, [i] disparitet između usana koje se pomeraju i reči koje izlaze iz usta pojedinca.”
Izložba vodi gledaoce kroz istoriju napredne veštačke inteligencije i kako je mašinsko učenje korišćeno za kreiranje obmanjujućih sadržaja. Glik objašnjava kako „ne želimo da ljudi misle da su dezinformacije i deepfakes potpuno novi“, navodeći istorijske primjere poput propagande iz špansko-američkog rata, tabloidne televizije iz 90-ih, počinitelja lažnih vijesti Geralda Rivere i sotonske panike 80-e koje se i danas infiltriraju u američku politiku.
Postoji, kaže Glick, kriza oko deepfakesa i širenja pogrešnih i dezinformacija. Tehnologija postaje sve naprednija, a deepfake pornografija i digitalno nasilje sve veći metod zlostavljanja. “Još nije bilo široko rasprostranjeno na izborima velikih razmjera, ali izložba želi da pripremi [ljude] i neguje pronicljivu zajednicu gledalaca,” kaže on. “Postoje praktični koraci koje možemo poduzeti kao pojedinci i stvari koje možemo učiniti kao društvo. Kompanije društvenih medija mogu učiniti više na suzbijanju širenja dezinformacija na svojim platformama, a politika također ima važnu ulogu.”

Ali, umjesto da paniči i bude privučen “uzbunjenim naslovima”, Glick naglašava da se deepfakes može koristiti iu nezlonamjerne, zabavne i sentimentalne svrhe. Avatari mrtvih su već tu – pogledajte kako Kanye koristi lik Roberta Kardashiana da ga proglasi 'najgenijalnijim čovjekom na cijelom svijetu' i holivudsko vaskrsavanje prošlih velikana poput Carrie Fisher, Marlona Branda i Audrey Hepburn (iako je sporno hoće li ljudi pronaći ova upotreba je moralno prihvatljiva – Glik kaže da po njegovom mišljenju mora postojati barem “pristanak iz imovine preminule osobe”).
Glick takođe želi da istakne da se deepfakes može koristiti za obrazovno i građansko dobro. Dobro došli u Čečeniju iz 2020., koji je prikazao krizu ljudskih prava LGBTQ+ zajednice u republici, koristio je tehnologiju za zaštitu identiteta potlačenih pojedinaca u filmu. On ukazuje na satiričnu seriju Sassy Justice kreatora South Parka, koja prikazuje Marka Zuckerberga kako entuzijastično reklamira dijalizu sniženih cijena: „Umješna upotreba ove tehnologije je u svrhu društvene kritike, da se podsmeva i razotkrije ličnosti na vlasti, otkrivajući kako oni manipulišu ljudima u svom poslu ili politici,” kaže Glik.
Umjesto da se fokusiramo na deepfakes kao razlog za zabrinutost, Glick kaže da moramo biti proaktivniji u pogledu načina na koji se borimo protiv obmanjujućih informacija – pominjući posljednjih nekoliko američkih izbora kao jedan primjer manipulacije masovnim medijima. “Dezinformacije niske kvalitete koje je lako napraviti i lako se distribuiraju bile su zaista efikasne, zar ne?” On kaže. “Nije nužno postojala potreba ili želja da se ide na razrađen nivo izrade i pakovanja deepfake-a i njihovog puštanja u medijski ekosistem, kada se čini da su mnogi drugi oblici pogrešnih informacija i dezinformacija mogli utjecati i utjecati glasači.”
Kako bi pomogao u obrazovanju nove generacije ljudi rođenih u hiper-digitalnom dobu, Glick je kreirao besplatni, otvoreni modul pod nazivom Medijska pismenost u doba dubokih fakesa, gdje korisnici mogu razviti svoje vještine kritičkog razmišljanja kada su u pitanju analizirajući deepfakes i bacajući kritičko oko na potencijalne izvore. „Na kraju, želimo da se gledaoci osjećaju pomalo uznemireno, ali i da se osjećaju osnaženim i spremnim da postoji nešto što mogu učiniti u borbi protiv šireg pejzaža mitova i dezinformacija.“