Edukacija / Dipfejk sadržaj dodatno podstiče spiralu nasilja u ratu između Izraela i Hamasa

Definišući internet kao „neverovatan fond resursa“ po vizuelnim slikama i video zapisima koje ovaj prostor sadrži, u isto vreme on ne može a da ne prođe nezapaženo u očima svetske javnosti i zloupotrebe ovih resursa posebno kada su  u pitanju najnovija dešavanja u ratu između Izraela i Hamasa.

Dipfejk sadržaj dodatno podstiče spiralu nasilja u ratu između Izraela i Hamasa
Foto: Ohad Zwigenberg/BETA/AP

Edukacija / Dipfejk sadržaj dodatno podstiče spiralu nasilja u ratu između Izraela i Hamasa

Definišući internet kao „neverovatan fond resursa“ po vizuelnim slikama i video zapisima koje ovaj prostor sadrži, u isto vreme on ne može a da ne prođe nezapaženo u očima svetske javnosti i zloupotrebe ovih resursa posebno kada su  u pitanju najnovija dešavanja u ratu između Izraela i Hamasa.

autor teksta
Dejan Srbinovski | Demostat | Beograd 5. Nov 2023 | Edukacija

Slika krvavog leša. Fotografija bebe koja plače, uređena tako da izgleda kao da leži u ruševinama. Snimak onoga što na prvi pogled izgleda kao čitavo naselje sravnjeno sa zemljom u Gazi. Ovo su samo deo tzv. dipfejk video snimaka i fotografija koji kruže internetom i na  društvenim mrežama i za koje nema sumnje da su korišćeni od obe strane u sukobu sve sa ciljem da  bi manipulisale „ istinom “ o dešavanjima na jednoj ili drugoj strani u sukobu.

O ovom problemu u svojoj analizi piše i magazin Blumberg , koji navodi da većina lažnih fotografija koje su se pojavile na platformama, uključujući H i Fejsbuk, nakon što je Hamas napao Izrael pre nekoliko nedelja, ima za cilj da emotivno uznemiri gledaoca ili publiku.

Prema Henriju Ajderu, stručnjaku za „dipfejk“ sadržaji i materijali generisani veštačkom inteligencijom, kreatori ovih sadržaja imaju nameru  da sadržaj učine veoma emotivnim i senzacionalnim kako bi izazvali trenutne emocionalne reakcije, kao što su slike povređene bebe ili uništenih zgrada koje kruže internetom u proteklom periodu, kaže on.

S druge strane, stručnjak za ovo pitanje, Ajder dalje objašnjava da lažni digitalno kreirani video snimci i sadržaji prikazuju slike koje su odmah prepoznatljive kao lažne, i vi ne morate da slušate ili da budete stručnjak za ovo pitanje da biste to uočili.

Na primer , jedna slika  na H – identifikovana kao lažna pomoću alatke za otkrivanje dipfejka, koju je napravio profesor sa Univerziteta u Kaliforniji, Berkli – navodno prikazuje dvoje dece kako se grle u ruševinama, dok mlada devojka stoji iza njih umotana u palestinsku zastavu .

Takve vrste lažnih fotografija iznenadile su Ajdera i druge stručnjake, koji su navikli da gledaju ovakave sadržaje koji se koristi u propagandi od strane visokih zvaničnika koji daju izjave koje nikada nisu dali, kao što je bio slučaj sa američkom politikom i ratom u Ukrajini.

Kako je pravljenje “dipfejk” video snimaka postalo tako lako i zašto je to bezbednosni izazov

Nekada grub i lak za otkrivanje, „dipfejk“ je  postao znatno realističniji i lakši za pravljenje sa pojavom generativnih alata za VI. Ali u vreme kada su lažne tvrdnje na društvenim mrežama postale norma u političkim kampanjama, ratovima i drugim velikim događajima, sa povećanjem njihovog broja dolazi do problema da ih je teško otkriti, preteći i otežavajući publici da formira mišljenje zasnovano na stvarnim činjenice .

U jednom nedavnom primeru, startup pod nazivom Optic  označio je sliku koju je podelila izraelska vlada kao lažnu koja prikazuje zapaljene ostatke bebe, što je dovelo do široko rasprostranjenog onlajn skepticizma u pogledu autentičnosti fotografije. Međutim, Hani Farid, profesorka na američkom univerzitetu Berkli, tvrdi da je slika stvarna.

„Uticaj generativne veštačke inteligencije prevazilazi samo stvaranje lažnog sadržaja, on takođe baca tamnu senku na to koji sadržaj je istinit, a koji nije“, kaže Farid.

Endi Karvin, viši saradnik u Istraživačkoj laboratoriji za digitalnu forenziku Atlantskog saveta, tvrdi da nije neobično otići na Fejsbuk i H komentare i, pod stvarnim slikama i videti ljude koji osporavaju njihovu autentičnost ili kontekst.

„Drugi će samo reći „dipfejk!“ i to je to. Kraj razgovora", rekao je on.

Tehnologija koju je kreirao Berklijev Farid otkrila je duboke falsifikate na H mreži na brojnim slikama dece usred oštećenih zgrada. On kaže da je teško kvantifikovati koliko takvih fotografija i video snimaka kruži, ali svakodnevno dobija zahteve da utvrdi da li je slika stvarna ili ne.

„Bilo ih je mnogo toga“, rekao je. "Ovo pitanje manje vidim kao problem obima, a više kao problem laži u informacijama."

Društveni mediji su omogućili da laž procveta

U međuvremenu, svetski mediji ukazuju na poslednji najkarakterističniji primer eksplozije u bolnici „Al Ahli” u gradu Gazi 17. oktobra kao na povod za rat za istinu i odgovor na pitanje šta se tačno desilo?

Primetno je da su mase na društvenim medijima, kao i mnoge u mejnstrim medijima, uključujući “Njujork tajms”, odmah skočile na Hamasovu tvrdnju da je za to kriv izraelski projektil. Do kraja sledećeg dana su se povukli. Prošlonedeljna analiza "D Post-a” identifikovala je niz raketa koje su borci Gaze ispalili na bolnicu 44 sekunde pre eksplozije. I dok analiza “Njujork tajmsa” osporava ključne dokaze za ovo gledište, nijedna istraga ne locira krivicu za izraelski napad.

Možete reći da je ovo još jedan momenat kada su onlajn platforme dozvolile da laž procveta – i bili biste u pravu. Ipak, lako je razumeti zašto su oni na terenu okrivili izraelski napad za početak.

Na primer, ovog meseca Izrael je lansirao više od 7.000 raketa u Gazu. Tri dana pre misteriozne eksplozije, izraelska artiljerijska granata je pogodila bolnicu – ali je to bila rasvetna granata koja je napravila samo malu štetu. Takođe, 22 bolnice u kojima se leči više od 2.000 pacijenata upozorene su da se evakuišu upravo zato što se mogu naći na liniji vatre. Oni koji žive pod opsadom gledaju svoje domove uništene projektilima ili njihove najmilije ubijene projektilima. Nije ni čudo kada čuju za još pokolja, misle da je jedan od tih projektila odgovoran.

Viralna priča sa druge strane stvari nudi odgovarajuću lekciju: apokrifne obezglavljene bebe u kibucu Kfar Azza. Predsednik Bajden je bio samo najistaknutiji od mnogih političkih i društvenih lidera koji je ponovio rikošetnu tvrdnju da su Hamasovi teroristi obezglavljivali bebe – samo da bi se njegovi pomoćnici povukli nakon detaljnijeg ispitivanja otkrili da, barem koliko je bilo ko mogao da dokaže, da teroristi nisu obezglavljivali novorođenčad, na kraju krajeva. Ipak su odsecali glave muškarcima i ženama. I ubijali su bebe. Pomahnitala rasprava o tome da li su Hamas oklevetali oni koji ga optužuju da odseca glave bebama kada samo puca u te bebe, čita se skoro kao nadrealizam. Da, tvrdnja je bila, tehnički, lažna. Ali da li je bila i emocionalno lažna? Šta je sa moralom, pita  “Vašington Post”.

Šta je dipfejk i da li je pretnja čovečanstvu?

„Dipfejk“ (Deepfake) je nova verzija „Fejk njuz-a“ (Fake News)  ili lažnih vesti. Makmilanov rečnik definiše termin „dipfejk“ kao audio i video snimak neke osobe, manipulisan da izgleda i zvuči kao stvarna osoba, koja govori nešto što ta osoba nikada nije rekla. Izraz "dipfejk" je izveden iz kombinacije dve reči,  (deep) duboko i (fake)  lažno.

Ako se poslednjih godina mnogo govori o lažnim vestima, o opasnostima koje iz njih proizilaze i kako da se od njih zaštitimo, poslednjih meseci fokus se sve više pomera na „dipfejk“ – duboku laž, duboku izmišljotinu, duboku obmanu. „Dipfejk“ kao lažni sadržaj nije samo tekstualni, već prelazi i na lažni vizuelni sadržaj.

„Fejk njuz“ 2.0 ili „dipfejk“ je tehnologija zasnovana na veštačkoj inteligenciji koja se koristi za proizvodnju ili modifikovanje video sadržaja kako bi se predstavilo nešto što se zapravo nije dogodilo. Koristeći različite softvere, lažne slike i video snimci se mogu kombinovati ili preklapati preko postojećih slika ili video zapisa.

Tehnologija izrade lažnog videa pokazuje da u današnje vreme, više nego ikad, moramo biti izuzetno oprezni u šta verujemo, pa čak i kada nešto vidimo, ne smemo da verujemo a priori.

Istraživači medijske etike Filip Paterson i Li Vilkins, pozivajući se na tradicionalne medije, kažu da „viđeno ne znači da je i stvarno“. Ali od 2009. godine, kada su objavili knjigu „Etika u medijima: problemi i slučajevi“, problem u društvu se već višestruko povećao, jer osim tradicionalnih medija, od kojih tek treba biti oprezan, sada  glavna opasnost od  prevara postoji u svetu interneta.

Kreatori “dipfejka” koriste različite tehnike, uključujući zamenu lica, nametanje izraza lica na lice druge osobe ili sinhronizaciju usana.

U SAD-u, mejnstrim mediji su već počeli da obučavaju novinare kako da uoče „dipfejk“. Jedan od načina da se otkrije da je video „dipfejk“ jeste da kontrolišete ove video snimke pomoću softvera za uređivanje videa. Pregledom vizuelnog prikaza za svaki kadar, može se primetiti neprirodno osvetljenje ili pokret, razlike u boji kože ili bilo kakvi znaci u blizini usta.

Obuka novinara je veoma važna, ali misija nije ispunjena ako se publika ne informiše o ovom fenomenu. Ovi trendovi čine medijsku pismenost važnijom nego ikad i potrebu da ona bude obavezan deo nastavnih planova i programa širom regiona.

Izvor: https://www.slobodenpecat.mk/dipfejk-sodrzhinite-dopolnitelno-ja-pottiknuvaat-spiralata-na-nasilstvo-vo-vojnata-megju-izrael-i-hamas/

Komentari

Poštovani pre kontaktiranja najljubaznije vas molimo da se upoznate sa našom politikom o privatnosti.

Edukacija
Medijski stubovi demokratije: Serijal o evropskim javnim servisima
Medijski stubovi demokratije: Serijal o evropskim javnim servisima

U većini evropskih zemalja postoji jedan ili više javnih servisa, koji s...

Da li Ukrajina zaista koristi hemijsko oružje protiv ruske vojske?
Da li Ukrajina zaista koristi hemijsko oružje protiv ruske vojske?

Najnovije takve tvrde pojavile se povodom dešavanja u Kurskoj oblasti, pa...

Telegram - efikasno rusko propagandno sredstvo
Telegram - efikasno rusko propagandno sredstvo

Telegram je postao jedan od glavnih alata za širenje prokremaljskih dezin...

Pet AI alata za pomoć novinarima
Pet AI alata za pomoć novinarima

Iako snažan razvoj veštačke inteligencije može da izazove mnoge prob...

Šta rade evropski komesari
Šta rade evropski komesari

Evropska komisija je zamišljena kao organ koje ima nadnacionalni karakter...

demostav
NAJČITANIJE
Ko koliko zarađuje u Evropi
Ko koliko zarađuje u Evropi

Plate  zaposlenih u  Srbiji među najnižima u regionu i Evropi Prose...

NATO od Srbije udaljen tri godine
NATO od Srbije udaljen tri godine

  U svakom društvu, postoje teme koje se radije preskaču. Određen...

Albanija: Izbori na najvećoj evropskoj plantaži marihuane
Albanija: Izbori na najvećoj evropskoj plantaži marihuane

Na ulice Tirane je 13. maja izašlo više desetina hiljada ljudi koj...

Gde u Evropi ima litijuma i zašto se ne eksploatiše?
Gde u Evropi ima litijuma i zašto se ne eksploatiše?

Cilj EU je jasan – neophodno je smanjiti zavisnost Evrope od Kine kada je ...

Predsednik Demokrata Crne Gore ekskluzivno za Demostat
Predsednik Demokrata Crne Gore ekskluzivno za Demostat

  U junskom istraživanju crnogorskog Centra za demokratiju i ljudska pr...

2024. Sva prava zadržana.
Zabranjeno je svako kopiranje sadržaja sajta.

UŽIVO
Ovaj sajt koristi "kolačiće" kako bi se obezbedilo bolje korisničko iskustvo. Ako želite da blokirate "kolačiće", molimo podesite svoj pretraživač.
Više informacija možete naći na našoj stranici Politika privatnosti