srpski english

Edukacija / Veštačka inteligencija - novi alat za širenje dezinformacija

Ove godine počela je nova era dezinformisanja u kojoj je tehnološki napredak uveo drugačiju dinamiku u proizvodnju i širenje lažnog i namerno i nenamerno obmanjujućeg sadržaja – korišćenjem veštačke inteligencije. Moćna tehnologija sposobna je da proizvodi sadržaj u različitim formatima – tekstualnim, audio ili vizuelnim.

Veštačka inteligencija - novi alat za širenje dezinformacija
Foto: Pixabay

Edukacija / Veštačka inteligencija - novi alat za širenje dezinformacija

Ove godine počela je nova era dezinformisanja u kojoj je tehnološki napredak uveo drugačiju dinamiku u proizvodnju i širenje lažnog i namerno i nenamerno obmanjujućeg sadržaja – korišćenjem veštačke inteligencije. Moćna tehnologija sposobna je da proizvodi sadržaj u različitim formatima – tekstualnim, audio ili vizuelnim.

autor teksta
Tamara Bajčić | Demostat | Beograd 15. Apr 2023 | Edukacija

U prethodnom tekstu pisali smo o primerima dezinformisanja i lažnih vesti koje su proizvedene uz pomoć veštačke inteligencije – među kojima su lažne fotografije pape u beloj Balenciaga jakni i bivšeg predsednika SAD Donalda Trampa koji je navodno uhapšen i sproveden u zatvor. 

U ovom tekstu osvrnućemo se na to na koji će način na širenje dezinformacija uticati tekstualni izraz kao proizvod generativnih AI alata, a na koji način vizuelni izraz.

Tekstualni izraz

Generativni AI alati sa prvenstveno tekstualnim izlazima, kao što je Open AI Chat GPT ili slični programi i alati koji su poznati kao takozvani ,,modeli velikih jezika’’ (Large Language Models – LLM),  imaju mnogo potencijalnih rizika za proizvodnju i širenje pogrešnih vesti i dezinformacija. 

Tu čak ostavljamo po strani probleme koji nemaju striktno veze sa kvalitetom informacija, kao što je, na primer, zabrinutost za privatnost, zbog čega je italijanska agencija za zaštitu podataka 31. marta ove godine zabranila upotrebu ChatGPT-a u toj zemlji. 

Dakle, pre svega, AI alati sa tekstualnim izrazima su skloni onome što je poznato kao „halucinacije“, odnosno činjeničnim greškama u informacijama koje se daju korisniku. 

Javne prezentacije LLM-a od strane tehnoloških giganata kao što su Microsoft i Google bile su ophrvane greškama, uključujući i promotivne video snimke. 

Stručnjaci upozoravaju da takve greške nisu obične greške sistema, već neizbežni ishodi tehnologije u njenom trenutnom stanju. 

Naime, tehnologija je odlična u predviđanju sledeće reči u rečenici, ali nema pojma šta rečenica zapravo znači. 

Ukratko, način na koji su dizajnirani i njihovo trenutno stanje razvoja čine LLM dobrim alatom u nekim stvarima, kao što je pisanje koda, i lošim u mnogim drugim, među kojima su igranje slagalica ili  pružanje tačnih informacija.

Takođe, tu je i pitanje obima. 

LLM su napravljeni da proizvode i tekstove o teorijama zavere ili urbanim mitovima, a mnogi analitičari su istakli rizik od izazivanja „pomame za lažnim vestima“. 

Važno je istaći da je OpenAI prepoznao moguću zloupotrebu svoje tehnologije za kampanje dezinformacija i pokušao da predvidi budući razvoj u analizi koja je razvijena sa nezavisnim istraživačima, a u kojoj se bave „potencijalnim pretnjama i rešenjima“.

Ipak, aspekt koji najviše zabrinjava kad je reč o chat botovima koji koriste LLM proizilazi iz direktnog pristupa koji daje korisnicima personalizovan, ljudski, konverzacijski način predstavljanja sadržaja. 

U poređenju sa tradicionalnim pretraživačima, alati kao što je ChatGPT pružaju jedinstven odgovor koji se lako može protumačiti kao najbolji ili najtačniji rezultat njihove pretrage informacija na mreži. 

Korisnici – posebno kada nisu na odgovarajući način informisani o tehnologiji, njenim prednostima i slabostima, kao i o tome šta je trenutno sposobna da uradi – mogli bi biti prevareni da se više oslanjaju na rezultate koje pruža konverzacijski chatbot nego drugi, otvoreniji alati za traženje informacija, što im otežava da pravilno procene verodostojnost rezultata i na kraju da ispolje svoje kritičko razmišljanje.

Da stvari budu još gore, korisnici pristupaju LLM-ovima bez posredovanja: dok preko tradicionalnih pretraživača pristupaju listi rezultata koji su proizvedeni i objavljeni na drugom mestu, u izvesnom smislu skenirajući ono što je već tamo, preko čet robota mogu direktno da pristupe „novim“ informacijama, koje proizvodi LLM kao odgovor na njihov konkretan upit.

Ovaj neposredan pristup čini te informacije praktično nemogućim za proveru činjenica. 

Naime, LLM proizvodi lažne ili obmanjujuće rezultate i dostavlja ih direktno korisnicima, dok su do sada dezinformacije morale biti objavljene negde – bilo da je to veb stranica, nalog na društvenim mrežama, podkast – da bi bile dostupne drugim korisnicima.

Zato su potrebne informativne kampanje za javnost kako bi se jasno razjasnile granice alata, kao i njegovi rizici.

Kad je reč o potencijalnoj upotrebi generativne veštačke inteligencije za proveru činjenica, istraživači sa Univerziteta u Cirihu otkrili su da je ChatGPT u 72 odsto slučajeva bio u stanju da precizno kategorizuje proverene izjave kao tačne ili netačne. 

Vizuelni izraz 

Problem sa vizuelnim dezinformacijama koje generiše AI je u velikoj meri drugačiji. 

U trenutnoj fazi, korisnik je taj koji uvek mora da pruži upit sistemu da bi dobio sliku. 

U ovom slučaju, za razliku od tekstualnih izlaza, nije moguće da korisnik ispituje mašinu, a da ne zna da je rezultat drugačiji od realnosti.  

Dezinformacije se ovde mogu proizvesti samo namerno.

Generisana slika od strane vebsajta koji koristi veštačku inteligenciju

Ovo je u izvesnom smislu jednostavna evolucija: do sada, dezinformacije su se proizvodile  jednostavnim predstavljanjem starih slika i video zapisa, koje su pogrešno prikazane i dekontekstualizovane kako bi prikazale trenutne događaje. 

Grube manipulacije, ali češće samo fotografije van konteksta, ipak su mogle da imaju značajan uticaj na javnost. 

Međutim, količina sadržaja koju generativna veštačka inteligencija može da pruži onome ko proizvodi ovu vrstu dezinformacija je potencijalno beskrajna.

Pored problema kvantiteta, postoji i problem kvaliteta. 

Kako tehnologija postaje sve naprednija, moguće je predvideti da će u budućnosti rezultati fotografija urađenih uz pomoć veštačke inteligencije biti nerazlučivi od stvarnih slika za neobučenog, ali čak i stručnog korisnika. 

Zbog toga je ključno da osobe koje se bave proverom činjenica, kao i obični korisnici, dobiju tehnološke alate koji mogu da otkriju slike i video zapise generisane veštačkom inteligencijom. 

Mogla bi se istražiti i druga rešenja, kao što je obavezan vodeni žig na vizuelnom sadržaju generisanom veštačkom inteligencijom ili drugi tehnički markeri. 

Tehnologija se stalno razvija i sa njom će se pojaviti novi izazovi, kao i mogućnosti.

Iz perspektive dezinformacija, alatke nalik chatbotovima zasnovane na generativnoj veštačkoj inteligenciji daju korisnicima neposredan pristup rezultatima koji nisu nužno pouzdani ili tačni; vizuelni rezultati generativnih AI alata daju zlonamernim akterima neviđenu sposobnost da proizvode realistične slike i video zapise.

Potrebno je više istraživanja da bi se bolje razumelo kako pravilno proceniti rizike koje predstavlja veštačka inteligencija i kako se sa njima uhvatiti u koštac. 

Na početku nove ere dezinformacija ključno je da medijski profesionalci, osobe koje se bave proveravanjem činjenica, programeri i obični korisnici ujedinili snage kako bi se osiguralo da se ova tehnologija, sa svojim brojnim uzbudljivim aspektima i svojim inovativnim potencijalom, koristi na obogaćujući, etički i odgovoran način.

Komentari

Poštovani pre kontaktiranja najljubaznije vas molimo da se upoznate sa našom politikom o privatnosti.

Edukacija
Izbori za Evropski parlament - ko se sve takmiči
Izbori za Evropski parlament - ko se sve takmiči

Evropska unija je politički i privredni savez od  27 država članica...

Zapadni Balkan ranjiv na dezinformacije, potrebna pomoć EU
Zapadni Balkan ranjiv na dezinformacije, potrebna pomoć EU

Demokratije bi trebalo da počivaju na istinitim informacijama, a ukoliko inform...

Rat na Bliskom istoku ponovo aktivirao rusku kampanju dezinformisanja "Dvojnik"
Rat na Bliskom istoku ponovo aktivirao rusku kampanju dezinformisanja "Dvojnik"

Ruske kampanje dezinformacija preko klonova autentičnih medija nisu novost od k...

Dipfejk sadržaj dodatno podstiče spiralu nasilja u ratu između Izraela i Hamasa
Dipfejk sadržaj dodatno podstiče spiralu nasilja u ratu između Izraela i Hamasa

Slika krvavog leša. Fotografija bebe koja plače, uređena tako da izgled...

Rat u Gazi: Cenzura i raspirivanje mržnje i rasizma preko društvenih mreža
Rat u Gazi: Cenzura i raspirivanje mržnje i rasizma preko društvenih mreža

Amnesti internešenal je otkrila alarmantan porast zagovaranja mržnje koja pred...

demostav
NAJČITANIJE
Ko koliko zarađuje u Evropi
Ko koliko zarađuje u Evropi

Plate  zaposlenih u  Srbiji među najnižima u regionu i Evropi Prose...

NATO od Srbije udaljen tri godine
NATO od Srbije udaljen tri godine

  U svakom društvu, postoje teme koje se radije preskaču. Određen...

Albanija: Izbori na najvećoj evropskoj plantaži marihuane
Albanija: Izbori na najvećoj evropskoj plantaži marihuane

Na ulice Tirane je 13. maja izašlo više desetina hiljada ljudi koj...

Predsednik Demokrata Crne Gore ekskluzivno za Demostat
Predsednik Demokrata Crne Gore ekskluzivno za Demostat

  U junskom istraživanju crnogorskog Centra za demokratiju i ljudska pr...

Izgradnja autoputa Pakovraće - Požega do kraja godine pod znakom pitanja
Izgradnja autoputa Pakovraće - Požega do kraja godine pod znakom pitanja

* Pomeranje zadatih rokova za završetak deonice Preljina - Požega je u...

2024. Sva prava zadržana.
Zabranjeno je svako kopiranje sadržaja sajta.

UŽIVO
Ovaj sajt koristi "kolačiće" kako bi se obezbedilo bolje korisničko iskustvo. Ako želite da blokirate "kolačiće", molimo podesite svoj pretraživač.
Više informacija možete naći na našoj stranici Politika privatnosti