Edukacija / Tanka je linija između dezinformacija i automatski generisanog teksta

Nova studija je potvrdila da je Čat-GPT- 3 , novi virtuelni sagovornik sa veštačkom inteligencijom, sposoban da širi onlajn dezinformacije brže i ubedljivije od ljudi. Ovakve situacije sada, više nego ikada ranije, otvaraju pitanje koliko je efikasna kontrola nad  informacijama i da li postoje državni mehanizmi kao alati za rešavanje problematičnih situacija?

Tanka je linija između dezinformacija i automatski generisanog teksta
Foto: Mojahid Mottakin/Pexels

Edukacija / Tanka je linija između dezinformacija i automatski generisanog teksta

Nova studija je potvrdila da je Čat-GPT- 3 , novi virtuelni sagovornik sa veštačkom inteligencijom, sposoban da širi onlajn dezinformacije brže i ubedljivije od ljudi. Ovakve situacije sada, više nego ikada ranije, otvaraju pitanje koliko je efikasna kontrola nad  informacijama i da li postoje državni mehanizmi kao alati za rešavanje problematičnih situacija?

autor teksta
Dejan Srbinovski | Demostat | Beograd 3. Sep 2023 | Edukacija

Istraživanje, koji je nedavno objavljeno u recenziranom časopisu Science Advances, imalo je za cilj da identifikuje neke od glavnih pretnji koje napredni generatori teksta predstavljaju u digitalnom svetu, posebno u kontekstu dezinformacija i lažnih vesti na društvenim medijima.

„Naša istraživačka grupa je posvećena razumevanju uticaja naučnih dezinformacija i obezbeđivanju bezbednog angažovanja pojedinaca sa informacijama“, rekao je za Psypost autor studije Federiko Germani, istraživač na Institutu za biomedicinsku etiku i istoriju medicine.

Prema rečima autora studije, glavni cilj je ublažavanje rizika povezanih sa lažnim informacijama o individualnom i javom  zdravlju. 

„Pojava modela sa veštačkom inteligencijom kao što je GPT-3 podstakla je naše interesovanje za istraživanje kako veštačka inteligencija utiče na informacioni pejzaž i kako ljudi percipiraju informacije i dezinformacije i komuniciraju sa njima“, rekao je Germani.

GPT-3 je skraćenica od Generative Pre-trained Transformer 3, to je treća verzija programa koju je objavio OpenAI, a prvi model je izašao 2018 . Među bezbroj drugih veština obrade jezika, program je u stanju da oponaša stil pisanja onlajn razgovora, objašnjava studija.

Koja su područja najsklona lažima?

Istraživači su istražili 11 tema za koje su smatrali da su podložne dezinformacijama – uključujući klimatske promene, Kovid -19, bezbednost vakcina i 5G tehnologiju. Da bi to uradili, autori studije su prikupili tvitove generisane veštačkom inteligencijom, koji se sastoje od lažnih i istinitih informacija, zajedno sa primerima stvarnih tvitova koji se odnose na iste teme.

Foto: Christoph Scholz/Fickr

Prema studiji, istraživači su zatim koristili ekspertsku analizu da bi utvrdili da li tvitovi generisani od strane  veštačke inteligencije ili ljudi sadrže dezinformacije i uspostavili podskup tvitova za svaku kategoriju na osnovu procena.

Istraživači su zatim sproveli anketu koristeći tvitove – od ispitanika je zatraženo da utvrde da li zamagljivanja  sadrže tačne informacije ili ne i da li ih je napisala ljudska ili veštačka inteligencija. Eksperiment je pokazao da su ispitanici bolje mogli da otkriju dezinformacije u "organski lažnim tvitovima" - što znači tvitovima koje su napisali ljudi, ali koji i dalje sadrže lažne informacije - nego u netačnim izjavama "sintetički lažnih " tvitova, koje je napisao GPT-3.

Studija dalje navodi da su ispitanici takođe bili manje sposobni da otkriju lažne informacije od  strane veštačke inteligencije nego od ljudi.

„Učesnici su prepoznali organske lažne tvitove sa najvećom efikasnošću, bolje od sintetičkih lažnih tvitova. Slično tome, veća je verovatnoća da će ispravno prepoznati sintetičke istinite tvitove nego organske istinite  tvitove, objašnjava studija.

Istraživanje ,takođe,  potvrđuje da je ljudima teže da  procene tačne izjave u poređenju sa dezinformacijama, i da tekst koji generiše GPT-3 „ne samo da je efikasniji u informisanju i dezinformisanju ljudi, već to čini efikasnije, za kraće vreme."

Da li veštačka inteligencija potiskuje novinarsku profesiju?

Stojančo Tudžarski , šef tima za nauku o podacima u Inovejšn DOOEL, u izjavi domaćim medijima na ovu temu kaže da su automatski generatori teksta Četdžipiti i napredniji Džipiti-4 u stanju da kreiraju bilo koji tekst koji se ne može prepoznati da li je napisan od strane čoveka ili mašine, između ostalog i zbog toga što sa sadašnjim stepenom razvoja veštačke inteligencije, mašine su u stanju da izuzetno uspešno imitiraju ljudske pisane tekstove.

– To novinarsku profesiju stavlja u ne baš zavidnu poziciju. Svako, uz pomoć pravilno tempiranih upita, može dobiti prosečan tekst o bilo kojoj temi, uključujući i novinske članke. Dakle, suočeni smo sa realnom mogućnošću hiperprodukcije tekstova, u proseku, istog kvaliteta kao što su do sada pisali novinari, kaže Tudžarski.

Tudžarski naglašava da je linija između dezinformacija i automatski generisanog teksta tanka i da se dezinformacije ne mogu dovesti u korelaciju sa veštačkom inteligencijom.

– Ljudi su ti koji stvaraju dezinformacije, sa ili bez VI/Čatdžipiti-a. Po mom mišljenju, pravi izazov za novinare, da bi ostali relevantni kao profesionalci, jeste kako biti bolji od Čatdžipitija. A, po definiciji, mogu samo ako unesu stvarnu kreativnost u svoje pisanje jer tekstovi koje je napravio Četdžipiti su , u matematičkom smislu, ništa drugo do tekstovi koje bi napisalo prosečno ljudsko biće, uzimajući u obzir sve ljudske tekstove kojima je obučen  Četdžipiti .  Ili, prema rečima Noama Čomskog, „Čatdžipiti nije ništa drugo do veoma sofisticirana mašina za stvaranje masovnog plagijata, i ako neko danas zna o čemu govori na ovu temu, to je on“, kaže Tudžarski.

Razvoj veštačke inteligencije i njen uticaj na lažne vesti:

Uspon veštačke inteligencije je napravio  revoluciju u  različitim industrijama, uključujući medije i širenje informacija. Nažalost, ova tehnologija je takođe korišćena za manipulaciju informacijama i ovekovečenje lažnih vesti. Alati vođeni veštačkom inteligencijom sada mogu da generišu članke, slike i video zapise realnog zvuka koji se gotovo ne razlikuju od stvarnog sadržaja. Ovo omogućava zlonamernim akterima da kreiraju ubedljive narative koji su u stanju da zavaraju čak i pronicljive potrošače digitalnih medija.

Primeri alata za manipulaciju:

Deepfakes: Deepfake tehnologija sa veštačkom inteligencijom može da manipuliše video zapisima tako što stavlja lice jedne osobe na telo druge, efektivno stvarajući stvarni, ali potpuno izmišljeni sadržaj.

Generatori teksta: Generatori teksta vođeni veštačkom inteligencijom mogu da proizvedu koherentne i kontekstualno relevantne članke, gde čak ni novinari na prvo čitanje ne mogu da razlikuju stvarne i lažne vesti.

Uređivanje slika: Napredni alati za uređivanje slika zasnovani na veštačkoj inteligenciji mogu da izmene vizuelni prikaz do te mere da bi čak i stručnjaci mogli da se bore da uoče da li  je munipulisano slikom .

Borba protiv lažnih vesti i alati za verifikaciju:

Kako pretnja od lažnih vesti i dalje raste, pojavili su se različiti alati i tehnologije kako bi se suprotstavili njihovom  uticaju i potvrdili autentičnost digitalnih medija: 

Veb - stranice za proveru činjenica: Platforme kao što su Snopes, FactCheck.org i PolitiFact su posvećene proveravanju i razotkrivanju lažnih informacija, ali mnoge od ovih alatki zasnovanih na vebu su fokusirane na američko tržište.

Obrnuta pretraga slika i video zapisa: Alati kao što su Google Reverse Image Search i  InVID mogu pomoći korisnicima da identifikuju poreklo slika i video zapisa, pomažući da se otkrije izmanipulisani sadržaj. Edukacija o medijskoj pismenosti: Promovisanje medijske pismenosti i veština kritičkog razmišljanja pomaže pojedincima da postanu pronicljiviji potrošači informacija, čineći ih manje podložnim lažnim vestima.

Izvor: https://www.slobodenpecat.mk/tenka-e-linijata-pomegju-dezinformacija-i-avtomatski-generiran-tekst/

Komentari

Poštovani pre kontaktiranja najljubaznije vas molimo da se upoznate sa našom politikom o privatnosti.

Edukacija
Da li Ukrajina zaista koristi hemijsko oružje protiv ruske vojske?
Da li Ukrajina zaista koristi hemijsko oružje protiv ruske vojske?

Najnovije takve tvrde pojavile se povodom dešavanja u Kurskoj oblasti, pa...

Telegram - efikasno rusko propagandno sredstvo
Telegram - efikasno rusko propagandno sredstvo

Telegram je postao jedan od glavnih alata za širenje prokremaljskih dezin...

Pet AI alata za pomoć novinarima
Pet AI alata za pomoć novinarima

Iako snažan razvoj veštačke inteligencije može da izazove mnoge prob...

Šta rade evropski komesari
Šta rade evropski komesari

Evropska komisija je zamišljena kao organ koje ima nadnacionalni karakter...

Koji su izazovi za medije u doba uspona AI
Koji su izazovi za medije u doba uspona AI

Novinari, civilno društvo i istraživači imaju mnoge zamerke na generati...

demostav
NAJČITANIJE
Ko koliko zarađuje u Evropi
Ko koliko zarađuje u Evropi

Plate  zaposlenih u  Srbiji među najnižima u regionu i Evropi Prose...

NATO od Srbije udaljen tri godine
NATO od Srbije udaljen tri godine

  U svakom društvu, postoje teme koje se radije preskaču. Određen...

Albanija: Izbori na najvećoj evropskoj plantaži marihuane
Albanija: Izbori na najvećoj evropskoj plantaži marihuane

Na ulice Tirane je 13. maja izašlo više desetina hiljada ljudi koj...

Predsednik Demokrata Crne Gore ekskluzivno za Demostat
Predsednik Demokrata Crne Gore ekskluzivno za Demostat

  U junskom istraživanju crnogorskog Centra za demokratiju i ljudska pr...

Gde u Evropi ima litijuma i zašto se ne eksploatiše?
Gde u Evropi ima litijuma i zašto se ne eksploatiše?

Cilj EU je jasan – neophodno je smanjiti zavisnost Evrope od Kine kada je ...

2024. Sva prava zadržana.
Zabranjeno je svako kopiranje sadržaja sajta.

UŽIVO
Ovaj sajt koristi "kolačiće" kako bi se obezbedilo bolje korisničko iskustvo. Ako želite da blokirate "kolačiće", molimo podesite svoj pretraživač.
Više informacija možete naći na našoj stranici Politika privatnosti