AI Lažni Snimci i Tvrdnje o “Lažiranju” Razvojem AI tehnologije, posebno deepfake sistema, postalo je moguće:

Generisati realistične fotografije osobe na lokacijama gdje nikada nije bila Kreirati video snimke u kojima osoba “govori” nešto što nikada nije rekla Simulirati nove “nedavne” snimke preminulih osoba Kako se to radi? 1. Deepfake video tehnologija AI modeli analiziraju stare snimke i fotografije osobe, zatim koriste neuronske mreže za generisanje novih izraza lica i pokreta. Manipulisane fotografije Postoje AI alati koji mogu ubaciti osobu u bilo koju scenu uz realističnu svjetlost i sjene. Zašto su AI lažni snimci opasni? Šire dezinformacije – Ljudi mogu povjerovati da su snimci pravi. Potpiruju teorije zavjere – Bez dokaza, ali uz vizuelni “dokaz”. Uništavaju povjerenje u medije – Ako sve može biti lažirano, ljudi više ne vjeruju ničemu. Mogu biti pravno problematični – Korištenje lika stvarne osobe bez dozvole. Kako prepoznati AI manipulaciju? Ne postoji pouzdan izvor koji potvrđuje snimak Video ima čudne pokrete očiju ili neprirodnu mimiku Nema originalne verzije snimka na provjerenim medijima Slika izgleda previše “savršeno”

Paklena Bašta

2/19/20261 min čitanje