×
  • Prospect
  • Prospect

    “Deepfake” po merr kontrollin e realitetit

    Autor:Sarah Ogilvie
    14 Shkurt 2024 | 13:26

    Nuk shkon as një javë pa falsifikimin digjital që rrok ballinat e mediave. Vetëm në muajin janar, thirrja e rrejshme “robotike” nga Joe Bideni u është dërguar 25 mijë telefonave në New Hampshire, duke u bërë thirrje atyre që të mos votonin në zgjedhje – dhe videoja e rrejshme e Taylor Swiftit në një skenë të filmave për të rritur u bë virale. Ndërkohë në Hong Kong, policia raportoi se punëtori në një kompani të financave ishte mashtruar për të transferuar 25 milionë dollarë te mashtruesit të cilët po merrnin pjesë në një video-lidhje. Mirëpo kjo rezultoi se ishte falsifikim digjital i shefave të tij financiar dhe kolegëve të punës.

    Këta janë disa shembuj të atyre që quhen “deepfakes”, të cilat krijohen duke manipuluar zërin dhe teknologjinë për njohje të fytyrës për të zëvendësuar dukjen dhe zërit të dikujt me dikë tjetër. “Deep” [thellë] u referohet shtresave të shumëfishta që përdoren në “të mësuarit e thellë”, lloj i mësimit të makinerisë i bazuar në rrjetet nervore gjeneruese.

    Fjala për herë të parë u shfaq gjatë vitit 2017 si njëjës “deepfakes”. Ky ishte emri i një përdoruesi të “Reddit”-it që kishte ngjitur fytyrën e aktores Gal Gadot në një skenë të filmave për të rritur. Përdorimi dashakeq i “deepfakes” u raportua shpejtë nga gazetarja e revistës “Vice”, Samantha Cole, e cila në një shkrim kishte vendosur titullin: “Pornografia e rrejshme e ndihmuar nga IA-ja [inteligjenca artificiale] ka arritur dhe neve na mori lumi”.

    Mirëpo si shumica e fjalëve të reja, “deepfake” u përmend shumë më herët sesa të shkruhej. Në vitin 2015, mbajta një ligjëratë në Universitetin e Stanfordit për fjalët dhe gjuhën. U kërkova studentëve që për një javë të shkruanin fjalët e reja që dëgjonin në kampus. Prisja që të shkruanin 40 fjalë; por ata u kthyen me 340. Shumë prej këtyre fjalëve ishin zhargone të përditshme, si flakareshi -ose fjalë që lidhen me identitetin seksual, për shembull demiseksual. Fjala “deepfake” ishte në këtë listë, sepse, siç thoshin studentët, nuk përdorej nga ata, por nga punëtorët burra të moshës së mesme në Silicon Valley, të cilët donin të minonin autoritetin e grave kolege. Ata e bënë këtë duke shkrepur fshehurazi fotografi të tyre dhe i vendosën fytyrat në filmat për të rritur. Këta filma më pas i shikonin në laptopët e tyre teksa gratë kolege mbanin prezantimet.

    Fillimisht “deepfakes” ishin fort të shtrenjta për t’u krijuar dhe kërkonin njohuri për inteligjencën e sofistikuar artificiale. Kjo pamundësoi përdorimin e përgjithshëm të tyre dhe shumë shpejtë u shfaqën “deepfakes” të rrejshme” – video me kualitet të dobët që krijoheshin nga softuerët e lirë ose ndryshohej shpejtësia e videos, pa ndihmën e inteligjencës artificiale. Këto video u bën të njohura si “dumbfakes”, “shfallowfakes” dhe “cheapfakes”.

    Mirëpo që atëherë teknologjia ka ndryshuar deri në masën sa tani çdo kush mund të prodhojë video të rrejshme në dhjetëra uebfaqe të krijuara enkas. Sfida tani është që të dallohen këto video para se të bëhen virale, por mund të mos kalojë shumë kohë para se të jetë e pamundur për njerëzit ose pajisjet që të dallojnë atë se çka përbën “deepfake” dhe e vërtetë. Në këtë skenarë, neve mund të na duhet një tjetër term për këtë: “Deepfake singularity”. /Prospect/ Përktheu: Gent Mehmeti – Reporteri.net/.

    Shpërndaje:
    Të ngjashme
    Të ngjashme
    Prospect

    © Reporteri (R Media L.L.C.), 2019-2024. Të gjitha të drejtat e rezervuara.

    Linku i lajmit u kopjua!