Realitatea înfricoșătoare a deepfake-urilor

La sfârșitul anului trecut, Kim Kardashian a primit de ziua ei un cadou cu totul și cu totul inedit de la Kanye West (pe atunci cei doi încă formau un cuplu): un video în care tatăl ei, Robert Kardashian, care a murit în 2003, îi spune că este mândru de persoana care a devenit.

Clipul nu este o înregistrare veche, ci o hologramă creată cu ajutorul tehnologiei deepfake. Desigur, clipul care l-a readus la viață pe tatăl său a fost un cadou emoționant pentru Kim, iar intențiile din spatele realizării lui au fost 100% pozitive, însă faptul că tehnologia ne permite în prezent să creăm videoclipuri în care o persoană apare spunând sau făcând ceva ce nu a spus sau făcut în realitate, vine la pachet cu o mulțime de implicații negative.



Ce este un deepfake?

Termenul „deepfake” provine dintr-un mix între „deep learning” și „fake”, și se referă la o formă de media sintetică, în care o fotografie sau o înregistrare a unei persoane este manipulată astfel încât să creeze un conținut audio sau video care nu a fost vreodată generat de acea persoană în realitate.

Capacitatea de a crea astfel de conținut există de câteva decenii deja, fiind folosită inițial în industria cinematografică. Un exemplu este Fast & Furious 7, în care actorul Paul Walker, care a murit înainte de încheierea filmărilor, apare totuși în film, fața și vocea sa fiind suprapuse peste corpul fratelui său pentru a-l readuce la viață pe actor în cadrul unei scene emoționante.

Pentru astfel de cascadorii cinematografice era însă nevoie, până relativ de curând, de studiouri specializate și echipe bine antrenate, plus ore întregi de muncă. Însă în prezent, cu ajutorul unei tehnologii inovatoare de deep learning, cunoscută drept GANs (generative adversarial networks), astfel de imagini și clipuri pot fi create mult mai rapid, cu rezultate cât se poate de credibile.

Și cu toate că, după o analiză atentă, încă e posibil să se facă în unele cazuri distincția între un deepfake și o înregistrare reală, tehnologia din spatele lor se dezvoltă cu o viteză uluitoare.

„În ianuarie 2019, clipurile deepfake aveau bug-uri și erau ușor blurate”, declară Hany Farid, profesor la Universitatea Berkley și expert în domeniul deepfake-urilor, pentru un interviu Forbes. „Nouă luni mai târziu, au evoluat mai repede decât orice altceva am văzut până acum. Suntem pe vârful unui iceberg”.

Atât Farid cât și alți experți pe această nișă preziceau încă de acum doi ani faptul că, în foarte scurt timp, va fi aproape imposibil să distingem dacă un clip e bazat pe o înregistrare reală sau nu. Iar implicațiile pe care le are acest lucru amenință să creeze probleme grave pe plan socio-politic.

În 2019, un video în care Barack Obama folosește o exprimare derogatoare la adresa lui Donald Trump a făcut înconjurul internetului. Însă clipul respectiv nu a fost creat de fapt de Obama, ci de regizorul Jordan Peele și de compania sa de producție.

Peele a fost face-swapped cu fostul președinte în cadrul acestei cascadorii media, realizată special pentru a crea awareness legat de faptul că imaginea oricărei persoane poate fi folosită pentru a crea conținut fotorealist care să manipuleze publicul.

„Intrăm într-o eră în care inamicii noștri pot face să pară că oricine spune orice”, avertizează vocea lui Obama, creată artificial. Ce se poate întâmpla, deci, când tehnlogia de a „pune vorbe în gură” devine nu numai nedetectabilă, ci și accesibilă tuturor?

Consecințele sumbre ale dezvoltării inteligenței artificiale

Tehnologia de a crea deepfake-uri poate fi folosită în mod inocent pentru a crea conținut amuzant și entertaining – Nicholas Cage a fost „introdus” în filme în care nu a jucat vreodată, iar o aplicație de telefon lansată anul trecut permitea utilizatorilor să se autoinsereze în filme sau seriale celebre, precum Urzeala Tronurilor.

Însă, în cele mai multe cazuri, deepfake-urile nu sunt folosite pentru entertainment inofensiv, ci pentru a răspândi dezinformare, pentru manipularea opiniei publice, sau pentru a crea conținut pornografic sau revenge porn.

De altfel, termenul de „deepfake” a apărut grație unui episod tulburător: la sfârșitul anului 2017, un utilizator al platformei Reddit, sub numele „deepfakes”, a creat un thread în care lumea putea viziona clipuri fake în care artiste celebre (printre care Maisie Williams, Emma Watson și Taylor Swift) apăreau făcând sex.

Pentru a crea aceste videoclipuri, userul în cauză a descărcat mii de fotografii cu vedete, pe care le-a suprapus peste clipuri porno deja existente, folosindu-se de algoritmi AI. Threadul a fost șters opt săptămâni mai târziu, însă deja totaliza 90.000 de subscriberi.

Conform unui raport al startup-ului Deeptrace, la începutul anului 2019, existau în jur de 7.964 de clipuri deepfake online, nouă luni mai târziu, numărul sărind la 14.678. În februarie 2021, compania de cybersecurity Sensity a publicat un raport care arăta că apariția deepfake-urilor se află într-o creștere exponențială, iar dintre cele aproximativ 85.000 de clipuri deepfake care circulau online la data respectivă, circa 90% includeau conținut pornografic cu femei, creat fără consimțământul acestora.

Citește și: Dispozitivele anti-stres sunt acum un trend

Reddit, alături de alte platforme, printre care Twitter, au interzis rapid publicarea și distribuirea clipurilor deepfake, însă întregi comunități au apărut ca ciupercile după ploaie. Site-uri și aplicații dedicate distribuirii de deepfakes contină să apară, chiar dacă sunt detectate și închise după câteva luni.

Printre ele se numără o platformă online care primea request-uri — utilizatorii site-ului plăteau 30 de dolari pentru a comisiona crearea unui deepfake la alegere (cu imaginea oricui doreau, fie ea vedetă, cunoștință sau persoană la întâmplare) – și o aplicație care oferea opțiunea de a încărca poza unei femei pe un server, pentru ca apoi să fie dezbrăcată de un bot.

Pandemia a făcut să crească și mai mult cererea pentru deepfake-uri pornografice, MIT desemnând 2020 „anul în care deepfake-urile au devenit mainstream”.

Este fake… sau nu este?

Existența deepfake-urilor și faptul că devine din ce în ce mai dificil de determinat ce este real și ce nu, e un lucru foarte la îndemână de exploatat, atât de oameni simpli, cât și de figurile partidelor politice.

Fake news, revenge porn, fraude enconomice sau politice, șantaj – acestea sunt printre principalele amenințări care vin la pachet cu dezvoltarea tehnologiei de generare a deepfake-urilor. Pe lângă toate acestea, simpla existență a acestui tip de conținut și popularizarea lui subită aduce cu sine teoria că orice video publicat pe internet ar putea fi un deepfake, lucru care poate stârni confuzie, ba chiar poate avea consecințe serioase pentru o întreagă națiune.

Cel mai bun exemplu este situația din Gabon. La sfârșitul anului 2018, absența aparițiilor în public a președintelui Ali Bongo a creat suspiciuni, vehiculându-se că ar fi bolnav sau chiar că ar fi încetat din viață. Pentru a reasigura lumea, administrația a anunțat că Bongo va apărea într-un interviu televizat pe 1 ianuarie 2019, însă în cadrul apariției TV, președintele a afișat un comportament bizar, vorbind ușor sacadat, ținându-și corpul un pic prea țeapăn și mișcându-și mușchii faciali în mod nenatural.

Clipul nu a făcut decât să creeze și mai multe suspiciuni, opozanții lui Bongo răspândind teoria că ar fi vorba despre un deepfake, totul ducând la o destabilizare rapidă a situației politice a Gabonului, armata încercând, la o săptămână după, să producă o lovitură de stat.

Bongo a făcut câteva apariții publice pentru a confirma că este sănătos și în viață, însă nici până în prezent experții nu au putut confirma cu 100% certitudine că înregistrarea în cauză a fost reală.

Au urmat, la scurt timp după, două alte incidente politice, unul în Malaezia și altul în Brazilia, în care niște politicieni au evitat să sufere consecințele unor înregistrări compromițătoare, susținând că este vorba despre deepfake-uri. În ambele cazuri, nu s-a stabilit vreodată în mod definitiv dacă era așa sau nu, astfel că opinia publică a rămas împărțită.

Episoade precum acestea anunță un viitor îngrijorător, în care oamenii nu mai pot procesa obiectiv informații noi, de actualitate pentru că simt că nu se mai pot baza pe credibilitatea înregistrărilor, și, în schimb, rămân la convingerile vechi, preferând să nu le mai pună la îndoială veridicitatea. Într-un interviu pentru Washington Post, Aviv Ovadya, cercetător în domeniul deziformării, numește acest fenomen „apatie față de realitate”, explicând:

„Atunci când oamenii au nevoie să depună prea mult efort pentru a determina ce e real și ce nu, tind să meargă pe varianta a ceea ce le era deja familiar”

Punând această teorie în contextul pandemiei, se traduce prin faptul că unii oameni nu pot accepta informații noi și utile despre dezvoltarea, răspândirea sau stoparea virusului, plutind într-un stadiu de dezinformare și în imposibilitatea de a procesa ce se întâmplă cu adevărat în jurul lor.

Ce soluții există?

Având în vedere că deepfake-urile sunt generate prin tehnologii AI, soluția evidentă este ca aceleași tehnologii de intelgență artificială să fie folosite pentru a le detecta. Cercetătorii au construit motoare sofisticate de detectare, care analizează lumina, umbrele, mișcările faciale și alte detalii pentru a semnala postări de pe internet care sunt suspectate a fi deepfake-uri. O serie de startup-uri oferă software de analiză și determinare, printre care Truepic, Deeptrace și Sensity.

Problema cu această soluție este că, pe măsură ce apar inovații, apar, de asemenea, breakthroug-uri în dezvoltarea unor deepfake-uri și mai credibile. În 2018, de exemplu, când cercetătorii de la The State University of New York at Albany au publicat o analiză în care au arătat că un anumit pattern de clipit sugerează că persoana din clip nu a fost înregistrată în realitate, a făcut ca, în numai două săptămâni, această „greșeală” să fie corectată de un creator de conținut fake, practic transformând acest indiciu într-o inovație care a avansat și mai mult tehnologia AI generatoare de deepfake-uri.

Încă o soluție, venită pe fondul faptului cu deepfake-urile au un impact puternic în politică, a fost propusă de cercetătorii din cadrul universităților Berkley California și Southern California, care au construit un sistem în care au introdus ore întregi de clipuri reale cu lideri politici high-level, în ideea de a învăța software-ul să recunoască detalii hiperprecise, cum ar fi microexpresii sau modul în care aceste persoane își folosesc mușchii faciali când vorbesc.

Citește și: Chiar îți poți „antrena” creierul să devină mai puternic?

Acest tool ajută, într-adevăr, în cazul figurilor politice proeminente, însă… cum rămâne cu restul oamenilor afectați de deepfake-uri, inclusiv (și, am putea spune, în special, având în vedere ponderea de 90% despre care vorbeam mai sus) femeile care sunt ținta materialelor pornografice create cu imaginea lor obținută fără consimțământ?

Jurnalista de origine indiană Rana Ayyub a fost ținta unui astfel de atac în 2018, când un clip fake în care fața ei a fost suprapusă peste un clip pornografic a fost lansat pentru a o discredita și a-i compromite imaginea publică.

Ce a urmat a fost un veritabil coșmar, Rana primind mesaje de hărțuire pe toate canalele de social media și pe numărul său de telefon care a fost leaked pe Twitter. Într-un articol de opinie publicat în Huffington Post, Rana povestește cum a fost afectată de acest incident, dezvăluind că, în definitiv, i-a răpit curajul de a-și mai exprima public opiniile și vocea la fel ca înainte.

Pentru a pune în perspectivă ce înseamnă acest lucru, „vocea” care a provocat acest atac a fost cea a Ranei care tocmai susținuse cu fervoare o campanie pentru dreptate legat de violul și asasinarea unei fete de 8 ani din India.

Acest fenomen a fost denumit de Amnesty International „the silencing effect”. Poeta de origine britanică Helen Mort este de asemenea victimă. După ce a devenit ținta unui atac cu deepfakes, Helen a alertat autoritățile, însă i sa spus că poliția nu poate interveni.

În Anglia, conform legislației actuale, este o contravenție să distribui materiale de natură sexuală fără acordul persoanei înfățișată în ele și cu intenția de a îi produce rău, însă acest lucru se aplică numai în cazul în care materialele în cauză sunt la bază de natură sexuală.

În condițiile în care clipul fake a fost creat dintr-un mix de materiale pornografice de pe internet și fotografii non-sexuale cu Helen furate de pe conturile ei de social media, rezultatul nu este considerat ilegal. Comisia de drept a Angliei și Țării Galilor lucrează în acest moment pentru a modifica legislația, însă acest proces ar putea dura ani de zile, spune Dr. Aislinn O’Connell, lector la Royal Holloway University of London.

În acest moment, există la nivel internațional o serie de măsuri legislative pentru a pedepsi distribuirea deepfake-urilor, printre care Digital Services Act, propus de Uniunea Europeană, Online Harms Bill, propus de Regatul Unit, sau Malicious Deep Fake Prohibition Act și Deepfakes Accountability Act, valabile în Statele Unite.

DARPA (Defense Advanced Research Projects Agency), o agenție de cercetare și dezvoltare a Departamentului Apărării al Statelor Unite, este momentan printre cei mai puternici susținători ai luptei împotriva deepfake-urilor, fondând un proiect în care participanții propun metode de a detecta deepfake-uri prin intermediul inteligenței artificiale.

Scopul DARPA este, de asemenea, să creeze awareness în ceea ce privește modul în care ne poate afecta pe oricare dintre noi această nouă aplicație a tehnologiei.

Citind acest articol, poate părea că tehnologia a ajuns, așa cum multe voci fataliste au prezis de-a lungul timpului, să fie downfall-ul nostru. Însă ceea ce ar trebui să reținem este, de fapt, că avansul tehnologiei vine la pachet cu provocări pe care trebuie să ne asumăm să le ținem piept, căci, la urma urmei, cum spune un citat celebru din Spiderman, „with great power comes great reponsability”. Iar puterea, dar și responsabilitatea, se află în mâinile noastre.

Foto: Getty Images

Nici un comentariu

Lasa un raspuns

Adresa ta de email nu va fi publicata.