„Timpul se scurge”: poate fi evitat un viitor de deepfake nedetectabile?

Cu peste 4.000 de distribuiri, 20.000 de comentarii si 100.000 de reactii pe Facebook, fotografia batranei, asezata in spatele tortului ei de casa pentru 122 de ani, a devenit, fara indoiala, virala. „Am inceput sa decorez prajiturile de la varsta de cinci ani”, se arata in legenda, „si abia astept sa-mi dezvolt calatoria la coacere”.

Poza este, de asemenea, fara indoiala falsa. Daca lumanarile curioase – una pare ca pluteste in aer, atasata de nimic – sau patele amorfe ciudate de pe tortul din prim-plan nu le-au dat jos, atunci faptul ca sarbatoritul ar fi aproape cel mai in varsta persoana din lume cinci ani ar trebui.

Din fericire, mizele pentru decoratorii virali de tort supercentenari sunt mici. Ceea ce este bine, deoarece pe masura ce IA generativa devine din ce in ce mai buna, zilele in care cautam semne care sa descopere un fals sunt aproape de sfarsit. Si asta a creat o cursa contra cronometru: putem gasi alte modalitati de a identifica falsurile, inainte ca falsurile sa devina indistincte de realitate?

„Suntem fara timp pentru a putea inca sa facem detectarea manuala”, a spus Mike Speirs, de la Facultatea de consultanta AI, unde conduce activitatea companiei privind contra-dezinformarea. „Modelele se dezvolta intr-o viteza si un ritm care este, ei bine, incredibil din punct de vedere tehnic si destul de alarmant.

„Exista tot felul de tehnici manuale pentru a identifica imaginile false, de la cuvinte scrise gresit, pana la pielea neteda sau incretita. Mainile sunt una clasica, iar apoi ochii sunt, de asemenea, o idee destul de buna. Dar chiar si astazi, consuma mult timp: nu este ceva pe care il poti extinde cu adevarat. Si timpul se scurge – modelele sunt din ce in ce mai bune.”

Din 2021, generatorul de imagini al OpenAI, Dall-E, a lansat trei versiuni, fiecare radical mai capabila decat precedenta. Concurentul indie Midjourney a lansat sase in aceeasi perioada, in timp ce modelul gratuit si open source Stable Diffusion a ajuns la a treia versiune, iar Gemini de la Google s-a alaturat conflictului. Pe masura ce tehnologia a devenit mai puternica, a devenit si mai usor de utilizat. Cea mai recenta versiune de Dall-E este incorporata in ChatGPT si Bing, in timp ce Google ofera propriile instrumente gratuit utilizatorilor.

Companiile tehnologice au inceput sa reactioneze la inundatia care se apropie de media generata. Coalitia pentru Provenienta si Autenticitatea Continutului, care include printre membrii sai BBC, Google, Microsoft si Sony, a produs standarde pentru watermarking si etichetare, iar in februarie OpenAI a anuntat ca le va adopta pentru Dall-E 3. Acum, imaginile generate de instrumentul are o eticheta vizibila si un filigran care poate fi citit de masina. La sfarsitul distributiei, Meta a inceput sa-si adauge propriile etichete la continutul generat de AI si spune ca va elimina postarile care nu sunt etichetate.

Aceste politici ar putea ajuta la abordarea unora dintre cele mai virale forme de dezinformare, cum ar fi glumele sau satira care se raspandesc in afara contextului sau original. Dar pot crea si un fals sentiment de securitate, spune Spires. „Daca publicul se obisnuieste sa vada imagini generate de inteligenta artificiala cu un filigran pe el, inseamna asta ca are incredere implicit in oricare fara filigran?”

Aceasta este o problema, deoarece etichetarea nu este deloc universala – si nici nu este probabil sa fie. Marile companii precum OpenAI ar putea fi de acord sa-si eticheteze creatiile, dar startup-urile precum Midjourney nu au capacitatea de a dedica timp suplimentar de inginerie problemei. Iar pentru proiectele „open source”, cum ar fi Stable Diffusion, este imposibil sa fortati aplicarea filigranului, deoarece este intotdeauna o optiune sa „furcati” tehnologia si sa va construiti propria.

Si a vedea un filigran nu are neaparat efectul pe care l-am dorit, spune Henry Parker, seful afacerilor guvernamentale la grupul de verificare a faptelor Logically. Compania foloseste atat metode manuale, cat si automate pentru a verifica continutul, spune Parker, dar etichetarea poate merge doar atat de departe. „Daca spui cuiva ca se uita la un deepfake chiar inainte de a-l viziona, psihologia sociala a vizionarii acelui videoclip este atat de puternica incat vor face referire la el ca si cum ar fi un fapt real. Deci, singurul lucru pe care il puteti face este sa va intrebati cum putem reduce perioada de timp in care acest continut este in circulatie?”

In cele din urma, asta va necesita gasirea si eliminarea automata a continutului generat de AI. Dar asta e greu, spune Parker. „Incercam de cinci ani acest lucru si suntem destul de sinceri cu privire la faptul ca am ajuns la aproximativ 70%, in ceea ce priveste precizia pe care o putem obtine.” Pe termen scurt, problema este o cursa a inarmarilor intre detectare si creatie: chiar si generatorii de imagini care nu au intentii rau intentionate vor dori sa incerce sa invinga detectoarele, deoarece scopul final este sa creeze ceva la fel de fidel realitatii ca o fotografie.

Considerand logic ca raspunsul este sa se uite in jurul imaginii, Parker spune: „Cum incerci de fapt sa te uiti la felul in care se comporta actorii de dezinformare?” Aceasta inseamna sa monitorizati conversatiile de pe web pentru a surprinde raufacatorii in etapa de planificare pe site-uri precum 4chan si Reddit si sa tineti un ochi pe comportamentul roiesc al conturilor suspecte care au fost cooptate de un actor de stat. Chiar si atunci, problema fals-pozitivelor este dificila. „Ma uit la o campanie pe care o desfasoara Rusia? Sau ma uit la o gramada de fani Taylor Swift care impartasesc informatii despre biletele la concert?”

Altii sunt mai optimisti. Ben Colman, directorul executiv al startup-ului de detectare a imaginilor Reality Defender, crede ca va exista intotdeauna posibilitatea detectarii, chiar daca concluzia pur si simplu semnaleaza ceva ca posibil fals, mai degraba decat ajunge vreodata la o concluzie definitiva. Aceste semne pot fi orice, de la „un filtru la frecvente mai inalte care indica prea multa netezime” pana la, pentru continutul video, esecul de a face inrosirea invizibila, dar detectabila, pe care toata lumea o arata de fiecare data cand inima le bate sange proaspat in jurul fetei.

„Lucrurile vor continua sa avanseze pe partea falsa, dar latura reala nu se schimba”, conchide Colman. „Credem ca ne vom apropia de un singur model care este mai vesnic verde.”

Tehnologia, desigur, este doar o parte a solutiei. Daca oamenii cred cu adevarat ca o fotografie cu o femeie de 122 de ani cu un tort pe care l-a copt ea insasi este reala, atunci nu va fi nevoie de generatoare de imagini de ultima generatie pentru a-i pacali sa creada alte lucruri mai daunatoare. . Dar este un inceput.

Latest Posts