Deepfake-urile audio și inteligența artificială sunt o amenințare pentru alegerile electorale din întreaga lume
În prezent, aproape oricine poate crea înregistrări audio sau video cu celebrități sau persoane obișnuite în care aceștia se poartă sau vorbesc în moduri în care n-ar fi
făcut-o niciodată, cu ajutorul software-urilor de inteligență artificială care sunt accesibile pe scară largă. Drepturile oamenilor ale căror voci și imagini sunt folosite vor trebui să fie protejate mai serios. Marile companii de tehnologie s-au unit într-o încercare istorică de a pune capăt utilizării abuzive a inteligenței artificiale în cadrul viitoarelor alegeri electorale din întreaga lume.
Deepfake-urile (falsurile foarte bine făcute) sunt într-o continuă dezvoltare, acestea fiind de fiecare dată de o calitate mai bună, mai convingătoare și mai apropiate de realitate. Numărul mare de alegeri din întreaga lume din 2024 ridică problema legată de includerea inteligenței artificiale în aceste procese electorale, care ar putea compromite integritatea alegerilor. Manipularea votanților de către deepfake-uri este unul dintre principalele subiecte de discuție în multe țări din lume care se pregătesc pentru alegeri. Aproximativ 4 miliarde de oameni se vor prezenta la vot în mai mult de 50 de țări. Academicienii, jurnaliștii și politicienii și-au exprimat îngrijorarea în ceea ce privește utilizarea conținutului generat de inteligența artificială în operațiunile de influență politică.
Cu toate acestea, conținutul generat de inteligența artificială va avea de asemenea un impact mai mare și asupra vieții noastre sociale. Recent, cazurile virale au avut legătură cu celebrități, dar având în vedere cât de repede evoluează deepfake-urile, vom avea parte de videoclipuri deepfake cu oameni obișnuiți care nu sunt celebrități sau politicieni și care nu stârnesc interesul public datorită locurilor de muncă sau activităților lor. Acest lucru va fi o amenințare serioasă la adresa societății și de aceea este foarte important să avem inițiative colective împotriva trucurilor generate prin inteligență artificială.
Studii de caz privind deepfake-uri recente
Deepfake-urile, sau manipulări non-IA, numite cheapfakes (falsuri ieftine), nu sunt o noutate și există de ceva timp. Totuși, odată cu impactul ChatGPT asupra răspândirii inteligenței artificiale pe o scară mai largă, miliarde de dolari s-au investit în ultimul an în companiile de IA. Dezvoltarea programelor care facilitează producerea
deepfake-urilor în special a crescut gradul de utilizare al inteligenței artificiale pentru producerea unor asemenea falsuri care vizează publicul. Chiar și acum, pe lângă manipularea materialelor video, au existat cazuri în care s-a produs un deepfake audio, care e mult mai ușor de realizat.
Cazul deepfake-ului audio cu președintele american Joe Biden, distribuit în New Hampshire, în care acesta îndemna oamenii să nu voteze în alegerile pentru primării, a ajuns la mai mult de 20.000 de oameni. Persoana care a fost în spatele manipulării și care a plătit 150 de dolari pentru a o realiza, Steve Kramer, a declarat că a făcut acest lucru drept act de nesupunere civilă pentru a atrage atenția asupra riscurilor asociate prezenței inteligenței artificiale în politică și asupra necesității reglementării inteligenței artificiale.
Un alt exemplu elocvent care a arătat că deepfake-urile pot fi un pericol la adresa democrației este deepfake-ul audio care-l implică pe politicianul slovac Michal Simecka. Un mesaj vocal înregistrat a fost postat pe Facebook cu 48 de ore înainte de alegerile slovace. Acesta părea a fi al lui Simecka care discuta despre fraudarea alegerilor electorale cu jurnalista Monika Todova. Un exemplu care ar putea avea implicații politice și sociale serioase este deepfake-ul audio cu primarul Londrei, Sadiq Khan. La începutul lunii noiembrie 2023, un deepfake audio cu Khan a ajuns viral când acesta părea că insulta Ziua Armistițiului (o sărbătoare care marchează momentul începerii Primului Război Mondial) și că cerea ca marșurile
pro-palestiniene să aibă prioritate.
Pe lângă deepfake-urile audio cu protagoniști din lumea politică, deepfake-urile video cu celebrități continuă să circule pe internet. Spre exemplu, există deepfake-uri video cu faimosul actor de la Hollywood Tom Hanks, în care o versiune IA a lui a promovat o asigurare dentară, sau cu faimosul Youtuber MrBeast, care părea să găzduiască cel mai mare concurs cu cadouri din lume pentru un iPhone 15.
Imaginile deepfake cu cântăreața Taylor Swift care au fost publicate la începutul acestui an pe diverse platforme de socializare – X (în trecut Twitter), Instagram, Facebook și Reddit – au devenit de asemenea virale. Înainte de a fi ștearsă de pe X, o imagine deepfake cu Swift a fost văzută de aproximativ 45 de milioane de ori în aproximativ 17 ore de la apariția acesteia pe platformă.
O inițiativă colectivă împotriva trucurilor generate de IA
„Acordul tehnologic pentru combaterea utilizării înșelătoare a IA în cadrul alegerilor din 2024” a fost anunțat la Conferința de Securitate de la Munchen, care a adunat 20 de companii importante, inclusiv Adobe, Google, Microsoft, OpenAI, Snap Inc. și Meta, angajându-se să utilizeze tehnologii de ultimă generație pentru a detecta și contracara conținutul dăunător generat de IA care are ca scop inducerea votanților în eroare și, de asemenea, să sprijine sensibilizarea opiniei publice, nivelul de competență mediatică și reziliența întregii societăți. Este pentru prima dată când 20 de companii diferite se întâlnesc pentru a discuta împotriva trucurilor generate de IA.
Companiile participante s-au angajat să respecte 8 angajamente specifice pentru atenuarea riscurilor legate de conținutul înșelător IA din cadrul alegerilor. Această inițiativă dintre sectorul tehnologic și IA vizează imaginile, videoclipurile și materialele audio create de inteligența artificială care ar putea induce votanții în eroare cu privire la candidați, birourile electorale și procesul de votare. Totuși, nu se solicită ca acest tip de conținut să fie complet interzis.
Această postare face parte din The Bridge, care expune scrieri originale, opinii, comentarii și investigații din perspectiva unică a comunității Global Voices. · Toate articolele
Această postare provine de la GV Advocacy, un proiect Global Voices, al cărui propriu site apără libertatea de exprimare și luptă împotriva cenzurii online. · Toate articolele