Supremația sistematizată: consecințele încrederii oarbe în tehnologie

Imagine de Liz Carrigan și Safa, cu elemente vizuale de Yiorgos Bagakis și La Loma, utilizarea permisă.
Acest articol a fost scris de Safa pentru seria de articole „Diviziuni digitalizate”. Acesta a fost inițial publicat pe tacticaltech.org. O versiune editată este republicată de Global Voices în baza unui acord de parteneriat.
Tehnologia poate fi utilizată atât în beneficiul oamenilor, cât și în detrimentul lor, nefiind neapărat o situație de tipul „ori una, ori alta”; ea poate fi utilizată în același timp atât în beneficiul unei persoane sau unui grup, cât și în detrimentul altei persoane sau altui grup.
Deși unii pun la îndoială beneficiile utilizării datelor cu caracter personal pentru implementarea politicilor și acțiunilor pe scară largă, evaluarea acestora printr-o comparație strict binară între avantaje și riscuri este greșită, mai ales atunci când riscurile includ violența asupra civililor. Până la urmă, suferința umană nu este niciodată justificată și nu există vreo modalitate de a îndulci cu bună credință repercusiunile negative ale acesteia. Ambivalența tehnologiei încearcă să determine „importanța” sau „punctele forte” ale tehnologiei, care creează distragere, deoarece tehnologia în sine nu este bună sau rea, ci depinde de proprietarii și operatorii din spatele acestei mașinării. În funcție de intențiile și obiectivele acestor oameni, tehnologia poate fi utilizată în cele mai diverse scopuri.
Rentabil și letal
Israelul utilizează datele colectate de la palestinieni pentru a antrena tehnologiile autonome bazate pe inteligență artificială, inclusiv cele create împreună cu companiile internaționale, precum colaborarea cu sistemele Elbit din Israel și divizia Adani Defence and Aerospace din India, care au fost trimise în Gaza și Cisiordania. Tehnologiile israelite de supraveghere și spionaj bazate pe inteligența artificială, cum ar fi Pegasus, Paragon, QuaDream, Candiru, Cellebrite, precum și armamentele cu inteligență artificială, ca Smart Shooter și Lavender, de renume mondial, sunt exportate în multe state, ca Sudanul de Sud și Statele Unite.
SUA ia în considerare, de asemenea, posibilitatea de a utiliza tehnologii de recunoaștere facială autohtone și importate, la frontiera dintre SUA și Mexic, pentru a urmări identitatea copiilor migranți, colectând date pe care le pot utiliza în timp. Eileen Guo de la MIT Technology Review a scris: „Această tehnologie va viza persoane cărora li se oferă mai puține măsuri de protecție a vieții private decât cetățenilor americani, este un trend de a utiliza migranții din țările slab dezvoltate sau civilii din zonele de conflict, care tranzitează frontiera, pentru a ajuta la optimizarea noii tehnologii.” În paralel cu recunoașterea facială, Statele Unite mai colectează mostre de ADN de la imigranți pentru un sistem de înregistrare în masă împreună cu FBI.
În 2021, companiile Google și Amazon, cu sediul în SUA au semnat împreună un contract exclusiv în valoare de un miliard de dolari cu guvernul israelian pentru a dezvolta „Proiectul Nimbus”, menit să îmbunătățească tehnologiile de recunoaștere facială, de selectare automată a imaginilor, de urmărire a obiectelor și de analiză a sentimentelor pentru uz militar – o mișcare care a fost condamnată de sute de angajați Google și Amazon în cadrul unei coaliții numite No Tech for Apartheid (Fără tehnologie în apartheid).
Armata israeliană are, de asemenea, legături cu Microsoft pentru instrumente de învățare automată și stocare în cloud. Aceste exemple sunt aduse aici pentru a arăta dezechilibrul de putere în cadrul sistemelor mai mari de opresiune aflate în joc. Aceste instrumente și legături dintre corporații nu sunt accesibile tuturor potențialilor binefăcători; ar fi de neconceput ca Google, Amazon și Microsoft să semneze aceleași contracte cu Mișcarea de Rezistență Islamică (Hamas), de exemplu.
Arme „inteligente”, combustibil de coșmar
Se spune că fostul președinte american Barack Obama a făcut din utilizarea dronelor militare în afara câmpurilor de luptă o normalitate. Administrația Obama a descris atacurile cu drone ca fiind „chirurgicale” și „precise”, afirmând că utilizarea dronelor militare nu a dus la nicio „moarte colaterală”, deși acest lucru era evident fals. De la preluarea mandatului de către Obama în 2009, atacurile cu drone au devenit ceva obișnuit și chiar s-au extins în cadrul administrațiilor următoare, prin acțiunile internaționale ale SUA (pe câmpurile de luptă și în afara acestora).
Criticii spun că utilizarea dronelor în timpul războiului permite statului puterea de a „acționa ca judecător, martor și executor de la mii de kilometri distanță” și că civilii „suferă prejudicii disproporționate” printr-o „amenințare urgentă a dreptului la viață”. Într-un exemplu, BBC a descris dronele rusești ca un instrument de „vânare” a civililor ucraineni.
În 2009, organizația Human Rights Watch (Observatorul Drepturilor Omului) a raportat că Israelul utilizează drone militare deasupra Gazei. Pentru a localiza și monitoriza țintele, Israelul a început să trimită „roiuri de drone” asupra Gazei în 2021. Ulterior, în 2022, Omri Dor, comandantul bazei aeriene Palmachim, a declarat: „Întreaga Fâșie Gaza este «acoperită» cu drone care colectează informații 24 de ore pe zi.” Tehnologia dronelor a jucat un rol important în creșterea pagubelor și a numărului de ținte în Gaza, inclusiv dronele hibride precum „The Rooster” și „Robodogs” care pot zbura, plana, se pot rostogoli și urca pe teren neuniform. Mitralierele mobile au fost utilizate pentru a înlocui trupele terestre.
Sistemul Smart Shooter, bazat pe inteligență artificială, al cărui slogan este „o țintă, o singură lovitură”, demonstrează un grad înalt de precizie. Acest sistem a fost testat în 2022, la un punct de control din Hebron, rămânând activ până în prezent. Israelul apelează și la rachete „inteligente”, precum SPICE 2000, care au fost utilizate în octombrie 2024, pentru a bombarda un bloc de locuințe din Beirut.
Armata israeliană este considerată una dintre cele mai puternice 20 de forțe militare globale. Israelul susține că efectuează „lovituri de precizie” și nu țintește civilii, dar expertul privind victimele civile Larry Lewis a afirmat că strategiile de reducere a daunelor civile au fost insuficiente, campaniile fiind aparent concepute pentru a crea riscuri pentru civili. Tehnologiile utilizate de Israel, menționate mai sus, au ajutat forțele armate să folosească forța disproporționată pentru a ucide masiv palestinienii din Gaza. După cum a relatat un purtător de cuvânt al IDF : „Ne axăm pe ceea ce provoacă cele mai mari daune.”
Deși, tehnologiile bazate pe inteligență artificială reduc prezența soldaților pe terenul de luptă, respectiv, riscul de răniți și victime în rândul militarilor care le utilizează, ele cresc considerabil numărul victimelor în rândul țintelor. Armata israeliană susține că sistemele bazate pe inteligența artificială „au minimalizat daunele colaterale și au sporit precizia procesului gestionat de oameni”, însă rezultatele colectate relatează o altă poveste.
Documentația arată că cel puțin 13.319 dintre palestinienii uciși erau nou-născuți și copii cu vârste cuprinse între 0 și 12 ani. Cercetătorii consideră că rapoartele Națiunilor Unite privind victimele palestiniene sunt rezervate și estimează că numărul real de decese este dublu sau chiar triplu. Potrivit unuia dintre rapoarte: „Așa numitele «sisteme inteligente» pot determina ținta, dar bombardamentele sunt efectuate cu muniție «precară», neghidată și imprecisă, deoarece armata nu dorește să utilizeze muniție scumpă, ceea ce un ofițer de informații numește «țintă falsă»”. În Gaza, 92% din locuințe și 88% din școli au fost avariate, iar 69% din totalul structurilor din Gaza au fost distruse sau avariate.
În 2024, experții Națiunilor Unite au condamnat utilizarea inteligenței artificiale de către Israel pentru comiterea de crime împotriva umanității în Gaza. Cu toate acestea, în același an, Israel a semnat un tratat internațional privind inteligența artificială, elaborat de Consiliul Europei pentru protejarea drepturilor omului. Faptul că Israelul a ucis un număr atât de mare de palestinieni cu ajutorul instrumentelor bazate pe inteligență artificială conectate la tehnologii cotidiene, precum WhatsApp, este văzut de unii ca un semn de alarmă, cu privire la ce li s-ar putea întâmpla într-o bună zi, pe când alții îl văd ca un model de sistematizare eficientă a supremației și controlului.
Acest articol susține că problema nu este doar lipsa controlului uman asupra datelor și instrumentelor de inteligență artificială; de fapt, un element cheie pentru înțelegerea daunelor și abuzurilor efective și potențiale este grupul care colectează, deține controlul și interpretează datele, folosindu-se de prejudecățile sale (implicite sau explicite). De altfel, concentrarea exclusiv pe tehnologia utilizată de Israel în genocidul din Gaza, sau în orice alt război, ar putea duce la o greșeală gravă: scutirea vinovaților de crimele comise cu ajutorul tehnologiei. Atunci când se pune accent excesiv pe instrumente, poate deveni mult prea ușor să redefinim abuzurile intenționate ca fiind erori comise de tehnologie.
Examinarea utilizării tehnologiei în geopolitică și război necesită înțelegerea structurilor de putere pentru a obține o imagine completă a situației. Găsirea „binelui” în utilizări foarte specifice ale tehnologiei nu ajută prea mult în încercarea de a compensa „răul”.
Pentru acele persoane ale căror vieți au devenit mai dificile și ale căror condiții au devenit dezastruoase, din cauza implementării tehnologiei în dominație, război și sisteme de supremație, nu există prea multe lucruri care pot fi raționalizate în sens pozitiv. Același lucru este valabil și pentru alte entități care își exploatează avantajele (geopolitice, tehnologice sau de altă natură) pentru a-și afirma controlul asupra celor care se află în poziții mai dezavantajoase și mai vulnerabile. Separarea aspectelor utile de cele negative pe care le aduce tehnologia duce la pierderea din vedere a imaginii de ansamblu, nu numai asupra modului în care tehnologia ar putea fi utilizată într-o zi, ci și asupra modului în care este utilizată în prezent.
Această postare face parte din The Bridge, care expune scrieri originale, opinii, comentarii și investigații din perspectiva unică a comunității Global Voices. · Toate articolele
Această postare provine de la GV Advocacy, un proiect Global Voices, al cărui propriu site apără libertatea de exprimare și luptă împotriva cenzurii online. · Toate articolele








