NY Times: Cum pierd națiunile cursa globală de combatere a efectelor nocive ale inteligenței artificiale

Inteligența artificială
Inteligența artificială
6 decembrie 2023, 00:00 (actualizat 12 iunie 2023, 11:52)

Atunci când liderii Uniunii Europene au introdus un proiect de lege de 125 de pagini pentru reglementarea inteligenței artificiale în aprilie 2021, l-au salutat ca fiind un model global pentru gestionarea acestei tehnologii.

Timp de trei ani, legislatorii UE au primit contribuții de la mii de experți în legătură cu inteligența artificială, în condițiile în care subiectul nici măcar nu fusese pus pe tapet în alte țări. Rezultatul a fost o politică „de referință” și „pregătită pentru viitor”, declara Margrethe Vestager, șefa politicii digitale pentru blocul celor 27 de națiuni.

Apoi a apărut ChatGPT.

Robotul de chat cu o înfățișare straniu de umană, care a devenit viral anul trecut prin generarea propriilor răspunsuri la solicitări, a luat prin surprindere factorii de decizie din UE. Tipul de inteligență artificială care a alimentat ChatGPT nu a fost menționat în proiectul de lege și nu a fost un punct central al discuțiilor despre politică. Legiuitorii și consilierii lor s-au asaltat reciproc cu apeluri pentru a aborda această lacună, în timp ce directorii din domeniul tehnologiei au avertizat că reglementările prea agresive ar putea dezavantaja economic Europa.

Chiar și acum, legislatorii UE se ceartă asupra a ceea ce trebuie făcut, punând legea în pericol. „Vom fi mereu în urma vitezei tehnologiei”, a declarat Svenja Hahn, un membru al Parlamentului European care a fost implicat în redactarea legii privind inteligența artificială.

Legiuitorii și autoritățile de reglementare de la Bruxelles, Washington și din alte părți pierd bătălia pentru a reglementa inteligența artificială și se grăbesc să recupereze decalajul, pe măsură ce crește îngrijorarea că această tehnologie puternică va automatiza locuri de muncă, va amplifica răspândirea dezinformării și, în cele din urmă, își va dezvolta propriul tip de inteligență. Națiunile s-au mișcat rapid pentru a aborda pericolele potențiale ale inteligenței artificiale, dar oficialii europeni au fost luați prin surprindere de evoluția tehnologiei, în timp ce legislatorii americani recunosc în mod deschis că abia înțeleg cum funcționează.

Rezultatul a fost o multitudine de răspunsuri. În octombrie, președintele Biden a emis un ordin executiv privind efectele inteligenței artificiale asupra securității naționale, în timp ce legiuitorii dezbat ce măsuri să adopte, dacă este cazul. Japonia elaborează orientări fără caracter obligatoriu pentru această tehnologie, iar China a impus restricții asupra anumitor tipuri de IA. Marea Britanie a declarat că legile existente sunt adecvate pentru reglementarea tehnologiei. Arabia Saudită și Emiratele Arabe Unite investesc bani guvernamentali în cercetarea în domeniul IA.

La baza acțiunilor fragmentate se află o neconcordanță fundamentală. Sistemele de inteligență artificială avansează atât de rapid și de imprevizibil, încât legiuitorii și autoritățile de reglementare nu pot ține pasul. Acest decalaj a fost agravat de un deficit de cunoștințe în materie de IA în rândul guvernelor, de birocrația labirintică și de temerile că prea multe reguli ar putea limita, fără să vrea, beneficiile tehnologiei.

Chiar și-n Europa, poate cea mai agresivă autoritate de reglementare în domeniul tehnologiei din lume, IA a derutat factorii de decizie.

Uniunea Europeană a mers mai departe cu noua sa lege, AI Act, în ciuda disputelor privind modul în care trebuie să se ocupe de producătorii celor mai recente sisteme de inteligență artificială. Un acord final, așteptat chiar miercuri, ar putea restricționa anumite utilizări riscante ale tehnologiei și ar putea crea cerințe de transparență cu privire la modul în care funcționează sistemele de bază. Dar chiar dacă va fi adoptat, nu este de așteptat să intre în vigoare decât peste cel puțin 18 luni și nu este clar cum va fi aplicat.

„Juriul încă nu a decis dacă poți reglementa sau nu această tehnologie”, a declarat Andrea Renda, cercetător senior la Center for European Policy Studies, un think tank din Bruxelles. „Există riscul ca acest text al UE să ajungă să fie preistoric.”

Absența unor reguli a lăsat un vid. Google, Meta, Microsoft și OpenAI, care produce ChatGPT, au fost lăsate să se controleze singure în timp ce se întrec în crearea și-n profitul sistemelor avansate de inteligență artificială. Multe companii, care preferă codurile de conduită fără caracter obligatoriu, acestea oferind o marjă de manevră pentru a accelera dezvoltarea, fac lobby pentru a îndulci reglementările propuse și învrăjbesc guvernele unele împotriva altora.

Fără o acțiune unitară în curând, au avertizat unii oficiali, guvernele ar putea fi lăsate și mai mult în urmă de producătorii de inteligență artificială și de descoperirile acestora.

„Nimeni nu știe ce vor fi capabile să facă, nici măcar creatorii acestor sisteme”, a declarat Matt Clifford, consilier al premierului britanic Rishi Sunak, care a prezidat luna trecută un summit privind siguranța IA la care au participat 28 de țări. „Urgența provine din faptul că există o întrebare reală dacă guvernele sunt echipate pentru a face față și a atenua riscurile”.

Europa preia conducerea

La jumătatea anului 2018, 52 de academicieni, informaticieni și avocați s-au întâlnit la hotelul Crowne Plaza din Bruxelles pentru a discuta despre inteligența artificială. Oficialii UE îi aleseseră pentru a le oferi consiliere cu privire la această tehnologie, care atrăgea atenția pentru că alimenta mașini fără șofer și sisteme de recunoaștere facială.

Grupul a dezbătut dacă există deja suficiente norme europene pentru a se proteja împotriva tehnologiei și a luat în considerare posibile orientări etice, a declarat Nathalie Smuha, un cercetător juridic din Belgia care a coordonat grupul.

Dar, pe măsură ce au discutat despre posibilele efecte ale inteligenței artificiale – inclusiv despre amenințarea tehnologiei de recunoaștere facială asupra vieții private a oamenilor – au recunoscut că „există toate aceste lacune juridice; și ce se va întâmpla dacă oamenii nu vor respecta aceste orientări?”, a spus ea.

În 2019, grupul a publicat un raport de 52 de pagini cu 33 de recomandări, inclusiv o mai mare supraveghere asupra instrumentelor de IA care ar putea dăuna persoanelor și societății.

Raportul a făcut valuri în lumea insulară a procesului de elaborare a politicilor din UE. Ursula von der Leyen, președinta Comisiei Europene, a făcut din acest subiect o prioritate pe agenda sa digitală. Un grup de 10 persoane a fost desemnat să elaboreze un proiect de lege. O altă comisie din cadrul Parlamentului European, ramura co-legislativă a Uniunii Europene, a organizat aproape 50 de audieri și reuniuni pentru a analiza efectele inteligenței artificiale asupra securității cibernetice, agriculturii, diplomației și energiei.

În 2020, factorii de decizie europeni au decis că cea mai bună abordare era să se concentreze asupra modului în care este utilizată IA și nu asupra tehnologiei care stă la baza acesteia. Aceștia au spus că inteligența artificială nu este în mod inerent bună sau rea, ci depinde de modul în care este aplicată.

Prin urmare, atunci când legea privind inteligența artificială a fost prezentată în 2021, aceasta s-a concentrat pe utilizările „cu risc ridicat” ale tehnologiei, inclusiv în aplicarea legii, admiterea în școli și angajarea. A evitat în mare măsură să reglementeze modelele IA care le alimentau, cu excepția cazului în care erau enumerate ca fiind periculoase.

Conform propunerii, organizațiile care oferă instrumente de IA riscante trebuie să îndeplinească anumite cerințe pentru a se asigura că aceste sisteme sunt sigure înainte de a fi implementate. Programele de IA care au creat videoclipuri manipulate și imagini deepfake trebuie să dezvăluie faptul că oamenii văd conținut generat de IA. Alte utilizări au fost interzise sau restricționate, cum ar fi software-ul de recunoaștere facială în direct. Contravenienții ar putea fi amendați cu 6 % din vânzările lor globale.

Unii experți au avertizat că proiectul de lege nu a luat suficient în considerare viitoarele răsturnări de situație ale IA.

„Mi-au trimis un proiect, iar eu le-am trimis înapoi 20 de pagini de comentarii”, a declarat Stuart Russell, profesor de informatică la Universitatea din California, Berkeley, care a consiliat Comisia Europeană. „Tot ceea ce nu se afla pe lista lor de aplicații cu risc ridicat nu conta, iar lista excludea ChatGPT și majoritatea sistemelor de inteligență artificială.”

Liderii UE nu s-au lăsat descurajați.

„Poate că Europa nu a fost liderul ultimului val de digitalizare, dar are toate atuurile pentru a-l conduce pe următorul”, a declarat Vestager când a prezentat politica în cadrul unei conferințe de presă la Bruxelles.

Un punct mort

Nouăsprezece luni mai târziu, a sosit ChatGPT.

Consiliul European, o altă ramură a Uniunii Europene, tocmai convenise să reglementeze modelele de inteligență artificială de uz general, dar noul chatbot a remaniat dezbaterea. Acesta a scos la iveală un „punct mort” în elaborarea politicilor blocului în ceea ce privește această tehnologie, a declarat Dragoș Tudorache, un membru al Parlamentului European care susținuse, înainte de lansarea ChatGPT, că noile modele trebuie să fie acoperite de lege. Aceste sisteme de inteligență artificială de uz general nu doar alimentează chatboți, ci pot învăța să îndeplinească numeroase sarcini prin analiza datelor culese de pe internet și din alte surse.

Oficialii UE au fost împărțiți privind modul în care să răspundă. Unii au fost atenți la adăugarea unui număr prea mare de reguli noi, mai ales că Europa s-a luptat să își dezvolte propriile companii de tehnologie. Alții au dorit limite mai stricte.

„Vrem să fim atenți să nu exagerăm și să reglementăm prea mult lucruri care nu sunt încă clare”, a declarat Tudorache, unul dintre principalii negociatori ai legii privind inteligența artificială.

Până în octombrie, guvernele Franței, Germaniei și Italiei, cele mai mari trei economii ale UE, s-au pronunțat împotriva reglementării stricte a modelelor de inteligență artificială de uz general, de teamă că ar putea împiedica înființarea de noi companii de tehnologie la nivel național. Alții din Parlamentul European au declarat că legea ar fi lipsită de efect dacă nu ar aborda tehnologia. Diviziunile privind utilizarea tehnologiei de recunoaștere facială au persistat, de asemenea.

Factorii de decizie politică încă mai lucrau la compromisuri, în timp ce negocierile privind limbajul legii intrau în etapa finală în această săptămână.

Un purtător de cuvânt al Comisiei Europene a declarat că legea privind inteligența artificială este „flexibilă în raport cu evoluțiile viitoare și favorabilă inovației”.

Jocul de la Washington

Jack Clark, unul dintre fondatorii start-up-ului Anthropic, a vizitat Washingtonul timp de ani de zile pentru a le oferi parlamentarilor cursuri de instruire în materie de inteligență artificială.

Dar, după ce ChatGPT a devenit viral, prezentările sale au devenit pline de legislatori și consilieri care au cerut cu insistență să asculte cursul său intensiv de inteligență artificială și opiniile sale privind elaborarea regulilor.

„Toată lumea s-a cam trezit în masă odată cu această tehnologie”, a spus Clark, a cărui companie a angajat recent două firme de lobby la Washington.

Neavând expertiză tehnologică, legislatorii se bazează din ce în ce mai mult pe Anthropic, Microsoft, OpenAI, Google și alți producători de IA pentru a explica cum funcționează și pentru a ajuta la crearea de reguli.

„Nu suntem experți”, a declarat reprezentantul Ted Lieu, democrat din California, care l-a primit pe Sam Altman, directorul executiv al OpenAI, și peste 50 de legislatori la un dineu la Washington în luna mai. „Este important să fim umili”.

Companiile din domeniul tehnologiei au profitat de avantajul lor. În prima jumătate a anului, mulți dintre cei 169 de lobbyiști ai Microsoft și Google s-au întâlnit cu parlamentari și la Casa Albă pentru a discuta despre legislația privind inteligența artificială, conform declarațiilor de lobby. OpenAI și-a înregistrat primii trei lobbyiști, iar un grup de lobby din domeniul tehnologiei a dezvăluit o campanie de 25 de milioane de dolari pentru a promova beneficiile IA în acest an.

În aceeași perioadă, Altman s-a întâlnit cu peste 100 de membri ai Congresului, inclusiv cu fostul președinte al Camerei Reprezentanților Kevin McCarthy, republican din California, și cu liderul Senatului, Chuck Schumer, democrat din New York. După ce a depus mărturie în Congres în luna mai, Altman a pornit într-un turneu global în 17 orașe, întâlnindu-se cu lideri mondiali, inclusiv cu președintele francez Emmanuel Macron, cu premierul britanic Sunak și cu prim-ministrul Narendra Modi.

La Washington, activitatea în jurul inteligenței artificiale a fost frenetică, dar fără a se putea prezenta o legislație.

În luna mai, după o întâlnire la Casa Albă pe tema IA, liderii Microsoft, OpenAI, Google și Anthropic au fost rugați să elaboreze autoreglementări pentru a face sistemele lor mai sigure, a declarat Brad Smith, președintele Microsoft. După ce Microsoft a prezentat sugestii, secretarul pentru comerț, Gina M. Raimondo, a trimis propunerea înapoi cu instrucțiuni de a adăuga mai multe promisiuni, a spus el.

Două luni mai târziu, Casa Albă a anunțat că cele patru companii au fost de acord cu angajamente voluntare privind siguranța IA, inclusiv testarea sistemelor lor prin intermediul unor supraveghetori terți – ceea ce majoritatea companiilor făceau deja.

„A fost genial”, a spus Smith. „În loc ca oamenii din guvern să vină cu idei care ar fi putut fi nepractice, ei au spus: «Arătați-ne ce credeți că puteți face și noi vă vom împinge să faceți mai mult».”

Într-o declarație, Raimondo a spus că guvernul federal va continua să lucreze cu companiile, astfel încât „America să continue să fie lider mondial în ceea ce privește inovarea responsabilă în domeniul inteligenței artificiale”.

În cursul verii, Comisia Federală pentru Comerț a deschis o investigație privind OpenAI și modul în care aceasta gestionează datele utilizatorilor. Legiuitorii au continuat să primească directori din domeniul tehnologiei.

În septembrie, Schumer i-a avut ca oaspeți pe Elon Musk, Mark Zuckerberg de la Meta, Sundar Pichai de la Google, Satya Nadella de la Microsoft și pe Altman la o întâlnire cu ușile închise cu legiuitorii la Washington pentru a discuta despre regulile de IA. Musk a avertizat asupra riscurilor „civilizaționale” ale I.A., în timp ce Altman a declarat că IA ar putea rezolva probleme globale, cum ar fi sărăcia.

Schumer a spus că firmele cunosc cel mai bine tehnologia.

În unele cazuri, companiile de inteligență artificială asmut guvernele unele împotriva altora. În Europa, grupurile industriale au avertizat că reglementările ar putea plasa Uniunea Europeană în urma Statelor Unite. La Washington, companiile din domeniul tehnologiei au avertizat că China ar putea lua avans.

„China se pricepe mult mai bine la aceste lucruri decât vă imaginați”, a declarat Clark de la Anthropic în fața membrilor Congresului în ianuarie.

Colaborare trecătoare

În luna mai, Vestager, Raimondo și Antony J. Blinken, secretarul de stat american, s-au întâlnit la Lulea, în Suedia, pentru a discuta despre cooperarea în domeniul politicii digitale.

După două zile de discuții, Vestager a anunțat că Europa și Statele Unite vor publica un cod de conduită comun pentru protejarea inteligenței artificiale „în câteva săptămâni”. Ea a trimis un mesaj colegilor de la Bruxelles, cerându-le să împărtășească postarea sa pe rețelele de socializare despre pact, pe care l-a numit „un pas uriaș într-o cursă pe care nu ne putem permite să o pierdem”.

Câteva luni mai târziu, nu a apărut niciun cod de conduită comun. În schimb, Statele Unite au anunțat propriile orientări privind inteligența artificială.

La nivel internațional, s-au înregistrat puține progrese în ceea ce privește inteligența artificială. În contextul în care țările sunt împotmolite în competiție economică și neîncredere geopolitică, multe dintre ele își stabilesc propriile reguli pentru această tehnologie fără frontiere.

Chiar și în rândul aliaților, problema a creat diviziuni. La întâlnirea din Suedia dintre oficialii UE și SUA, Blinken a criticat Europa pentru că a avansat cu reglementări privind IA care ar putea dăuna companiilor americane, a declarat un participant. Thierry Breton, un comisar european, a replicat că Statele Unite nu pot dicta politica europeană, a spus persoana respectivă.

Un purtător de cuvânt al Comisiei Europene a declarat că Statele Unite și Europa au „colaborat îndeaproape” în ceea ce privește politica legată inteligența artificială și că Grupul celor 7 țări a dezvăluit un cod de conduită voluntar în octombrie.

Un purtător de cuvânt al Departamentului de Stat a declarat că au existat „conversații continue și constructive” cu Uniunea Europeană, inclusiv acordul G7. La întâlnirea din Suedia, a adăugat el, Blinken a subliniat necesitatea unei „abordări unificate” privind IA.

Unii factori de decizie politică au declarat că sperau să se înregistreze progrese la un summit privind siguranța IA pe care Marea Britanie l-a organizat luna trecută la Bletchley Park, unde matematicianul Alan Turing a ajutat la descifrarea codului Enigma folosit de naziști. La reuniune au participat vicepreședintele Kamala Harris, Wu Zhaohui, viceministrul chinez al științei și tehnologiei, Elon Musk și alții.

Rezultatul a fost o declarație de 12 paragrafe care descrie potențialul „transformator” al inteligenței artificiale și riscul „catastrofal” de utilizare abuzivă. Participanții au convenit să se întâlnească din nou anul viitor.

 

Urmărește-ne pe Google News

Ultima Oră

Cele mai citite