Politico: Opriți roboții ucigași! Lobby-iștii susținuți de Musk luptă pentru a salva Europa de o inteligență artificială malefică. Ce este ideologia „altruismului eficient”

Sistemele de inteligență artificială potenţiale riscuri la adresa societăţii şi omenirii
Sistemele de inteligență artificială potenţiale riscuri la adresa societăţii şi omenirii
28 noiembrie 2022, 13:45

Future of Life Institute (FLI) s-a transformat în ultimul an într-o forță de influență asupra unora dintre cele mai controversate elemente ale Legii privind inteligența artificială. În ciuda legăturilor grupului cu Silicon Valley, giganții Big Tech, precum Google și Microsoft, s-au aflat de partea perdantă a argumentelor FLI.

În bula UE, sosirea unui grup ale cărui acțiuni sunt colorate de teama de catastrofa declanșată de IA (inteligența artificială) mai degrabă decât de obișnuitele preocupări legate de protecția consumatorilor a fost primită ca o navă spațială care a poposit în sensul giratoriu Schuman. Unii se tem că institutul întruchipează o anxietate de tip „techno-macho” cu privire la amenințări cu probabilitate redusă, care ar putea deturna atenția de la probleme mai imediate. Dar majoritatea sunt de acord că, în perioada în care s-a aflat la Bruxelles, FLI a fost eficient.

„Sunt mai degrabă pragmatici și au expertiză juridică și tehnică”, a declarat Kai Zenner, consilier pe probleme de politică digitală al europarlamentarului de centru-dreapta Axel Voss, care lucrează la Legea privind IA. „Uneori sunt un pic prea îngrijorați de tehnologie, dar ridică o mulțime de întrebări bune”.

Lansată în 2014 de către academicianul MIT Max Tegmark și susținută de granzi ai tehnologiei, inclusiv Musk, Jaan Tallinn de la Skype și geniul criptografic Vitalik Buterin, FLI este o organizație non-profit dedicată luptei cu „riscurile existențiale” – evenimente capabile să elimine sau să condamne omenirea. Printre consilierii săi externi se numără și alte personalități precum actorii Morgan Freeman și Alan Alda și renumiții oameni de știință Martin (Lord) Rees și Nick Bostrom.

Principala amenințare – și prioritate a FLI – este dezlănțuirea inteligenței artificiale.

„Am văzut accidente de avion pentru că un pilot automat nu a putut fi anulat. Am asistat la luarea cu asalt a Capitoliului Statelor Unite pentru că un algoritm a fost antrenat să maximizeze implicarea. Acestea sunt eșecurile de siguranță ale IA în prezent – pe măsură ce aceste sisteme devin mai puternice, daunele ar putea deveni mai grave”, a declarat Mark Brakel, directorul de politici europene al FLI, într-un interviu.

Dar grupul de lobby se confruntă cu două probleme de PR. În primul rând, Musk, cel mai faimos susținător al său, se află în centrul unei furtuni de când a început concedierile în masă la Twitter în calitate de nou proprietar, atrăgând și atenția autorităților de reglementare. Controversele lui Musk i-ar putea face pe legislatori să devină timizi în a vorbi cu FLI. În al doilea rând, legăturile grupului cu un set de credințe cunoscute sub numele de „altruism efectiv” ridică semne de întrebare: ideologia se confruntă cu o reglare de conturi și, cel mai recent, este acuzată ca fiind o forță motrice în spatele scandalului din jurul bursei de criptomonede FTX, care a declanșat un carnaj financiar.

Cum a străpuns FLI bula

Sosirea unui grup de lobby care luptă împotriva extincției, a inteligenței artificiale nepotrivite și a roboților ucigași trebuia să fie revigorantă pentru o politică de la Bruxelles, care, altfel, ar fi fost anostă.

Biroul din Bruxelles al FLI s-a deschis la mijlocul anului 2021, în momentul în care începeau discuțiile despre propunerea de lege privind inteligența artificială a Comisiei Europene.

„Am prefera ca IA să fie dezvoltată în Europa, unde vor exista reglementări în vigoare”, a declarat Brakel. „Speranța este ca oamenii să se inspire din UE”.

Fost diplomat, Brakel, născut în Olanda, s-a alăturat institutului în mai 2021. Cercetătorul de politici Risto Uuk i s-a alăturat două luni mai târziu. Operator digital priceput, el își publică analizele și buletinul informativ pe domeniul artificialintelligenceact.eu – Uuk făcuse anterior cercetări în domeniul IA pentru Comisie și pentru Forumul Economic Mondial. El s-a alăturat FLI din afinitate filosofică: ca și Tegmark, Uuk subscrie la principiile altruismului efectiv, un sistem de valori care prescrie utilizarea dovezilor concrete pentru a decide cum să aducă beneficii unui număr cât mai mare de oameni.

De când și-a început activitatea la Bruxelles, echipa de trei persoane a institutului (cu ajutorul lui Tegmark și al altora, inclusiv al firmei de avocatură Dentons) a condus cu abilitate eforturile de lobby pe probleme de inteligență artificială puțin cunoscute.

Exemplul A: inteligența artificială de uz general – software precum instrumentele de recunoaștere a vorbirii sau de generare a imaginilor utilizate într-o gamă largă de contexte și uneori afectate de prejudecăți și inexactități periculoase (de exemplu, în mediul medical). Inteligența artificială de uz general nu a fost menționată în propunerea Comisiei, dar a fost inclusă în textul final al Consiliului UE și este garantat că va figura în poziția Parlamentului.

„Am ieșit și am spus: «Există această nouă clasă de inteligență artificială – sistemele de inteligență artificială de uz general – și Legea privind inteligența artificială nu le ia în considerare în niciun fel. Ar trebui să vă faceți griji în legătură cu acest lucru»”, a spus Brakel. „Acest lucru nu a fost pe radarul nimănui. Acum este”.

De asemenea, grupul se joacă cu temerile europene privind dominația tehnologică a SUA și a Chinei. „Sistemele de inteligență artificială de uz general sunt construite în principal în SUA și China, iar acest lucru ar putea dăuna inovației în Europa, dacă nu vă asigurați că respectă anumite cerințe”, a declarat Brakel, adăugând că acest argument a rezonat cu legislatorii de centru-dreapta cu care s-a întâlnit recent.

Un alt cal de bătaie al FLI este scoaterea în afara legii a inteligenței artificiale capabile să manipuleze comportamentul oamenilor. Propunerea inițială interzice IA manipulatoare, dar aceasta se limitează la tehnici „subliminale” – ceea ce, în opinia lui Brakel, ar crea lacune.

Dar co-raportorul Legii privind IA, deputatul român Renew Dragoș Tudorache face acum presiuni pentru ca interdicția să fie mai cuprinzătoare. „Dacă acest amendament trece, am fi mult mai mulțumiți decât suntem cu textul actual”, a declarat Brakel.

Atât de inteligent încât a făcut să se prăbușească cripto

În timp ce contribuția grupului cu privire la prevederile cheie din proiectul de lege privind IA a fost bine primită, mulți dintre cei din establishment-ul de la Bruxelles privesc cu suspiciune viziunea sa asupra lumii.

Tegmark și alți susținători ai FLI aderă la ceea ce se numește „altruism eficient” (sau EA). O ramură a utilitarismului codificată de filosoful William MacAskill – a cărui lucrare Musk a numit-o „o potrivire apropiată cu filosofia mea” – EA dictează că ar trebui să se îmbunătățească viețile cât mai multor oameni, folosind o abordare raționalistă bazată pe fapte. La un nivel de bază, acest lucru înseamnă să donezi mari părți din venitul propriu unor organizații caritabile competente. Un filon mai radical, pe termen lung, al altruismului eficient cere ca cineva să se străduiască să minimizeze riscurile capabile să ucidă o mulțime de oameni – și mai ales oamenii din viitor, care vor fi mult mai mulți decât cei existenți. Aceasta înseamnă că prevenirea potențialei ascensiuni a unei inteligențe artificiale ale cărei valori intră în conflict cu bunăstarea omenirii ar trebui să fie în fruntea listei de preocupări.

Un punct de vedere critic asupra FLI este acela că promovează această interpretare a așa-numitei agende a altruismului eficient, o agendă care se presupune că nu este interesată de bolile actuale ale lumii – cum ar fi rasismul, sexismul și foametea – și care se concentrează pe amenințările SF la adresa oamenilor care urmează să se nască. Timnit Gebru, un cercetător în domeniul inteligenței artificiale a cărui ieșire acră de la Google a ținut prima pagină a ziarelor în 2020, a atacat FLI pe Twitter, exprimându-și „îngrijorările uriașe” în legătură cu aceasta.

„Sunt susținuți de miliardari, inclusiv de Elon Musk – asta deja ar trebui să îi facă pe oameni suspicioși”, a declarat Gebru într-un interviu. „Întregul domeniu din jurul siguranței AI este alcătuit din atât de multe «institute» și companii în care miliardarii pompează bani. Dar conceptul lor de siguranță a IA nu are nimic de-a face cu daunele actuale față de grupurile marginalizate – ei vor să reorienteze întreaga conversație spre prevenirea acestei apocalipse a IA.”

Reputația altruismului eficient a fost afectată în ultimele săptămâni, după căderea FTX, un exchange falimentar care a pierdut cel puțin 1 miliard de dolari din activele în criptomonede ale clienților. Directorul său general căzut în dizgrație, Sam Bankman-Fried, era unul dintre favoriții EA, vorbind în interviuri despre planul său de a face bazilioane (un număr uriaș – n.r.) și de a le dona în scopuri caritabile. Pe măsură ce FTX s-a prăbușit, comentatorii au susținut că ideologia Altruismului Efectiv l-a determinat pe Bankman-Fried să facă economii și să își raționalizeze imprudența.

Atât MacAskill, cât și Buterin, donator al FLI, au apărat EA pe Twitter, spunând că acțiunile lui Bankman-Fried contrastează cu principiile filozofiei. „Retrogradarea automată a fiecărui lucru în care a crezut SBF este o eroare”, a scris Buterin, care a inventat blockchain-ul Ethereum și finanțează bursa FLI pentru cercetarea riscului existențial al IA.

Brakel a declarat că FLI și EA sunt două lucruri distincte, iar pledoaria FLI se concentrează pe problemele actuale, de la software-ul părtinitor la armele autonome, de exemplu la nivelul Națiunilor Unite. „Petrecem mult timp gândindu-ne la cum ar arăta lumea peste 400 de ani? Nu”, a spus el. (Nici Brakel și nici reprezentantul FLI în UE, Claudia Prettner, nu se consideră altruiști eficienți).

Ideologia californiană

O altă critică la adresa eforturilor FLI de a împiedica inteligența artificială malefică susține că acestea ascund o dorință tehno-utopică de a dezvolta o IA benevolentă la nivel uman. La o conferință din 2017, consilierii FLI – inclusiv Musk, Tegmark și Tallinn de la Skype – au dezbătut probabilitatea și oportunitatea unei IA mai inteligente decât cea umană. Cei mai mulți dintre membrii panelului au considerat că „superinteligența” este inevitabilă; jumătate dintre ei au considerat-o dezirabilă. Rezultatul conferinței a fost o serie de orientări (destul de moderate) privind dezvoltarea unei inteligențe artificiale benefice, pe care Brakel le-a citat ca fiind unul dintre documentele fundamentale ale FLI.

Acest tehno-optimism l-a determinat pe Emile P. Torres, un doctorand în filosofie care obișnuia să colaboreze cu FLI, să se întoarcă în cele din urmă împotriva organizației. „Niciunul dintre ei nu pare să ia în considerare faptul că poate ar trebui să explorăm un fel de moratoriu”, a spus Torres. Ridicarea unor astfel de aspecte cu un membru al personalului FLI, a spus Torres, a dus la un fel de excomunicare. (Articolele lui Torres au fost retrase de pe site-ul FLI).

În cadrul Bruxelles-ului, îngrijorarea este că, în continuare, FLI ar putea schimba cursul de la actuala sa întruchipare cu picioarele pe pământ și să orienteze dezbaterea privind IA către scenarii îndepărtate. „Atunci când discutăm despre IA la nivelul UE, am dorit să facem o distincție clară între sistemele de IA plictisitoare și concrete și întrebările de SF”, a declarat Daniel Leufer, lobbyist la ONG-ul pentru drepturi digitale Access Now. „Când au avut loc discuțiile anterioare ale UE privind reglementarea IA, nu au existat organizații la Bruxelles care să pună accentul pe subiecte precum superinteligența – este bine că dezbaterea nu a mers în această direcție.”

Cei care consideră că FLI este odrasla futurismului californian arată cu degetul spre consiliul său de administrație și spre portofelul său. Pe lângă Musk, Tallinn și Tegmark, printre donatori și consilieri se numără cercetători de la Google și OpenAI, Open Philanthropy a cofondatorului Meta Dustin Moskovitz, Berkeley Existential Risk Initiative (care, la rândul său, a primit finanțare de la FTX) și actorul Morgan Freeman.

În 2020, cea mai mare parte a finanțării globale a FLI (276.000 de dolari din 482.479 de dolari) a provenit de la Silicon Valley Community Foundation, o organizație caritabilă favorizată de marii oameni de tehnologie precum Mark Zuckerberg; conturile pentru 2021 nu au fost încă publicate.

Brakel a negat faptul că FLI este apropiată de Silicon Valley, spunând că activitatea organizației în domeniul inteligenței artificiale de uz general a îngreunat viața companiilor de tehnologie. Brakel a spus că nu a vorbit niciodată cu Musk. Tegmark, între timp, este în contact regulat cu membrii consiliului consultativ științific, din care face parte și Musk.

În opinia lui Brakel, ceea ce face FLI se aseamănă cu activismul climatic din primele zile. „În prezent, asistăm la cel mai cald octombrie din toate timpurile. Ne facem griji în legătură cu acest lucru astăzi, dar ne facem griji și în legătură cu impactul peste 80 de ani”, a declarat el luna trecută. „[Există] eșecuri de siguranță a inteligenței artificiale în prezent – și pe măsură ce aceste sisteme devin mai puternice, daunele ar putea deveni mai grave.”

Urmărește-ne pe Google News

Ultima Oră

Cele mai citite