Înainte de Covid, m-aș fi descris ca fiind un optimist tehnologic. Noile tehnologii apar aproape întotdeauna în mijlocul unor temeri exagerate. Căile ferate ar fi trebuit să provoace colapsuri mentale, bicicletele se credea că fac femeile infertile sau nebunești, iar electricitatea timpurie era acuzată pentru orice, de la decăderea morală la colapsul fizic. În timp, aceste anxietăți s-au estompat, societățile s-au adaptat, iar nivelul de trai a crescut. Modelul era suficient de familiar încât inteligența artificială părea probabil să-l urmeze: disruptiv, uneori folosit greșit, dar în cele din urmă gestionabil.
Anii pandemiei de Covid au zdruncinat această încredere – nu pentru că tehnologia a eșuat, ci pentru că instituțiile au eșuat.
În mare parte a lumii, guvernele și organismele de experți au răspuns incertitudinii cu intervenții sociale și biomedicale fără precedent, justificate de modele care prezintă scenarii negative și aplicate cu o certitudine remarcabilă. Ipotezele concurente au fost marginalizate în loc să fie dezbătute. Măsurile de urgență s-au consolidat în politici pe termen lung. Atunci când dovezile s-au schimbat, recunoașterea erorilor a fost rară, iar responsabilitatea și mai rară. Experiența a scos la iveală o problemă mai profundă decât orice greșeală politică singulară: instituțiile moderne par slab echipate pentru a gestiona incertitudinea fără a exagera.
Această lecție cântărește acum mult în dezbaterile despre inteligența artificială.
Diferența de risc în IA
În linii mari, îngrijorarea legată de inteligența artificială avansată se împarte în două tabere. Un grup - asociat cu gânditori precum Eliezer Yudkowsky și Nate Soares - susține că o inteligență artificială suficient de avansată este implicit catastrofal de periculoasă. În formularea lor deliberat dură, Dacă cineva o construiește, toți morProblema nu constă în intențiile rele, ci în stimulente: concurența garantează că cineva va face economii, iar odată ce un sistem scapă de un control semnificativ, intențiile nu mai contează.
O a doua tabără, care include personalități precum Stuart Russell, Nick Bostrom și Max Tegmark, ia și ea în serios riscul IA, dar este mai optimistă că alinierea, guvernarea atentă și implementarea treptată pot menține sistemele sub control uman.
În ciuda diferențelor dintre ele, ambele tabere converg către o singură concluzie: dezvoltarea IA fără restricții este periculoasă și este necesară o formă de supraveghere, coordonare sau restricționare. Părerile lor divergente sunt în ceea ce privește fezabilitatea și urgența. Ceea ce rareori se examinează, însă, este dacă instituțiile care trebuie să ofere această restricționare sunt ele însele potrivite pentru acest rol.
Covid sugerează motive de îndoială.
Covid nu a fost doar o criză de sănătate publică; a fost un experiment real de guvernare condusă de experți în condiții de incertitudine. Confruntându-se cu date incomplete, autoritățile au ales în mod repetat intervenții maxime justificate de daune speculative. Disidența a fost adesea tratată ca un eșec moral, mai degrabă decât ca o necesitate științifică. Politicile au fost apărate nu printr-o analiză transparentă cost-beneficiu, ci prin apeluri la autoritate și teama de viitoruri ipotetice.
Acest model este important deoarece dezvăluie modul în care se comportă instituțiile moderne atunci când mizele sunt formulate ca fiind existențiale. Stimulentele se îndreaptă către hotărâre, control narativ și certitudine morală. Corectarea erorilor devine costisitoare din punct de vedere al reputației. Precauția încetează să mai fie un instrument și devine o doctrină.
Lecția nu este că experții au defecte unice. Ci că instituțiile recompensează încrederea excesivă mult mai fiabil decât umilința, mai ales atunci când politica, finanțarea și teama publică se aliniază. Odată ce puterile extraordinare sunt revendicate în numele siguranței, rareori se renunță de bunăvoie la ele.
Acestea sunt exact dinamicile vizibile acum în discuțiile despre supravegherea IA.
Mașina „Ce-ar fi dacă”
O justificare recurentă pentru intervenția extinsă a statului este ipoteticul actor negativ: Ce se întâmplă dacă un terorist construiește asta? Ce se întâmplă dacă un stat necinstit face asta? Din această premisă decurge argumentul că guvernele trebuie să acționeze preventiv, la scară largă și adesea în secret, pentru a preveni catastrofa.
În timpul pandemiei de Covid, o logică similară a justificat agende ample de cercetare biomedicală, autorizații de urgență și controale sociale. Raționamentul a fost circular: pentru că ceva periculos ar putea se va întâmpla, statul trebuie să ia măsuri extraordinare acum – acțiuni care în sine comportau riscuri semnificative, puțin înțelese.
Guvernanța IA este din ce în ce mai mult structurată în același mod. Pericolul nu constă doar în faptul că sistemele de IA s-ar putea comporta imprevizibil, ci și în faptul că teama de această posibilitate va legitima o guvernanță permanentă de urgență – control centralizat asupra calculelor, cercetării și fluxurilor de informații – pe motiv că nu există alternativă.
Risc privat, risc public
O distincție subapreciată în aceste dezbateri este cea dintre riscurile generate de actorii privați și riscurile generate de autoritatea statului. Firmele private sunt constrânse – imperfect, dar semnificativ – de răspundere, concurență, reputație și disciplina pieței. Aceste constrângeri nu elimină prejudiciile, dar creează bucle de feedback.
Guvernele funcționează diferit. Atunci când statele acționează în numele prevenirii catastrofalelor, feedback-ul slăbește. Eșecurile pot fi reclasificate drept necesități. Costurile pot fi externalizate. Secretul poate fi justificat prin securitate. Ipoteticele daune viitoare devin pârghii politice în prezent.
Mai mulți gânditori în domeniul inteligenței artificiale recunosc implicit acest lucru. Bostrom a avertizat despre efectele de „blocare” – nu doar din partea sistemelor de inteligență artificială, ci și din partea structurilor de guvernanță create în momentele de panică. Apelul lui Anthony Aguirre la o moderație globală, deși coerent din punct de vedere logic, se bazează pe organisme internaționale de coordonare al căror istoric recent în ceea ce privește umilința și corectarea erorilor este slab. Chiar și propunerile mai moderate presupun că autoritățile de reglementare sunt capabile să reziste politizării și deturnării misiunii.
Covid ne oferă puține motive să fim încrezători în această presupunere.
Paradoxul supravegherii
Aceasta duce la un paradox tulburător în centrul dezbaterii despre inteligența artificială. Dacă cineva crede cu adevărat că inteligența artificială avansată trebuie limitată, încetinită sau oprită, guvernele și instituțiile transnaționale sunt cele care dețin cel mai probabil puterea de a face acest lucru. Totuși, aceștia sunt tocmai actorii al căror comportament recent oferă cea mai mică încredere în utilizarea restrânsă și reversibilă a acestei puteri.
Încadrarea în situații de urgență este dificilă. Autoritatea dobândită pentru gestionarea riscurilor ipotetice tinde să persiste și să se extindă. Instituțiile își diminuează rareori propria importanță. În contextul inteligenței artificiale, acest lucru ridică posibilitatea ca răspunsul la riscul IA să consolideze sisteme de control fragile și politizate, care sunt mai greu de desființat decât orice tehnologie individuală.
Pericolul, cu alte cuvinte, nu constă doar în faptul că IA scapă de sub controlul uman, ci și în faptul că frica de IA accelerează concentrarea autorității în instituții care s-au dovedit deja lente în a admite erorile și ostile disidenței.
Regândirea riscului real
Acesta nu este un argument pentru automulțumirea față de inteligența artificială și nici pentru negarea faptului că tehnologiile puternice pot face rău real. Este un argument pentru lărgirea cadrului de analiză. Eșecul instituțional este în sine o variabilă existențială. Un sistem care presupune o guvernare binevoitoare, autocorectivă, nu este mai sigur decât unul care presupune o superinteligență binevoitoare și aliniată.
Înainte de Covid, era rezonabil să atribuim cea mai mare parte a pesimismului tehnologic prejudecății negative umane - tendința de a crede că provocările generației noastre sunt unice și imposibil de gestionat. După Covid, scepticismul arată mai puțin ca o prejudecată și mai mult ca o experiență.
Prin urmare, întrebarea centrală în dezbaterea despre inteligența artificială nu este doar dacă mașinile pot fi aliniate la valorile umane, ci dacă se poate avea încredere în instituțiile moderne pentru a gestiona incertitudinea fără a o amplifica. Dacă această încredere s-a erodată - și Covid sugerează că s-a erodată - atunci apelurile la o supraveghere extinsă a inteligenței artificiale merită cel puțin la fel de multă atenție ca afirmațiile privind inevitabilitatea tehnologică.
Cel mai mare risc poate nu este ca IA să devină prea puternică, ci faptul că teama de această posibilitate justifică forme de control cu care descoperim ulterior că sunt mult mai greu de trăit – sau de care evităm.
-
Roger Bate este bursier Brownstone, cercetător senior la Centrul Internațional pentru Drept și Economie (ianuarie 2023-prezent), membru al consiliului de administrație al organizației Africa Fighting Malaria (septembrie 2000-prezent) și membru al Institutului de Afaceri Economice (ianuarie 2000-prezent).
Vizualizați toate postările