Site icon Arena IT

Scrisoare deschisă pentru o pauză de șase luni în dezvoltarea sistemelor avansate de inteligență artificială

Despre subiectul AI am tot discutat aici, iar presa, in marea ei majoritate, nu a ocolit deloc subiectul. Mai ales de când cu lansarea ChatGPT.

Din păcate, prea puțini au fost cei care au conștientizat pericolul pe care acest domeniul îl prezintă. Și nu mă refer acum la scenarii apocaliptice, care nu pot fi nici ele excluse, ci la ceva mult mai concret: lipsa unor reglementări legale. Practic, în acest moment, oricine poate face (aproape) orice, în domeniul AI. Omenirea a fost ocupată în acești ultimi ani cu pandemii, regimuri iliberale, războaie și recesiuni, încât a ignorat aspectul acesta.

În acest context, scrisoarea deschisă semnată de o listă lungă de personalități, printre care, cei mai celebrii sunt Elon Musk, Steve Woznial și Yuval Harari, este extrem de importantă. Vă las textul integral, mai jos:

Sistemele AI cu inteligență competitivă umană pot prezenta riscuri profunde pentru societate și umanitate, așa cum arată cercetările ample și recunoscute de laboratoarele de top. După cum se precizează în Principiile Asilomar AI, acceptate pe scară largă, inteligența artificială avansată ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui planificată și gestionată cu grijă și cu resurse pe măsură.

Din păcate, acest nivel de planificare și management nu are loc, iar în ultimele luni laboratoarele de inteligență artificială s-au înscris într-o cursă scăpată de control pentru a dezvolta și a implementa minți digitale tot mai puternice pe care nimeni, nici măcar creatorii lor, nu le pot înțelege, prezice sau controla într-un mod acceptabil.

Sistemele AI contemporane devin acum competitive pentru oameni la sarcini generale și trebuie să ne întrebăm: Ar trebui să lăsăm mașinile să ne inunde canalele de informații cu propagandă și neadevăr? Ar trebui să automatizăm toate sarcinile, inclusiv pe cele făcute din pasiune? Ar trebui să dezvoltăm creiere non-umane care, în cele din urmă, ar putea să ne copleșească, să ne depășească și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre? Astfel de decizii nu trebuie să fie delegate liderilor din domeniul tehnologiei. Sistemele AI puternice ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionabile. Această încredere trebuie să fie bine justificată și să crească odată cu amploarea efectelor potențiale ale unui sistem. Declarația recentă a OpenAI cu privire la inteligența generală artificială afirmă că “La un moment dat, poate fi important să obținem o revizuire independentă înainte de a începe să antrenăm sisteme viitoare, iar pentru cele mai avansate dintre ele am putea conveni să limităm rata de progresie utilizată pentru crearea de noi sisteme.”

Suntem de acord. Acel moment este acum.

Prin urmare, solicităm tuturor laboratoarelor de inteligență artificială să întrerupă imediat, timp de cel puțin 6 luni, dezvoltarea sistemelor de inteligență artificială mai puternice decât GPT-4. Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. Dacă o astfel de pauză nu poate fi adoptată rapid, guvernele ar trebui să intervină și să instituie un moratoriu.

Laboratoarele de AI și experții independenți ar trebui să folosească această pauză pentru a dezvolta și implementa de comun acord un set de protocoale de siguranță pentru proiectarea și dezvoltarea avansată a inteligenței artificiale, care sunt auditate și supravegheate riguros de experți externi independenți. Aceste protocoale ar trebui să asigure că sistemele care aderă la acestea sunt sigure dincolo de orice îndoială rezonabilă. Acest lucru nu înseamnă o pauză în dezvoltarea AI în general, ci doar un pas înapoi din cursa periculoasă către modele din ce în ce mai puternice, imprevizibile, cu capacități emergente.

Cercetarea și dezvoltarea AI ar trebui să se reorienteze pentru a face sistemele de astăzi, deja puternice, mai precise, mai sigure, interpretabile, transparente, robuste, aliniate, demne de încredere și loiale.

În paralel, dezvoltatorii de inteligență artificială trebuie să lucreze cu factorii de decizie pentru a accelera dramatic dezvoltarea unor sisteme robuste de reglementare a inteligenței artificiale. Acestea ar trebui să includă cel puțin: noi autorități de reglementare dedicate AI; supravegherea și urmărirea sistemelor AI de înaltă capacitate și a sistemelor cu mare putere de calcul în general; sisteme de marcaj care să permită distincția între creația AI și cea umană și să permită urmărirea și transferul modelelor AI; un ecosistem robust de auditare și certificare; stabilirea răspunderii pentru eventuale prejudicii cauzate de AI; finanțare publică solidă pentru cercetarea tehnică a siguranței AI; instituții bine dotate pentru a face față perturbărilor economice și politice dramatice (în special ale democrației) pe care le va provoca AI.

Omenirea se poate bucura de un viitor înfloritor cu AI. După ce am reușit să creăm sisteme AI puternice, acum ne putem bucura de o “vară a inteligenței artificiale” în care să culegem roadele, să proiectăm aceste sisteme pentru beneficiul clar al tuturor și să oferim societății șansa de a se adapta. Societatea a oprit alte tehnologii cu efecte potențial catastrofale asupra noastră. Putem face asta aici și acum. Să ne bucurăm de o vară lungă cu AI, dar să nu ne grăbim nepregătiți spre toamnă.

Este extrem de important de menționat că Elon Musk a mai vociferat pe tema aceasta, dar Harari a scris o carte (Homo Deus) în care explica extrem de clar că omenirea ar putea fi pe un astfel de drum. Prin urmare, faptul că o personalitate precum el semnează un asemenea document, este clar un semnal de alarmă.

Pe de altă parte, prezența lui Musk poate fi explicată și altfel. În primul rând, pentru un vizionar precum el, ratarea startului într-un asemenea domeniu nu poate fi decât greu de digerat. Este omul care a popularizat mașinile electrice, vrea să facă accesibil zborul în spațiu și comunicarea liberă (aici am dubiile mele, însă), prin urmare nu cred că acceptă prea ușor că a ratat ocazia dintr-un asemenea domeniu! În plus, twitter este total amenințată, la fel ca alte platforme sociale, de apariția și răspândirea unor boți inteligenți, care ar putea disemina știri false…

Știți cine lipsește din lunga listă de semnatari? Oamenii politici, adică fix aceia care ar trebui să se ocupe de reglementarea domeniului. Apropo de asta, poate nu știați, dar peșsedintele comisiei AIDA (Artificial Intelligence in a Digital Age) din Parlamentul European este un român: Dragoș Tudorache…

Exit mobile version