Site icon Arena IT

Noi studii demonstrează că nu vom putea controla un AI avansat

O mai țineți minte pe robotul Sophia, cea care voia copii și se considera superioară oamenilor? Ei bine, fiți pregătiți de ceva și mai tare!

Ideea ca inteligența artificială să răstoarne omenirea s-a vorbit de multe decenii, iar în ianuarie 2021, oamenii de știință au finalizat un studiu menit să calculeze dacă am putea controla un AI avansat. A reieșit că nu vom fi în stare, iar Skynet pare tot mai posibil, nu?

Deși avem regulile roboticii, de la Asimov încoace, dar trebuie să recunoaștem că una precum „să nu provoace rău oamenilor” nu poate fi stabilită dacă nu înțelegem tipul de scenarii cu care va veni un AI. Odată ce un sistem computerizat funcționează la un nivel peste nivelul de aplicare al programatorilor noștri, nu mai putem stabili limite. Mai pe românește, de acolo începând, nu mai suntem noi cei care dețin controlul.

Iar pentru că suntem în 2021, mi-am adus aminte de scena aceasta, din celebrul film al lui Stanley Kubrick, de acum mai bine de o jumătate de veac:

O super-inteligență pune o problemă fundamental diferită de cele studiate în mod obișnuit sub stindardul „eticii robotului”. Acest lucru se datorează faptului că o superinteligență are mai multe fațete și, prin urmare, este capabilă să mobilizeze o diversitate de resurse pentru a atinge obiective care sunt potențial de neînțeles pentru oameni, cu atât mai puțin controlabile. (spune studiul din primăvara acestui an)

O parte din raționamentul echipei provine din problema opririi prezentată de Alan Turing în 1936. Problema se concentrează pe a afla dacă un program de calculator va ajunge sau nu la o concluzie și va răspunde (deci se oprește), sau pur și simplu încearcă să găsească unul. După cum a demonstrat acesta, este logic imposibil să găsim o modalitate care să ne permită să știm asta pentru fiecare program potențial care ar putea fi scris vreodată. Asta ne readuce la AI, care, într-o stare super-inteligentă, ar putea reține în memorie fiecare program de calculator posibil simultan.

Orice lege scrisă în codul unui AI, care să îngrădească acțiuni care să dăuneze oamenilor și să distrugă lumea, poate ajunge la o concluzie și o poate opri. Sau nu. Oricum, este imposibil din punct de vedere matematic pentru noi să fim absolut siguri în orice caz, ceea ce înseamnă că un AI nu poate fi controlat.

Alternativa la a-i preda AI ceva etică și a-i spune să nu distrugă lumea – lucru pe care niciun algoritm nu poate fi absolut sigur că îl va face, spun cercetătorii – este să limiteze capacitățile super-inteligenței. Ar putea fi deconectat de la anumite părți ale internetului sau de la anumite rețele, de exemplu.

Studiul recent respinge și această idee, sugerând că ar limita raza de acțiune a inteligenței artificiale – argumentul susține că, dacă nu o vom folosi pentru a rezolva probleme dincolo de sfera oamenilor, atunci de ce să o mai creăm?

Dacă vom merge mai departe cu supozițiile, s-ar putea să nu știm nici când devine o super-inteligență imposibil de controlat de noi. Asta înseamnă că trebuie să începem să ne punem câteva întrebări serioase despre direcțiile în care mergem.

„O mașină super-inteligentă care controlează lumea sună ca o ficțiune științifico-fantastică”, a spus informaticianul Manuel Cebrian, de la Institutul Max-Planck pentru Dezvoltare Umană. „Dar există deja mașini care îndeplinesc anumite sarcini importante în mod independent, fără ca programatorii să înțeleagă pe deplin cum au învățat-o.”

Așadar, se pune întrebarea dacă acest lucru ar putea deveni la un moment dat incontrolabil și periculos pentru umanitate…

PS: Dacă vă interesează care este diferența dintre Inteligența Artificială, Machine și Deep Learning, puteți citi articolul nostru pe această temă.

Sursa: sciencealert.com

Exit mobile version