
Acum mulți ani, un coleg cu senioritate în domeniu îmi sugera să traduc documentația de la serviciu cu Google Translate.
Pe atunci deepl.com sau ChatGPT (cu toate rudele lui) nu erau cunoscute, așa că îmi dădea singura opțiune posibilă. Atunci l-am blocat cânt l-am întrebat dacă știe că datele pe care le pun eu acolo devin publice, iar secrete corporatiste interne ar putea ajunge publice. Peste ani, ceva ce mi se părea că nu voi vedea prea des prin lume, a ajuns la un nivel colosal de incompetență, neprofesionalism și delăsare.
Șeful interimar al agenției americane care apără rețelele guvernamentale și infrastructura critică a introdus în varianta publică a ChatGPT documente de achiziții marcate „numai pentru uz oficial”, potrivit unor oficiali din Departamentul pentru Securitate Internă citați de Politico. Deși documentele nu erau clasificate, ele erau considerate sensibile și nu eriau destinate publicului, iar încărcarea lor a declanșat alerte automate interne care sunt făcute exact ca să prevină scurgerile accidentale de informații din rețelele statului. După aceste alerte, a existat o evaluare internă la nivelul Departamentului pentru Securitate Internă pentru a vedea dacă au existat efecte negative asupra securității, însă nu este clar ce concluzii a tras evaluarea.
Situația este cu atât mai importantă cu cât, potrivit surselor citate, șeful interimar ceruse o excepție specială ca să poată folosi ChatGPT, într-o perioadă în care accesul era blocat pentru majoritatea angajaților din Departamentul pentru Securitate Internă. Într-o poziție transmisă presei, purtătoarea de cuvânt a agenției a spus că el a primit permisiune temporară, cu controale ale departamentului, și că utilizarea a fost „limită” și pe termen scurt, adăugând că accesul la ChatGPT rămâne blocat implicit pentru personal, dacă nu există o excepție aprobată.
Dacă nu ați prins ideea până acum, iată explicația la nivelul pe care și Madhu Gottumukkala ar fi trebuit să îl înțeleagă: când încarci un document într-un instrument public, informația ajunge la furnizorul acelui instrument, iar riscul este să fie păstrată, analizată sau folosită în diverse moduri, inclusiv pentru a îmbunătăți răspunsurile către alți utilizatori. Cine s-ar fi gândit la asta? Sigur nu șeful securității cibernetice SUA, veți zice. Măcar are o scuză – era numit interimar. 🙂
Revenind, din acest motiv enunțat mai sus, multe instituții preferă instrumente interne, construite astfel încât datele să nu iasă din rețeaua guvernamentală. În cazul de față, aceeași investigație menționează existența unei soluții interne folosite în departament, gândită tocmai ca să evite ieșirea datelor în afara rețelei.
Pe scurt, acest episod arată, dincolo de persoană, o lecție simplă pentru orice organizație – dacă oamenii din conducere nu respectă regulile de bază privind datele, e foarte greu să ceri disciplină de la restul. În plus, „documente sensibile dar neclasificate” sunt fix categoria care se scurge cel mai ușor și care poate produce pagube reale (de exemplu, despre furnizori, prețuri, planuri, proceduri), chiar dacă nu vorbim de secrete de stat.
Eu cred că soluția corectă nu este să interzici orice instrument de inteligență artificială, ci să oferi rapid o variantă sigură, aprobată, cu reguli clare și cu exemple concrete despre ce ai voie și ce nu ai voie să introduci într-un chatbot. Când alternativa sigură lipsește, oamenii vor folosi oricum varianta publică – iar riscurile cresc, exact cum se vede aici.
Aș fi ignorat știrea, dacă nu mi-aș fi adus aminte de un alt înalt demnitar american, care a dat cu oiștea în gard din cauza tehnologiei pe care nu o înțelegea sau nu o stăpânea (ar mai fi câteva posibile cauze, dar să nu fim răutăcioși, că poate avem nevoie de viză de intrare in SUA):
Practic, vedem că administrația Trump nu prea e capabilă să se decurce într-o lume digitală, iar asta ar putea explica nevoia lor de a schimba paradigma mondială: revenim la dosarele cu șină, unde România ar putea fi lider de necontestat. 😛
Dacă v-a scăpat cumva știrea de ieri, despre cenzura guvernamentală de pe TikTok, o puteți citi aici. Iar pentru cei care vor să aprofundeze utilitatea ChatGPT, vă rog aruncați un ochi aici.





Tare