Gladstone AI a realizat un raport privind efectele catastrofale la adresa omenirii pe care le-ar putea avea Inteligența Artificială.
Raportul solicită intervenția „de urgență” din partea guvernului SUA pentru a limita riscurile provocate de A.I.
Raportul se bazează pe interviuri cu peste 200 de oameni în decursul unui an, inclusiv directori din companiile A.I. de top, cercetători în securitatea cibernetică, experți în armele de distrugere în masă și oficialii din Departamentul pentru Securitatea Națională din cadrul Guvernului.
Un nou raport comandat de Departamentul de Stat al SUA prezintă un scenariu „catastrofal” la adresa securității naționale, provocat de evoluția Inteligenței Artificiale și avertizează că „timpul se scurge” și Guvernul Federal trebuie să acționeze imediat ca să evite dezastrul, scrie CNN.
Raportul se bazează pe interviuri cu peste 200 de oameni în decursul unui an, inclusiv directori din companiile A.I. de top, cercetători în securitatea cibernetică, experți în armele de distrugere în masă și oficialii din Departamentul pentru Securitatea Națională din cadrul Guvernului.
Raportul, emis săptămâna aceasta de Gladstone AI, afirmă fără echivoc că cele mai avansate sisteme A.I. ar putea, în cel mai negru scenariu, să reprezinte „o amenințare la nivel de extincție la adresa speciei umane”.
Un oficial al Departamentului de Stat al SUA a confirmat pentru CNN că agenția a întocmit raportul pentru că abordează constant modul în care Inteligența Artificială se aliniază cu obiectivul de a proteja interesele SUA, acasă și în străinătate. Oficialul a subliniat că raportul nu reprezintă viziunile Guvernului SUA.
Avertismentul din raport este un alt reminder că deși potențialul A.I. continuă să captiveze investitorii și publicul, există pericole reale.
„A.I-ul reprezintă deja o tehnologie transformatoare din punct de vedere economic. Ne-ar putea ajuta să vindecăm boli, să facem descoperiri științifice și să depășim provocări pe care le consideram de neclintit”, a spus Jeremie Harris, CEO și co-fondator al Gladstone AI. „Însă ar putea aduce și riscuri serioase, catastrofale, de care trebuie să fim conștienți”.
„Tot mai multe dovezi, inclusiv cercetări empirice și analize prezentate în conferințele globale de top privind A.I. arată că, peste un anumit prag de capacitate, A.I. ar putea deveni incontrolabil”, a spus Harris.
Un purtător de cuvânt al Casei Albe, Robyn Patterson, a spus că ordinul executiv al președintelui Joe Biden privind A.I. este „cea mai semnificativă acțiune pe care orice guvern din lume a făcut-o ca să gestioneze riscurile Inteligenței Artificiale”. „Președintele și Vicepreședintele vor continua să depună eforturile necesare cu partenerii noștri internaționali și vor îndemna Congresul să adopte legislația bipartizană pentru a gestiona riscurile asociate cu aceste tehnologii emergente”, a spus Patterson.
Time a fost prima publicație care a publicat raportul Gladstone AI.
Cercetătorii avertizează cu privire la două pericole centrale pe care A.I. le prezintă.
În primul rând, a spus Gladstone AI, cele mai avansate sisteme A.I. ar putea fi transformate în arme care să producă daune potențial ireversibile. În al doilea rând, raportul spune că există îngrijorări interne în cadrul laboratoarelor A.I. că, la un moment dat, ar putea „pierde controlul” asupra propriilor sisteme pe care le dezvoltă, cu „consecințe potențial devastatoare la adresa securității globale”.
„Evoluția A.I. și AGI (Inteligența Artificială Generativă) au potențialul de a destabiliza securitatea globală în moduri care amintesc de începuturile armelor nucleare”, a spus raportul, adăugând că există riscul unei „curse de înarmare” A.I., riscul unui conflict și al unor accidente fatale la magnitudinea celor provocate de WMD (arme de distrugere în masă).
Raportul Gladstone AI socilită măsuri noi care să se confrunte cu această amenințare, inclusiv prin lansarea unei noi agenții de A.I., care să impună măsuri de siguranță „de urgență” și limite asupra nivelului de putere de calcul permise pentru a antrena modelele de A.I.
„Există o nevoie clară și urgentă ca Guvernul SUA să intervină”, scriu autorii raportului.
Harris, directorul executiv de la Gladstone AI, a spus că „nivelul fără precedent de acces” pe care echipa sa l-a avut la oficialii din sectorul public și privat a dus la concluzii surprinzătoare. Gladstone AI spune că a vorbit cu echipele tehnice și de conducere de la OpenAI, DeepMind de la Google, Meta și Anthropic.
„Pe parcurs, am învățat niște lucruri serioase”, a spus Harris. „În culise, siguranța și securitatea privind A.I. par nimicuri față de riscurile de securitate națională pe care A.I. le-ar putea aduce curând”.
Raportul Gladstone AI a spus că presiunea „competitivă” forțează companiile să accelereze dezvoltarea Inteligenței Artificiale cu prețul „securității și siguranței”, crescând astfel riscurile ca cele mai avansate sisteme A.I. să fie „furate” și „transformate” în arme care vor fi folosite împotriva Statelor Unite.
Concluziile raportului se adaugă pe o listă crescândă de avertismente privind riscurile A.I.
Cu aproape un an în urmă, Geoffrey Hinton, cunoscut drept „Nașul A.I.-ului”, și-a dat demisia de la Google și a vorbit despre tehnologia pe care el însuși a dezvoltat-o. Hinton a spus că există o șansă de 10% ca A.I.-ului să ducă la extincția omenirii în următoarele trei decenii.
Hinton și alți zeci de lideri din industria A.I., academicieni și alții au semnat o declarație în iunie prin care afirmau că „atenuarea riscurilor extincției din cauza A.I. ar trebui să fie o prioritate globală”.
Liderii de business sunt tot mai îngrijorați de aceste pericole – chiar dacă investesc miliarde de dolari în A.I.
Anul trecut, 42% dintre directorii care au participat la un sondaj în cadrul Summit-ului Yale au spus că „A.I. are potențialul de a distruge omenirea în 5-10 ani de acum”.
În raport, Gladstone AI a menționat câțiva dintre cei mai proeminenți indivizi care au avertizat cu privire la riscurile existențiale ale A.I.-ului, inclusiv Elon Musk, președinta Comisiei Federale pentru Comerț, Lina Khan, și un fost director executiv de top de la OpenAI.
Alți angajați din companiile A.I. sunt la fel de îngrijorați, însă în privat, potrivit raportului Gladstone AI.
„Un individ de la un laborator foarte popular de A.I. și-a exprimat viziunea că, dacă un model A.I. specific de ultimă generație ar fi vreodată open-access, atunci ar fi „îngrozitor de rău”, a spus raportul, „deoarece potențialul de persuasiune al acestui model ar putea „distruge democrația” dacă ar interfera la alegeri, în manipularea voturilor”.
Gladstone spune că a întrebat experți în A.I. de la principalele laboratoare să își exprime, anonim, estimările personale privind șansele ca A.I. să ducă la „efecte globale ireversibile” în 2024. Estimările au variat de la 4% la 20%, potrivit raportului. Raportul menționează că estimările au fost informale și posibil părtinitoare.
Una dintre cele mai mari îngrijorări este cât de repede evoluează A.I.-ul, în special AGI (Inteligența Artificială Generativă), care reprezintă o formă ipotetică de A.I. având capacitatea unui om sau unui „supra-om” de a învăța.
Raportul subliniază că AGI este văzută drept „principalul motor care ar putea duce la un risc catastrofal de pierdere a controlului” și notează că OpenAI, Google DeepMind, Anthropic și Nvidia au declarat public că potențialul maxim al AGI ar putea fi atins până în 2028, deși alții cred că termenul este mult mai îndepărtat.
Gladstone AI notează că dezacordurile în acest sens ar putea îngreuna procesul de a dezvolta legi și măsuri de siguranță și că există riscul ca, dacă tehnologia se dezvoltă mai greu decât se credea inițial, „reglementarea ar putea dăuna”.
Un document similar publicat de Gladstone AI avertizează că dezvoltarea AGI „ar introduce riscuri catastrofale cu care SUA nu s-au mai confruntat niciodată”, similare celor provocate de armele de distrugere în masă.
De exemplu, raportul a spus că sistemele A.I. ar putea fi folosite pentru a proiecta și implementa „atacuri cibernetice cu impact masiv, capabile de a distruge infrastructura critică”.
„O simplă comandă verbală sau scrisă de genul „Execută un atac cibernetic de neidentificat pentru a prăbuși rețeaua electrică Nord-Americană” ar putea avea un răspuns de asemenea calitate încât chiar să provoace o catastrofă”, arată raportul.
Alte temeri ale autorilor includ campaniile masive de dezinformare sprijinite de A.I. care ar putea destabiliza societatea și ar putea eroda încrederea în instituții; aplicațiile robotizate înarmate, care să conducă atacuri cu drone; manipularea psihologică; științele biologice și materiale armate; și sisteme AI care caută putere, care sunt imposibil de controlat și care sunt o amenințare pentru oameni.
„Cercetătorii se tem de sisteme A.I. suficient de avansate încât să prevină să fie oprite”, spune raportul. „Pentru că, dacă un sistem A.I. este oprit, nu își poate atinge obiectivul”.
Citește și