Ideea ca inteligența artificială să acapareze omenirea este discutată de zeci de ani, iar în 2021, oamenii de știință au dat verdictul lor cu privire la posibilitatea de a controla un AI superior, iar răspunsul poate fi îngrijorător.
Specialiștii cred că ne-ar fi imposibil să ținem piept unei inteligențe artificiale extrem de evoluate pentru că, dacă nu suntem capabili să o înțelegem, este imposibil să creăm o simulare prin care să o ținem sub control.
Reguli precum „nu răniți oamenii" nu pot fi stabilite dacă nu înțelegem tipul de scenarii pe care o inteligență artificială le va concepe, sugerează autorii noii lucrări. Odată ce un sistem informatic funcționează la un nivel superior celui al programatorilor umani, nu mai putem stabili limite.
„Acest lucru apare pentru că o superinteligență are mai multe fațete și, prin urmare, este potențial capabilă să mobilizeze o diversitate de resurse pentru a atinge obiective care poate că sunt de neînțeles pentru oameni, ca să nu mai vorbim de cele controlabile”, au explicat specialiștii.
O parte din raționamentul echipei a pornit de la problema deciziei, prezentată de Alan Turing în 1936. Problema se axează pe a ști dacă un program de calculator va ajunge sau nu la o concluzie și la un răspuns (deci se oprește), sau pur și simplu va face o buclă la nesfârșit încercând să găsească unul.
După cum a demonstrat Turing prin intermediul unor calcule matematice inteligente, deși putem afla acest lucru pentru anumite programe specifice, este imposibil din punct de vedere logic să găsim o modalitate care să ne permită să fim siguri de acest lucru pentru fiecare program potențial care ar putea fi scris vreodată. Acest lucru ne aduce înapoi la inteligența artificială, care, ajunsă la stadiul de superinteligență, ar putea trece de această limită.
Orice program scris pentru a împiedica un AI să facă rău oamenilor și să distrugă lumea, de exemplu, poate ajunge la o concluzie (și să se oprească) sau nu - este matematic imposibil pentru noi să fim absolut siguri în ambele cazuri, ceea ce înseamnă că nu este controlabil.
Alternativa la a învăța inteligența artificială ceva etică și a-i spune să nu distrugă lumea - lucru pe care niciun algoritm nu poate fi absolut sigur că îl va face, au spus cercetătorii - este de a limita capacitățile super-inteligenței. Aceasta ar putea fi izolată de anumite zone ale Internetului sau de anumite rețele, de exemplu.
„O mașină super-inteligentă care controlează lumea sună a science-fiction", a declarat informaticianul Manuel Cebrian de la Institutul Max-Planck pentru Dezvoltare Umană. „Dar există deja mașinării care îndeplinesc anumite sarcini importante în mod independent, fără ca programatorii să înțeleagă pe deplin cum au învățat acest lucru”, a completat acesta.
__________________________________________________________________________________________________
Urmăriți emisiunile preferate pe protvplus.ro: