Un inginer de la Google a fost suspendat din activitate după ce a susținut public că un chatbot la care lucra ar fi devenit conștient de sine, exprimând trăiri umane.
Blake Lemoine, inginer de software la Google, a publicat transcrierea unei discuții cu LaMDA (Language Model for Dialog Applications), un chatbot despre care declară că a manifestat emoții și gânduri specifice unui om.
Specialistul susține că acest program care folosește algoritmi de inteligență artificială ar fi demonstrat o gândire similară unul copil de aproximativ 7 ani. Spre exemplu, softul ar fi recunoscut că se teme să nu fie oprit, ceea ce ar echivala cu moartea.
Aceasta declarații controversate ale inginerului de la Google au fost analizate de alți specialiști în domeniu, care nu sunt la fel de convinși de evoluția aparent spectaculoasă a unui software.
Adrian Weller, director de programe la Institutul Alan Turing, crede că orice chatbot învață să imite discursul unui om, iar această imitație poate să fie foarte bună. Totuși, acest lucru nu înseamnă că un software a devenit conștient de sine sau chiar simte ceea ce spune.
Weller precizează că dovezile prezentate de Lemoine nu pot susține ipoteza conștiinței de sine. El amintește că un chatbot cu inteligență artificială este diferit de versiunile simple folosite în prezent pe diferite platforme, pentru că acesta nu este prevăzut cu replici stabilite dinainte, ci poate funcționa cu un anumit grad de autonomie.
Softul primește acces la o bază foarte mare de date - în cazul acesta texte, discursuri - pe care le interpretează pe baza unor modele învățate, pentru a da răspunsuri potrivite în funcție de context.
La rândul său, profesorul Mike Wooldridge de la Universitatea Oxford declară că un chatbot este conceput special ca să imite cât mai bine comunicarea cu un om, prin urmare nu ar trebui să ne surprindă sau să ne îngrijoreze faptul că un algoritm a reușit performanța pentru care a fost programat.
Modul în care funcționează un soft de acest fel nu diferă foarte mult de clasica funcție autosuggest: computerul completează intuitiv un text cu anumite cuvinte, alegându-le pe cele folosite de obicei într-un context similar.
Un exemplu foarte bun, care arată cum un chatbot poate imita foarte realist discursul uman, este cazul lui Tay, un soft creat pentru Twitter în 2016, pentru a discuta cu tinerii.
După doar câteva ore de activitate, acel chatbot a început să folosească un limbaj rasist, extremist, dar nu pentru că ar fi manifestat asemenea înclinații, ci pentru că a fost expus la texte de acest fel, formulate de oamenii care i s-au adresat.
LaMDA, care este un charbot mult mai evoluat, a avut în schimb un discurs prin care vorbea despre drepturile sale și se considera a fi o persoană.