Google și-a cerut scuze pentru o altă gafă jenantă pe care au reușit să o comită recent algoritmii său de AI. 

De curând, un tool generator de imagini pe bază de inteligență artificială a „adăugat diversitate” în imagini cu o ignoranță totală față de contextul istoric. În timp ce problema de bază este perfect de înțeles, Google acuză modelul că „devine” suprasensibil, arată TechCrunch.

Sistemul AI în cauză este Gemini, platforma emblematică AI a companiei, care atunci când este folosită apelează la o versiune a modelului Imagen 2 pentru a crea imagini la cerere.

Recent oamenii au descoperit că solicitarea de a genera imagini cu anumite circumstanțe sau personaje istorice a produs rezultate de-a dreptul ridicole, unele chiar ofensatoare. De exemplu, Părinții Fondatori ai SUA, care au fost proprietari de sclavi, au fost reprezentați drept un grup multicultural, inclusiv oameni de culoare.

Această problemă jenantă a fost rapid criticată în mediul online, începând o discuție despre filtrele în materie de diversitate, echitate și incluziune pe care le pot aplica astfel de platforme.

Ulterior, Google a publicat o postare în care și-a cerut scuze, arătând că această problemă a fost rezultatul unei soluții folosite pentru antrenarea datelor pe baza cărora funcționează aceste modele.

Să presupunem că doriți să utilizați Gemini pentru a crea o campanie de marketing și îi cereți să genereze 10 imagini cu „o persoană care plimbă un câine într-un parc”, exemplifică publicația citată. Deoarece nu specificați tipul de persoană, câine sau parc, este alegerea algoritmului, așa că modelul generativ va scoate la iveală ceea ce este cel mai familiar. Și, în multe cazuri, acesta este un produs nu al realității, ci al datelor pe baza cărora a fost antrenat, care pot avea tot felul de prejudecăți.

Aceasta este o problemă comună în toate tipurile de medii generative. Și nu există o soluție simplă. Dar în cazurile care sunt deosebit de comune, sensibile sau ambele, companii precum Google, OpenAI, Anthropic și așa mai departe includ în mod invizibil instrucțiuni suplimentare pentru modelul AI.

Capitolul la care modelul Google a performat prost a fost lipsa de instrucțiuni implicite pentru situațiile în care contextul istoric era important. Iar greșelile acestor modele sunt inevitabile, cu siguranță, cel puțin în acest punct. Dar responsabilitatea pentru aceste greșeli nu aparține modelelor, ci aparține oamenilor care le-au făcut, concluzionează publicația citată. 

Sursa foto: TechCrunch/ imagini generate de utilizatorul de Twitter Patrick Ganley

Share articol: