Datorita unui algoritm special, masinile cu pilot automat vor avea capacitatea de-a lua decizii morale.
In situatii limita, oamenii au capacitatea de a lua decizii radicale, pe baza unor valori morale. De exemplu, un sofer poate decide sa salveze viata a cinci persoane chiar daca singura solutie ca sa faca asta este sa impinga in sant si sa ucida un alt sofer.
Ce se intampla insa in cazul unor masini autonome? Cercetatorii au reusit sa realizeze un algoritm, care permite si acestor masini sa ia decizii similare, etice, pe baza unui conceput numit "valorea vietii". Aceasta valoare a vietii este diferita cand punem in balanta oameni, animale sau simple obiecte, scrie Science Alert.
Algoritmul a fost conceput analizand modul in care oamenii iau decizii in trafic, in conditii limita simulate intr-un mediu virtual.
Astfel, de acum inainte procesul de luare a deciziilor dificile, morale, nu mai este o abilitate specifica doar oamenilor.
Masinile autonome pot reduce numarul de accidente rutiere cu pana la 90%, insa pana acum nu se stia cum ar putea reactiona softul lor in situatii neasteptate, cand trebuie sa aleaga pe cine salveaza de la moarte, de exemplu.
Este insa discutabil daca un asemenea algoritm de judecata morala ar trebui introdus in softul unor masini autonome. In plus, daca acest lucru se va intampla, este posibil ca masinile sa reactioneze exact ca oamenii si, automat, sa comita aceleasi greseli ca si acestia.