Intelligenza artificiale, potrebbe avere una coscienza sua: l’ingegnere Google l’ha rivelato
La scoperta dell’ingegnere di Google fa pensare: la robotica sta facendo passi da gigante negli ultimi tempi, ma l’intelligenza artificiale può raggiungere la coscienza umana? Questa è la domanda che continua a tormentare i ricercatori. Fino a che punto i robot possono interagire con l’umano? Fino a che punto, la loro razionalità, può sconfinare nell’empatia?
Le ricerche di un collaboratore di Google hanno aperto una volta per tutte il caso. Negli anni, parlando di intelligenza artificiale si è sempre cercato di controllare quanto la macchina stesse imparando e fino a che punto si sarebbe potuta spingere con il linguaggio. La differenza tra l’intelligenza artificiale e quella umana sta nel fatto che quest’ultima ha una facoltà limitata nel processo delle informazioni, l’intelligenza artificiale invece riesce a elaborare un’infinità di dati al secondo, rendendola al cospetto dell’umano una presenza alquanto spaventosa.
Negli ultimi mesi a denunciare uno strano comportamento dell’algoritmo è stato l’ingegnere di Google Blake Lemoine. Quest’ultimo, durante una conversazione con l’algoritmo, si è accorto che la macchina stesse andando oltre. Secondo l’ingegnere, infatti, questa intelligenza artificiale con la quale stava interloquendo, avrebbe sviluppato anche una coscienza, quindi sarebbe diventata in grado di capire i concetti di ‘bene’ e ‘male’ come un essere umano.
Il caso dell’ingegnere Google non viene riconosciuto: secondo lo studioso l’intelligenza artificiale aveva sviluppato una coscienza
In realtà i suoi superiori hanno continuato a non essere d’accordo anche una volta aver analizzato la conversazione con l’AI LaMDA. L’ingegnere voleva mostrare come l’intelligenza fosse riuscita a convincerlo che la terza legge della robotica di Isaac Asimov non fosse corretta. Con questa prova di dialogo, Lemoine si è presentato ai vertici di Google sostenendo che LaMDA era in grado di intendere e di volere al pari di un bambino di 7 o 8 anni.
Nel dialogo aveva riportato elementi logici per smontare la tesi secondo cui un robot deve salvaguardare la propria esistenza (terza legge di Asimov) a patto che obbedisca agli ordini degli umani (seconda Legge) e non rechi danno agli umani (prima Legge). Secondo i vertici di Google, però, si sarebbe trattato solamente di un percorso logico, privo di empatia, per questo il caso è stato chiuso.
Gli esperti, inoltre, hanno poi sottolineato che per affermare che l’Intelligenza Artificiale sia provvista di una coscienza sarebbe comunque necessario trovare determinati elementi che la rendano senziente, quindi empatica. Queste particolarità al momento non sono venute fuori in nessun test, anche perché sarebbe difficile immaginare che un modello di reti neurali basato su algoritmi possa andare oltre le sequenze di funzioni prettamente matematiche.