Tecnología

Google fulmina al ingeniero que afirmó que su IA tiene sentimientos humanos

El ingeniero de software Blake Lemoine ya es historia de Google. Después de pasar aproximadamente un mes suspendido de empleo por afirmar que la inteligencia artificial LaMDA había desarrollado «sensibilidad y consciencia», la empresa ha tomado finalmente la determinación de despedir al trabajador. Así lo ha anunciado se lo ha confirmado el buscador a varios medios estadounidenses después de que el exempleado compartiese la situación con ‘Big Technology’.

Chris Pappas, portavoz de Google, ha justificado la decisión afirmando, en declaraciones recogidas por ‘The New York Times’, que Lemoine «optó por violar persistentemente políticas claras de empleo y seguridad de datos que incluyen la necesidad de salvaguardar la información del producto».

El ‘jaleo’ comenzó, efectivamente, el pasado mes de julio, cuando el ingeniero afirmó en entrevista con ‘The Washington Post’ que el potente chatbot de Google había desarrollado cualidades propias de un ser humano.

Lemoine también divulgó a través de un post en su cuenta de Medium algunas de las conversaciones que había mantenido con la máquina durante los seis meses que había estado trabajando con ella. Precisamente, el haber compartido estos datos ha sido la excusa empleada la tecnológica, primero, para suspenderlo y, finalmente, para despedirlo.

Una vez el ingeniero compartió datos internos de la empresa, Google no tardó en pronunciarse y desacreditar las palabras de Lemoine sobre la posibilidad de que el ingenio hubiese desarrollado cualidades propias de un ser humano. «Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado de que la evidencia no respalda sus afirmaciones», dijo Brian Gabriel, un portavoz de Google, en un comunicado.

Expertos en IA a nivel global también se hicieron eco de las afirmaciones del ingeniero descartando totalmente la posibilidad.

«Actualmente no existe un sistema que haya desarrollado una personalidad. Simplemente es un reflejo de los patrones de los datos que han alimentado el algoritmo. Si las conversaciones usadas son misóginas, el sistema mostrará dichos patrones. Eso no significa que en el futuro no llegue a existir un algoritmo que sea consciente de sí mismo en el mundo. Aunque la aproximación actual, basada solo en los datos recogidos o generados, no nos va a llevar a dicho hito», explicaba por entonces en conversación con ABC Josep Curto, experto en IA y profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universidad Oberta de Cataluña.

Fuente: abc.es

 

Salir de la versión móvil