
FUENTE DE LA IMAGEN, GETTY IMAGES «No tiene sentido antropomorfizar los modelos conversacionales actuales», aseguran en Google.
Pero, a juicio de Brian Gabriel, portavoz de Google, «no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sintientes». Es decir, los que son como LaMDA.
«Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases y pueden hablar sobre cualquier tema fantástico», dijo.
En el caso concreto de LaMDA, explicó que «tiende a seguir las indicaciones y las preguntas que se le formulan, siguiendo el patrón establecido por el usuario».
Sobre este sistema, Gabriel explica que LaMDA ha pasado por 11 revisiones distintas sobre los principios de la inteligencia artificial «junto con una rigurosa investigación y pruebas basadas en métricas clave de calidad, seguridad y la capacidad del sistema para producir declaraciones basadas en hechos».
Asegura que son cientos los investigadores e ingenieros que han conversado con el chatbot y que no hay constancia «de que nadie más haya hecho afirmaciones tan amplias, ni haya antropomorfizado a LaMDA, como lo ha hecho Blake».