Home Investigacion en Intelligencia Artificial y Desarrollo de Algoritmos Desarrollo de Energia Nuclear y Avances en Fisica Nuclear Innovacion en Tecnología de Vanguardia
Los sistemas de inteligencia artificial (IA) le dicen al usuario lo que quiere oír. Se ha documentado que suele ser así cuando se le hacen preguntas sobre hechos. También se ha demostrado que eso entraña serios problemas para personas vulnerables a la manipulación o el engaño, llegando en algunos casos hasta el extremo del suicidio. Pero hasta ahora no se había investigado cómo reaccionan estos programas ante preguntas de corte puramente social. Un estudio publicado en la revista Science elaborado por un equipo de informáticos de la Universidad de Stanford confirma que los grandes modelos de lenguaje (LLM, por sus siglas inglesas), como ChatGPT o Gemini, tienden a ser complacientes o serviles en sus respuestas cuando se les consulta por dilemas personales. Y que dan la razón incluso si lo que se les pregunta implica comportamientos dañinos o ilegales, lo que a su vez tiene repercusiones en la forma en que el usuario percibe la realidad.

Como en Sudán, o casi. En su café delimitado por telas de colores y con suelo de tierra batida, Nafissa Boubaker prepara el café como en su país, con especias. Sin embargo, esta madre de 39 años está muy lejos de su tierra natal: le llevó un mes y 20.000 libras sudanesas (28,63 euros), una “fortuna” para ella, llegar hasta Kufra, la primera ciudad libia accesible desde las fronteras del sur de Egipto, Sudán y Chad.



