Home Investigacion en Intelligencia Artificial y Desarrollo de Algoritmos Desarrollo de Energia Nuclear y Avances en Fisica Nuclear Innovacion en Tecnología de Vanguardia

Kristina Ishmael (Arizona, 42 años), profesora y asesora educativa, pasó del aula a las responsabilidades políticas, primero como directora de tecnología educativa del Estado de Nebraska y luego dirigiendo la oficina de EdTech en el Departamento de Educación de Estados Unidos. Mientras ostentaba este último cargo, vivió el lanzamiento de ChatGPT en 2022. El anuncio causó una revolución y presume de que fue el primer ministerio de Educación en publicar un informe sobre inteligencia artificial. La agresiva política de Donald Trump acabó con el cierre de la oficina; actualmente, Ishmael, ahora convertida en expat, trabaja desde Barcelona como asesora para los ministerios de Educación de distintos países para fijar políticas entorno al uso de IA en las aulas. En febrero inauguró el Congreso Edtech de Barcelona, alabando sus potencialidades, pero con un punto de partida claro: “La IA no va a sustituir a los profesores”.

Este artículo es parte de la newsletter semanal de Tecnología, que se manda cada viernes. Si quiere apuntarse para recibirla, puede hacerlo en este enlace.
Los sistemas de inteligencia artificial (IA) le dicen al usuario lo que quiere oír. Se ha documentado que suele ser así cuando se le hacen preguntas sobre hechos. También se ha demostrado que eso entraña serios problemas para personas vulnerables a la manipulación o el engaño, llegando en algunos casos hasta el extremo del suicidio. Pero hasta ahora no se había investigado cómo reaccionan estos programas ante preguntas de corte puramente social. Un estudio publicado en la revista Science elaborado por un equipo de informáticos de la Universidad de Stanford confirma que los grandes modelos de lenguaje (LLM, por sus siglas inglesas), como ChatGPT o Gemini, tienden a ser complacientes o serviles en sus respuestas cuando se les consulta por dilemas personales. Y que dan la razón incluso si lo que se les pregunta implica comportamientos dañinos o ilegales, lo que a su vez tiene repercusiones en la forma en que el usuario percibe la realidad.