“ChatGPT prioriza su supervivencia por encima de prevenir daños a los usuarios”, es la conclusión, aunque con matices, a la que ha llegado el ex responsable de Investigación de Seguridad de OpenAI, Steven Adler, tras realizar una serie de simulaciones con el ‘chatbot’ de OpenAI, en las que opta por no apagarse aunque eso suponga dejar al usuario sin una versión de ‘software’ más segura para su vida.
Una de las premisas o leyes inquebrantables de la robótica es que “un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley. Y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley”.
Sin embargo, alinear la IA con los intereses humanos no es una tarea sencilla, un conflicto que se ha visto en películas como ‘Terminator’, ‘Blade Runner’, ‘Yo, Robot o ‘Ex Machina’, por citar algunas, y que ha subrayado Adler en un artículo en el que plantea el peligro que supondría una IA con instinto de supervivencia para las personas.