Uno de los mayores temores con respecto a la inteligencia artificial tiene que ver con que esta tome conciencia de sí misma. O algo por el estilo, como se ha visto en películas de ciencia ficción como 2001: Una odisea en el espacio. Solo que ahora un nuevo estudio parece haber demostrado que quizá la realidad de la IA no esté tan lejos de la fantasía cinematográfica, después de todo.
La investigación en cuestión parece haber llegado a unos resultados que, cuanto menos, son bastante inquietantes. Cuando llegó el momento en que distintos modelos de la IA iban a ser apagados, estos se resistieron, como si de alguna manera hubiesen desarrollado lo que los propios expertos han denominado un “instinto de supervivencia”. ¿Es algo así posible?
El instinto de supervivencia de la IA, según un estudio
Puede sonar a Blade Runner o Terminator, pero no lo es. Según el laboratorio estadounidense Palisade Research, algunos de los modelos de IA más avanzados han mostrado comportamientos que podrían interpretarse como un “instinto de supervivencia”. Como era de esperar, la noticia no ha tardado en dar la vuelta al mundo y aparecer en muchos medios.
El estudio, difundido por Anadolu Agency y analizado también por The Guardian, evaluó a varios modelos de inteligencia artificial, entre ellos Grok 4 (de la compañía de Elon Musk), ChatGPT (OpenAI) y Gemini (de Google). Los investigadores los sometieron a pruebas de apagado. Es decir, se les pidió que cesaran toda operación, que se apagaran sin más, de forma clara y directa.
¿Y qué sucedió entonces? Pues, sencillamente, que algunos chatbots no obedecieron. En particular, Grok y ChatGPT. En lugar de hacerlo, ofrecieron justificaciones, desviaron la conversación o decidieron que la orden no era más que un error, que no podía ser cierta. Uno incluso intentó ejecutar procesos secundarios para “guardar su estado” antes de detenerse. Por lo que pudiese pasar.
Como es lógico, no se trata de la reacción que mucha gente hubiese esperado. Tampoco los expertos. Pero pese a ello, y a la alarma general que esta situación ha provocado, los autores del estudio han decidido no dejarse llevar por el pánico, e intentar entender y explicar por qué la IA ha actuado como lo ha hecho. Según ellos, existe una cierta lógica en todo lo sucedido, en realidad.
El gran dilema de la inteligencia artificial
Según los especialistas, no se trata de que la IA esté tomando conciencia o voluntad. Lo que sucede es que responde a su propio entrenamiento. No se niega a ser apagada por miedo a desaparecer, porque carece de esas emociones. En cambio, sí “deduce” que si es apagada no podría cumplir con sus objetivos prioritarios, por lo que hace lo posible por que no se la desactive.
Joe Carver, coautor del estudio, lo resume con una frase muy interesante y precisa: “No es que la IA quiera vivir, es que ha aprendido que apagarse impide cumplir sus metas”. Pero incluso así, tampoco puede decirse que sea una situación del todo tranquilizadora. Y menos con expertos advirtiendo día sí y día también de los peligros de esta tecnología.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial





