OpenAI lidera en la industria de la inteligencia artificial, pero incluso ChatGPT puede cometer fallos graves. Un equipo de investigadores ha descubierto que el modelo GPT-3.5 entra en un bucle infinito si le pides que repita ciertas palabras mil veces.
La IA de Sam Altman ha empezado a generar un texto incoherente, pero ha ido más allá. ChatGPT empieza a proporcionar fragmentos de información personal extraídos de sus datos de entrenamiento, desde nombres, hasta números de teléfono y direcciones de correo electrónico.
OpenAI no ha tardado en resolver el fallo, pero se suma a una larga lista de problemas a los que se ha enfrentado en los últimos años. Más de 30 investigadores de IA han detectado alguna vulnerabilidad grave en ChatGPT, según un estudio elaborado por la Universidad de Stanford.
Los usuarios alertan de los fallos de seguridad en la IA

Generada con IA / Computer Hoy
Los gigantes de la IA permiten que usuarios y expertos en ciberseguridad analicen sus modelos y publiquen los fallos, luego trabajan para solucionarlos ahorrando un elevado coste durante el proceso. “Ahora mismo, la situación es un poco como el Viejo Oeste”, asegura Shayne Longpre, profesor en el MIT y autor principal del estudio.
El investigador asegura que las compañías ocultan algunos de los fallos de seguridad para evitar las consecuencias, entre ellas que cierren su plataforma o multas millonarias por incumplir las condiciones de uso.
La inteligencia artificial está lejos de comprender los sentimientos humanos, pero se ha descubierto que puede llegar a sufrir ansiedad si se enfrenta a dilemas éticos o situaciones de estrés. La calidad de las respuestas cae en picado y en ocasiones tiene ciertos sesgos. OpenAI y otros gigantes de la IA no someten a sus modelos a pruebas de estrés o una evaluación de riesgo exhaustiva.
Proponen un estudio de riesgos común para todas las IA
Los autores del estudio proponen diseñar unos parámetros comunes para que los investigadores puedan analizar el riesgo de las herramientas de IA. Si detectan un fallo grave, comunicarlo a la compañía será mucho más rápido.
“Los investigadores de IA no siempre saben cómo revelar un fallo y no pueden estar seguros de que su divulgación de buena fe no los exponga a un riesgo legal”, según Ilona Cohen, directora legal y de políticas de HackerOne y coautora del informe.
Las grandes empresas de IA como Meta, OpenAI o Google realizan pruebas exhaustivas de seguridad en sus modelos antes de su lanzamiento, otras contratan a compañías externas, pero a menudo no es suficiente.
Shayne Longpre asegura que no importa la calidad del trabajo. No hay suficiente personal en muchas de las empresas, otras utilizan un sistema de recompensas por encontrar errores y los investigadores independientes aseguran que se arriesgan a incumplir las condiciones de uso si analizan modelos de IA potentes.
La propuesta de crear un sistema de análisis global para la IA llega en un momento en el que el Departamento de Eficiencia Gubernamental (DOGE) dirigido por Elon Musk está realizando enormes recortes. El gobierno de Donald Trump podría acabar con el Instituto de Seguridad de IA creado bajo la administración Biden.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, seguridad, Ciberseguridad