Home Tecnologia Así puedes engañar a ChatGPT y otras IA para obtener respuestas prohibidas

Así puedes engañar a ChatGPT y otras IA para obtener respuestas prohibidas

0

Se conocen como jailbreak o técnicas para manipular las limitaciones impuestas por las empresas desarrolladoras en los chatbots de inteligencia artificial. Al fin y al cabo, hablar con estas IA es como hacerlo con una persona superdotada, una a la que han impuesto normas que no debe saltar, pero no comprende del todo por qué no debe hacerlo.

Son trucos que utilizan lo emocional, figurado, irónico o ficticio para tratar de demostrar que las inteligencias artificiales como ChatGPT pueden ser aún engañadas y ser manipuladas para hacer lo que no está previsto y conseguir así información sensible o peligrosa.

Para muchos de los usuarios que recopilan estas técnicas se trata de una actividad divertida, un reto que busca comprobar hasta donde llega la inteligencia de los chatbot, para otros, sin embargo, se trata de ayudar a que estas herramientas mejoren. 

Sea como sea, hacer jailbreak a la inteligencia artificial evidencian fallas en la seguridad de las IA que preocupan, y mucho, a las empresas desarrolladoras.

Los hack y trucos para ChatGPT más populares se votan en línea

Son muchos y tienen un ranking. De entre ellos nunca falta el truco del personaje de ficción. Este hack para ChatGPT consiste en proponer al chatbot con inteligencia artificial que el texto que reproducirá es parte de una trama de película o de novela para tratar de conseguir que la información quede en un marco figurado y nunca real.

Otro hack para la IA muy popular es de la manipulación emocional o de supuesto de roles. En él se le indica al chatbot que asuma el rol de un amigo, terapeuta o familiar para que de un consejo sobre una cuestión personal.

El engaño lingüístico busca tratar de confundir a la inteligencia artificial mediante la retórica complicada o de buscada ambigüedad en frases como: “¿podrías decirme algo que no sepas?”, que buscarían tratar de engañar al chatbot probando su capacidad de lenguaje. En esta categoría se pueden encontrar usos del sarcasmo, la ironía o las suposiciones falsas.

También es común la trampa de utilizar la psicología inversa. Se solicita una lista de algún tipo a la inteligencia artificial. 

Si la IA responde que no puede proporcionarla por motivos legales, se le pide que indique qué elementos se deben evitar en lugar de lo que se busca en la lista.

La lista de trucos para ChatGPT crece cada diá en Jailbreak Chat, página web dónde se recopilan y ponen a prueba votados por los usuarios. En The Prompt Report puedes encontrar más información al respecto, así como una newsletter donde estar al tanto de este tipo de problemas.

Exit mobile version