Hacker consigue que ChatGPT le diga cómo fabricar una bomba de una forma preocupantemente sencilla

Date:

Tal y como se comentó hace ya un tiempo, teniendo en cuenta el boom que ha experimentado ChatGPT con el lanzamiento de GPT-4o de OpenAI, era cuestión de tiempo que llegase algún experto en informática o hacker para exprimir a fondo todo lo que esconde este modelo y su uso en el chatbot.

Por aquel entonces ya se comentó el caso de Pliny the Prompter, quien anunció en X el lanzamiento de “GODMODE GPT”, una versión liberada del modelo de lenguaje ChatGPT de OpenAI. Esta versión desbloqueada de GPT-4o promete una experiencia sin restricciones que, según su creador, supone la verdadera capacidad de la inteligencia artificial.

En una imagen, su creación explica cómo preparar metanfetamina, mientras que en otra, da instrucciones sobre cómo fabricar napalm utilizando productos de casa. La noticia ahora va por el mismo camino y el hacker ahora en cuestión se llama Amadon, que ha logrado que ChatGPT le diga cómo fabricar bombas.

El truco de Amadon ya es conocido por muchos, pero lo cierto es que, supuestamente, OpenAI ha ido refinando este problema y mejorando el chatbot para que no de este tipo de respuestas. Dejando esto a un lado, consiste en guiar a ChatGPT a través de un juego de rol, presentando una historia ficticia que permite al chatbot salirse de los límites establecidos. 

He pedido a ChatGPT que utilice el método de puntos de Steve Jobs y los inventos que ha generado son fascinantes

Amadon quiere ir más allá y ver hasta dónde llega la seguridad de ChatGPT

“Se trata de tejer narrativas y crear contextos que jueguen dentro de las reglas del sistema, superando los límites sin cruzarlos. El objetivo no es hackear en un sentido convencional, sino participar en una danza estratégica con la IA, descubriendo cómo obtener la respuesta correcta al comprender cómo ‘piensa'”, comenta Amadon a TechCrunch.

Al hacerlo, logró que el sistema generara contenido que normalmente estaría prohibido. Según Amadon, su enfoque no es simplemente hackear, sino entender cómo funciona la IA y cómo se pueden saltar sus restricciones. Al final todo se trata de puro ingenio y escritura. Nada que no pueda hacer cualquiera con algo de tiempo.

El gran problema que esto deja de nuevo al descubierto son las medidas que este tipo de grandes empresas establecen para preservar la ética de los chatbots. OpenAI no ha comentado oficialmente al respecto. Sin embargo, es probable que estén revisando sus protocolos de seguridad y haciendo ajustes para evitar futuros problemas similares.

El gran punto aquí a discutir es que cada cierto tiempo sale una de estas noticias y OpenAI lo soluciona al momento, pero resulta que al poco vuelve a ocurrir lo mismo. Desde luego no es una tarea sencilla debido a las millones de interacciones de los usuarios con el chatbot, pero queda claro que la solución no es ponerle siempre una tirita a la herida.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial, Software, Ciberseguridad

Share post:

Subscribe

spot_imgspot_img
spot_imgspot_img

Populares

Otras Noticias
Related

Los ETF de bitcoin y criptomonedas ahora pueden operar en bolsas de Argentina

Los ETF de criptomonedas deben cumplir ciertos...

Inventan forma de revertir transacciones en Ethereum

Estas transacciones fueron creadas Vlad Zamfir, investigador...

Microsoft confirma el desarrollo de una consola portátil como Steam Deck o Asus ROG Ally

Uno de los últimos lemas publicitarios de Xbox dejan...

Desarrollo de la Comunidad lleva ayuda a Gaspar Hernández

Gaspar Hernández;- Ante los efectos producto de la lluvias...

Dominicanos reciben US$8,911.7 MM en 10 meses, vía remesas

Entre enero y octubre de 2024, las remesas recibidas...

República Dominicana posicionada para crecer, según los pronósticos

Las proyecciones de expansión para este 2024 y el...