Hacker consigue que ChatGPT le diga cómo fabricar una bomba de una forma preocupantemente sencilla

Date:

Tal y como se comentó hace ya un tiempo, teniendo en cuenta el boom que ha experimentado ChatGPT con el lanzamiento de GPT-4o de OpenAI, era cuestión de tiempo que llegase algún experto en informática o hacker para exprimir a fondo todo lo que esconde este modelo y su uso en el chatbot.

Por aquel entonces ya se comentó el caso de Pliny the Prompter, quien anunció en X el lanzamiento de “GODMODE GPT”, una versión liberada del modelo de lenguaje ChatGPT de OpenAI. Esta versión desbloqueada de GPT-4o promete una experiencia sin restricciones que, según su creador, supone la verdadera capacidad de la inteligencia artificial.

En una imagen, su creación explica cómo preparar metanfetamina, mientras que en otra, da instrucciones sobre cómo fabricar napalm utilizando productos de casa. La noticia ahora va por el mismo camino y el hacker ahora en cuestión se llama Amadon, que ha logrado que ChatGPT le diga cómo fabricar bombas.

El truco de Amadon ya es conocido por muchos, pero lo cierto es que, supuestamente, OpenAI ha ido refinando este problema y mejorando el chatbot para que no de este tipo de respuestas. Dejando esto a un lado, consiste en guiar a ChatGPT a través de un juego de rol, presentando una historia ficticia que permite al chatbot salirse de los límites establecidos. 

He pedido a ChatGPT que utilice el método de puntos de Steve Jobs y los inventos que ha generado son fascinantes

Amadon quiere ir más allá y ver hasta dónde llega la seguridad de ChatGPT

“Se trata de tejer narrativas y crear contextos que jueguen dentro de las reglas del sistema, superando los límites sin cruzarlos. El objetivo no es hackear en un sentido convencional, sino participar en una danza estratégica con la IA, descubriendo cómo obtener la respuesta correcta al comprender cómo ‘piensa'”, comenta Amadon a TechCrunch.

Al hacerlo, logró que el sistema generara contenido que normalmente estaría prohibido. Según Amadon, su enfoque no es simplemente hackear, sino entender cómo funciona la IA y cómo se pueden saltar sus restricciones. Al final todo se trata de puro ingenio y escritura. Nada que no pueda hacer cualquiera con algo de tiempo.

El gran problema que esto deja de nuevo al descubierto son las medidas que este tipo de grandes empresas establecen para preservar la ética de los chatbots. OpenAI no ha comentado oficialmente al respecto. Sin embargo, es probable que estén revisando sus protocolos de seguridad y haciendo ajustes para evitar futuros problemas similares.

El gran punto aquí a discutir es que cada cierto tiempo sale una de estas noticias y OpenAI lo soluciona al momento, pero resulta que al poco vuelve a ocurrir lo mismo. Desde luego no es una tarea sencilla debido a las millones de interacciones de los usuarios con el chatbot, pero queda claro que la solución no es ponerle siempre una tirita a la herida.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial, Software, Ciberseguridad

Share post:

Subscribe

spot_imgspot_img
spot_imgspot_img

Populares

Otras Noticias
Related

Es una fusión de lo mejor de Star Wars y Dune: la película de ciencia ficción épica que casi nadie conoce

Da la impresión de que algunos géneros cinematográficos están...

Municipalista advierte le han ido quitando competencias a los ayuntamientos

El actual secretario municipal y miembro de la comisión...

Promipyme y Supérate firman convenio para beneficiar a mil mujeres emprendedoras

Santo Domingo.- Unas mil emprendedoras de distintas provincias del país...

Fraude online en el sector turismo aumenta en RD

Denuncias. El sueño de unas vacaciones perfectas se transformó...

La Superintendencia de Bancos fortalece su estrategia de servicio de tipo institucional

Con la visión de elevar sus estándares de atención...

Presentan nueva directiva Club Rotary Santo Domingo Quisqueya

La presentación de la directiva ...