Thursday, December 25, 2025
22.7 C
Santo Domingo

ChatGPT le recomienda sustituir la sal por bromuro sódico en las comidas, y acaba encerrado en un psiquiátrico con alucinaciones

Un hombre de 60 años quería eliminar la sal de su dieta, al leer que es mala para la salud. Consultó con ChatGPT, y acabó tres semanas en el hospital con alucinaciones que obligaron a los médicos a mantenerlo encerrado, porque intentó escaparse. Tenía un exceso de bromo en la sangre 2.000 veces mayor que la cantidad máxima permitida.

La investigación de la policía no ha podido determinar si ChatGPT le recomendó directamente tomar bromuro, pero el hombre afirma que llegó a esa conclusión tras consultarlo con la inteligencia artificial de OpenAI.

Las madres siempre dicen aquello de: “Y si tu amigo se tira por un puente, ¿tú también te tiras?”. ChatGPT es ese amigo imprudente al que hacemos caso sin pensar en las consecuencias.

Así se envenenó por culpa de ChatGPT

Según recoge Ars Technica, este hombre anónimo de 60 años con estudios de nutrición en la universidad, cuyo caso ha sido estudiado en la revista científica Anales de la Medicina Moderna, decidió retirar todo el cloruro de su dieta. Como la sal de mesa es cloruro de sodio, recurrió a ChatGPT para buscar alternativas a la sal.

Bien porque la IA de OpenAI se lo recomendó, o porque llegó a esa conclusión tras leer la información que le proporcionó dicha IA, esta persona decidió sustituir el cloruro de sodio por bromuro de sodio. Lo compró a través de Internet.

A los tres meses de incluirlo en su dieta, se plantó en urgencias alegando que su vecino había intentado envenenarle. Visiblemente alterado, pese a reconocer que sufría una “terrible sed”, no aceptó ni una gota de agua, porque decía que destilaba su propio agua.

La IA Gemini cae en una depresión, y Google tiene que intervenir: "Soy una desgracia para mi especie, para el planeta, para todo el universo"

Viendo su estado de alteración, los médicos le realizaron varias pruebas. Tenía una falta grave de vitaminas básicas, pero lo más extraño era que la cantidad de bromo en sangre alcanzaba un valor de 1.700 mg/litro, cuando los valores saludables varían entre 0.9 y 7,3 mg/litro. Era 2.000 veces mayor de lo permitido.

Ya hospitalizado, el hombre comenzó a sufrir alucinaciones visuales, paranoia y otros problemas mentales. Incluso intentó escaparse del hospital, así que tuvo que ser encerrado.

Por suerte, el bromo se elimina del cuerpo a través de la orina, así que basta con beber mucha agua. Pero tuvo que pasar tres semanas hospitalizado, hasta que desaparecieron las alucinaciones.

Hasta los años 90 del pasado siglo, el bromuro de potasio o de litio se usaba como sedante, y fue así como se supo que provocaba alucinaciones. Hasta el 10% de los norteamericanos de la época encerrados en hospitales psiquiátricos, estaban allí por culpa del bromo. Incluso se acuñó el término “bromismo”, para definir los problemas mentales provocados por un exceso de bromo en el organismo.

El consejo siempre es el mismo. No fiarse de las recomendaciones de salud de la IA. ChatGPT comete alucinaciones hasta en el 20% de las respuestas, reconocido por la propia OpenAI. Si crees que una respuesta de la IA parece útil, contrástala con otras fuentes, y comprueba si es verdad, antes de envenenarte a ti mismo, como hizo este hombre con el bromuro.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial, Salud, Viral, Curiosidades

¿Tú que opinas? Cuéntalo aquí:

Hot this week

Temas

spot_img

Related Articles

Categorias Populares

spot_imgspot_img