ARTDEPARTMENT

Solicitar una consulta

sustituyó la sal de mesa por bromuro de sodio

Publicado el 
agosto 8, 2025

En la era de la inteligencia industrial, donde obtener información está al valor de una simple pregunta, un nuevo caso clínico subraya los peligros de seguir consejos de sanidad de un chatbot sin la debida supervisión médica y el conocimiento para interpretar las respuestas. Un hombre de 60 primaveras ha sufrido un gran episodio de psicosis y alucinaciones tras arriesgarse, aparentemente influenciado por conversaciones con ChatGPT, eliminar la sal de su dieta y reemplazarse por una sustancia química que resultó ser tóxica.

La historia, que ha sido publicada en la revista médica Annals of Internal Medicine: Clinical Cases, sirve como una advertencia sobre los riesgos de 'hacer tu propia investigación' en lo que a sanidad respecta.

El protagonista de este caso clínico es un hombre de 60 primaveras en cuyo referencias personales aparece su formación en ingestión durante la etapa universitaria. Preocupado por los artículos de la sal en las comidas, recurrió a ChatGPT para poder encontrar una alternativa (porque suprimirla no era opción). Sus interacciones con el chatbot le llevaron a creer que podía sustituir la sal por bromuro de sodio, poco que pudo obtener en internet.

Y a partir de aquí inició su propio prueba a raíz de lo que ChatGPT le había dicho. Cuando pasaron tres meses desde que comenzara a tomar esta sustancia, acabó en urgencias con un cuadro de paranoia severa, ya que estaba convencido de que su vecino estaba intentando envenenarlo. A pesar de tener una sed extrema, se negaba a copear agua en el hospital, afirmando que había comenzado a destilar su propia agua para eliminar todo el resto de cloro posible. Pero en ningún momento mencionó que la IA le había dicho que sustituyera la sal por bromuro de sodio.

El dictamen: bromismo

El extraño comportamiento que tenía llevaron a los médicos a realizar una peroles de pruebas completa, donde se incluyeron tóxicos. Aquí es donde apareció una gran cantidad de bromuro de sodio, al tener una concentración en mortandad de 1.700 mg/L, cuando la concentración ordinario va desde los 0,9 a los 7,3 mg/L.

Chatgpta
Chatgpta

Antiguamente, el bromismo era global en el interior de la sanidad de Estados Unidos, ya que algunos sedantes eran fielmente sales de bromo. Pero, por su afectación al sistema nervioso, la FDA decidió prohibirlos, haciendo que el bromismo haya quedado como una patología anecdótica en el interior del país.

Pero este paciente sorprendió a los médicos, que tuvieron que aplicar tratamientos de sueroterapia a gran escalera para hacer que su cuerpo se 'limpiara' de todo el bromo que tenía acumulado en su interior y que afectaba al sistema nervioso. Poco que requirió tres semanas completas de hospitalización.

¿Qué papel jugó ChatGPT?

Una vez el paciente salió de lo peor de esta crisis, este pudo contar a los médicos cómo había llegado a tener tanto bromo en el interior de su cuerpo, mencionando sus lecturas sobre los peligros de la sal y las conversaciones que había tenido con ChatGPT. Esto es poco que los médicos documentaron, aunque en ningún momento pudieron tener golpe a las conversaciones con la IA, aunque especulan que podía tratarse de GPT-3.5 o GPT-4.

Y para darle contexto a la IA, los médicos señalan que el bromuro si puede sustituir a la sal en ciertos contextos como en productos de castidad o en tratamientos de piscina, pero en ningún caso es apto para el consumo humano.

GPT-5 ha llegado para ordenar el 'caos' de ChatGPT: ahora será más fácil de usar por todos

Los médicos para el artículo trataron de replicar la conversación, y vieron que GPT-3.5 incluía en sus respuestas el bromuro, pero sin una advertencia de sanidad específica o sin indagar en el propósito de la consulta, poco que obviamente un profesional médico si haría. Aunque si nos vamos a modelos más actuales, si se ha gastado una prosperidad, ya que ahora el chatbot pide clarificar el uso que se le va a dar, y menciona que el bromuro es útil en los 'agentes de castidad o desinfección'.

Este caso es un valentísimo ejemplo de los peligros de la era de la sobreinformación. Como concluyen los autores del estudio, a menudo carecemos de los medios, las habilidades de demostración o el conocimiento específico para hacer un buen uso de la ingente cantidad de datos a nuestro valor. Sin aprender exactamente qué preguntar ni cómo interpretar las respuestas, "hacer tu propia investigación" puede tolerar a situaciones catastróficas como esta.

Imágenes | Solen Feyissa Peter Werkman

En Genbeta | ChatGPT no tiene "secreto de confesión": Sam Altman avisa de que todo lo que le cuentes sobre tu vida podría ser usado en tu contra

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram