Un hombre en EEUU desarrolló una rara enfermedad tras consultar a un popular chatbot de IA sobre su dieta

hace 15 horas 2
Especialistas detectaron en un pacienteEspecialistas detectaron en un paciente estadounidense síntomas de toxicidad por bromuro tras seguir un consejo de ChatGPT sobre su dieta. (Imagen Ilustrativa Infobae)

Un hombre de 60 años en Estados Unidos fue hospitalizado tras desarrollar bromismo, un raro cuadro de toxicidad, luego de intentar reemplazar la sal común con otra sustancia recomendada por ChatGPT, según un reporte de la revista médica Annals of Internal Medicine.

El episodio comenzó cuando el paciente, identificado como residente estadounidense, decidió eliminar el cloruro de sodio (sal de mesa) de su dieta, preocupado por los efectos negativos que había leído sobre este compuesto. Para sustituirlo, recurrió a ChatGPT, el popular chatbot desarrollado por OpenAI.

De acuerdo con el reporte del diario The Guardian, el hombre halló en una conversación con el asistente virtual la sugerencia de que el bromuro podía reemplazar al cloruro, aunque habitualmente se emplea para otros fines, como productos de limpieza. Así, el paciente consumió bromuro de sodio por tres meses, desencadenando un cuadro clínico prácticamente ausente en las guías médicas modernas.

La respuesta de ChatGPT noLa respuesta de ChatGPT no advirtió sobre el peligro de sustituir la sal por bromuro, según detalló el informe. (Florence Lo/Reuters)

El reporte, elaborado por especialistas de la Universidad de Washington en Seattle, detalla que el paciente acudió al hospital convencido de que era víctima de un posible envenenamiento por parte de un vecino y presentaba miedo al agua que se le ofrecía. También refirió tener numerosas restricciones alimentarias.

Tras intentar abandonar el hospital menos de 24 horas después de su ingreso, debió ser internado de manera involuntaria y tratado por un episodio de psicosis. Al lograr la estabilización, relató síntomas adicionales compatibles con bromismo: acné facial, sed intensa e insomnio.

Los autores del artículo subrayaron que episodios de bromismo resultaban frecuentes en el siglo XX, representando hasta uno de cada diez ingresos psiquiátricos, pero la incidencia descendió abruptamente cuando se abandonó el uso de bromuro de sodio como sedante.

La intoxicación se produjo luegoLa intoxicación se produjo luego de que el hombre consumiera bromuro de sodio como reemplazo de la sal común durante tres meses. (Imagen Ilustrativa Infobae)

Aunque no fue posible acceder al historial de la conversación exacta que mantuvo el paciente con ChatGPT, los especialistas de la Universidad de Washington replicaron la consulta ante el chatbot: la respuesta nuevamente mencionó la opción del bromuro como sustituto del cloruro, sin brindar alertas específicas sobre riesgos ni indagar en los motivos de ese reemplazo, algo que “presumiblemente haría un profesional sanitario”, escribieron los autores en la publicación revisada por pares.

El equipo de médicos advirtió que los sistemas de IA “pueden generar inexactitudes científicas, carecen de discernimiento crítico y pueden terminar alimentando la diseminación de desinformación”.

La empresa OpenAI, responsable de ChatGPT, promovió recientemente una actualización de su modelo a GPT-5, enfatizando las mejoras en la detección temprana de alertas sobre problemas médicos.

Annals of Internal Medicine publicóAnnals of Internal Medicine publicó el estudio que alerta sobre los riesgos de buscar asesoramiento de salud en asistentes virtuales. (Imagen Ilustrativa Infobae)

Según el anuncio, la nueva versión incorpora mecanismos para alertar sobre potenciales dificultades físicas o mentales graves. No obstante, la compañía insiste en que su producto “no sustituye la consulta profesional” y que las pautas de uso desaconsejan valerse del chatbot para diagnósticos o tratamientos.

En diálogo con The Guardian, los autores del informe médico apuntaron que, si bien los sistemas de IA pueden actuar como puente entre la información científica y la sociedad, también implican riesgos de diseminar información “fuera de contexto” cuando se utilizan sin el filtro de un especialista. El caso destacado, ocurrido antes del lanzamiento de la nueva versión GPT-5, corresponde a una consulta realizada con una generación anterior del sistema.

Según el análisis del equipo clínico, resulta clave que los médicos verifiquen qué tipo de fuentes consultan los pacientes, dado que aplicaciones como ChatGPT “no están diseñadas para reemplazar el criterio humano ni la consulta médica tradicional”. La recomendación central permanece vigente: “los sistemas de inteligencia artificial no deben emplearse para el diagnóstico ni el tratamiento de condiciones de salud”, recoge la publicación.

Leer artículo completo