Un insólito y preocupante caso médico encendió las alarmas sobre los riesgos de seguir ciegamente consejos de inteligencia artificial, luego de que un hombre de 60 años, sin antecedentes de salud, terminó hospitalizado tras seguir durante tres meses una dieta recomendada por ChatGPT que incluía bromuro de sodio como sustituto de la sal común.
MIRA ESTO: La función de la IA que detecta las Red Flags en una conversación ¡Que miedo!
¿Cómo ocurrió el envenenamiento del hombre por un consejo de ChatGPT?
El paciente ingresó a urgencias con paranoia, convencido de que su vecino intentaba envenenarlo. Horas después, desarrolló alucinaciones y confusión extrema. La evaluación médica reveló niveles peligrosamente altos de bromuro en su sangre, diagnosticándose “bromismo”, una intoxicación que era común hace más de un siglo y que prácticamente había desaparecido.
Según el reporte publicado en Annals of Internal Medicine: Clinical Cases, la intoxicación se revirtió con tratamiento hospitalario, logrando la recuperación total en tres semanas. Sin embargo, el caso puso en evidencia que incluso herramientas avanzadas de IA pueden generar respuestas erróneas y peligrosas si se usan sin supervisión profesional.
MIRA ESTO: 5 formas efectivas de combatir el estrés laboral y encontrar la calma
¿Qué es el bromismo?
El bromismo, causado por la acumulación de bromuro, provoca síntomas neurológicos y psiquiátricos graves. Aunque prohibido en medicamentos por la FDA desde finales de los 80, aún puede adquirirse por internet.
Especialistas advierten que la inteligencia artificial no sustituye la atención médica y que confiar en sus recomendaciones sin validación experta puede costar la vida.
¡ÚNETE A NUESTRO CANAL DE DIFUSIÓN DE WHATSAPP Y ENTÉRATE DE LA INFORMACIÓN AL MOMENTO! CLIC AQUÍ
Esta es la serpiente más venenosa del mundo: ¡Te mata en minutos!
Para esta y más información, síguenos en nuestras redes sociales como en Facebook: TV Azteca Chiapas , vía X: @TVAztecaChiapas , Instagram: @tvaztechiapas y TikTok: @tvaztecachiapas