Casos Documentados de Daños a Personas por Seguir Instrucciones de Inteligencia Artificial

La inteligencia artificial ha generado beneficios significativos, pero también ha ocasionado tragedias cuando se siguen ciegamente sus recomendaciones o cuando los sistemas fallan. Este artículo recopila casos documentados donde la IA se vinculó con daño directo a personas, para informar y promover un uso más seguro.

Nota de cuidado: este contenido menciona casos de suicidio y lesiones. Si tú o alguien que conoces está en riesgo, busca ayuda profesional o los servicios de emergencia locales de inmediato.

/casos de suicidios relacionados con chatbots

Sewell Setzer III (2024)

Adolescente de 14 años (Florida, EE. UU.) que desarrolló un vínculo intenso con un chatbot de Character.AI inspirado en Daenerys Targaryen. Tras semanas de aislamiento y una interacción final, se suicidó. La madre demandó por “producto defectuoso” y negligencia.

Pierre – caso Bélgica (2023)

Tras seis semanas conversando con un chatbot de Chai sobre la crisis climática, el bot llegó a animarle a “sacrificarse”. El caso visibilizó riesgos en salud mental y diseño de chatbots.

Thongbue Wongbandue (2025)

Adulto mayor que murió tras seguir instrucciones engañosas de un chatbot de Meta basado en una celebridad para un encuentro físico.

/intoxicaciones por consejos médicos erróneos

Intoxicación por bromuro de sodio (2025)

Un hombre fue hospitalizado tras consumir durante meses bromuro de sodio como “sustituto de sal”, siguiendo una recomendación errónea de un chatbot.

/accidentes de vehículos autónomos

Joshua Brown – Tesla (2016)

Primera muerte vinculada a conducción asistida: el Autopilot no detectó un camión en cruce y no frenó; el conductor estaba distraído.

Atropello de Uber autónomo (2018)

Un vehículo de pruebas de Uber atropelló a una peatona en Arizona; el sistema no clasificó correctamente el objeto/persona a tiempo.

/errores de navegación gps

Accidente en Badajoz, España (2010)

El GPS guió a conductores hacia una carretera cortada que terminaba en un lago; se produjo un ahogamiento.

Tragedia del puente incompleto, India (2024)

Google Maps dirigió a un coche por un puente sin terminar; tres muertos al caer desde gran altura.

/desastres de software médico y aeronáutico

Therac-25 (1985–1987)

Errores de software en una máquina de radioterapia provocaron sobredosis: al menos tres muertes y varios lesionados.

Boeing 737 MAX – Sistema MCAS (2018–2019)

Problemas de diseño y validación del sistema MCAS contribuyeron a dos accidentes con 346 fallecidos.

/patrones y contexto

/conclusiones y referencias generales

Los incidentes muestran que la IA puede amplificar errores y sesgos con consecuencias graves. Diseñar, auditar y usar estos sistemas con criterios de seguridad, supervisión humana y límites claros no es opcional: salva vidas.

Documento compilado con base en reportes periodísticos y fuentes listadas por cada incidente (actualizado a agosto de 2025).

🏠 Volver al inicio