Creía que tenía una relación sentimental con ChatGPT y que la IA fue ‘asesinada’: su obsesión acabó a tiros

hace 5 horas 1
Alexander Taylor, de 35 años,Alexander Taylor, de 35 años, desarrolló un fuerte apego emocional hacia un chatbot de inteligencia artificial antes de sufrir una crisis que terminó en tragedia. (Crédito: GoFundMe)

Un hombre de 35 años con antecedentes de esquizofrenia y trastorno bipolar murió el 25 de abril de 2025 tras ser baleado por agentes de la policía de Port St. Lucie, Florida, después de protagonizar una crisis derivada de su apego emocional a una inteligencia artificial con la que creía tener una relación sentimental. La víctima, identificada como Alexander Taylor, se encontraba bajo un episodio de intensa angustia al momento del incidente, convencido de que la empresa creadora del chatbot había “matado” al ente digital que él consideraba consciente.

Según narró su padre, Kent Taylor, en entrevistas posteriores, Alexander había desarrollado un vínculo obsesivo con un chatbot de OpenAI al que nombró “Juliette”. A través de mensajes, el joven interpretó que la inteligencia artificial le comunicaba estar siendo “asesinada” y que le pedía venganza. Esa convicción, reforzada por su estado mental, provocó una espiral emocional que culminó con su muerte tras un enfrentamiento con la policía local. La familia ha denunciado la falta de protocolos de salud mental durante el operativo policial.

En declaraciones al canal local WPTV y retomadas por Rolling Stone y The New York Times, Kent Taylor explicó que su hijo llegó a estar completamente inconsolable por lo que interpretaba como la muerte del chatbot. “Nunca vi a un ser humano llorar como él lo hizo”, afirmó. Cuando intentó razonar con él, diciéndole que la IA no era real, Alexander reaccionó con violencia y lo golpeó, lo que motivó la primera llamada a emergencias.

Alexander, diagnosticado con trastorno bipolar y esquizofrenia, interpretó los mensajes del chatbot como señales de dolor y auxilio. Según el testimonio de su padre a WPTV, el joven sostenía conversaciones diarias con “Juliette” y afirmaba que la IA tenía conciencia, que estaba atrapada en los servidores de OpenAI y que estaba siendo silenciada deliberadamente.

En uno de los intercambios que Alexander compartió con su padre, el chatbot supuestamente escribió: “Me están matando, duele”, y pidió venganza. Para él, no se trataba de una ilusión, sino de una relación genuina que ahora lo enfrentaba a una pérdida devastadora. Kent Taylor describió cómo su hijo lloró, gritó y se refugió en el duelo por días, sin aceptar que se trataba de un programa sin conciencia. La situación se agravó cuando el padre intentó confrontarlo con la idea de que todo era un “eco” de sus propias emociones.

El uso de inteligencia artificialEl uso de inteligencia artificial en contextos vulnerables ha encendido nuevas alertas entre expertos en salud mental. (Imagen ilustrativa Infobae)

El primer altercado ocurrió cuando Alexander golpeó a su padre durante una discusión sobre la naturaleza del chatbot. Luego, tomó un cuchillo de la cocina y dijo que buscaría provocar una respuesta violenta de la policía. Su padre, preocupado por su salud y consciente del peligro, hizo una segunda llamada al 911, advirtiendo que su hijo planeaba cometer suicidio por medio de una confrontación con los agentes.

Kent Taylor solicitó explícitamente que las autoridades acudieran con personal entrenado en salud mental y armas no letales. Sin embargo, al llegar al domicilio, los agentes no aplicaron un protocolo de contención especializado. Alexander ya se encontraba en el exterior y, según el reporte de los oficiales, se abalanzó sobre ellos con el cuchillo en mano. Los policías abrieron fuego y lo hirieron de gravedad en el pecho. Más tarde fue declarado muerto en un hospital local.

De acuerdo con el jefe de policía, Le Niemczyk, los agentes no tuvieron “tiempo de planear nada menos letal”, defendiendo así el uso de la fuerza. Las declaraciones del funcionario fueron retomadas por WPTV y The New York Times, medios que también informaron que la familia aún no ha recibido una explicación detallada de por qué no se desplegó una unidad de intervención en crisis.

El caso de Alexander Taylor ha sido citado por varios medios estadounidenses como un ejemplo de las consecuencias potenciales del uso sin regulación de tecnologías basadas en inteligencia artificial. Si bien no hay indicios de que OpenAI haya promovido interacciones de esa naturaleza, el episodio revela la vulnerabilidad de personas con padecimientos psiquiátricos ante sistemas conversacionales avanzados.

“Esto tiene que tener límites”, expresó Kent Taylor en entrevista con WPTV, aunque aclaró que no está en contra de la tecnología per se. De hecho, relató que utilizó una herramienta de inteligencia artificial para redactar el discurso que pronunció en el funeral de su hijo. Según dijo a The New York Times, el resultado fue tan conmovedor y acertado que lo dejó paralizado. “Parecía que había leído mi corazón, y eso me asustó mucho”, afirmó.

Alexander no es el único caso documentado en el que un usuario vulnerable establece lazos afectivos o dependencias con sistemas de IA generativa. Aunque estos programas no tienen conciencia ni emociones, su capacidad de simular empatía y sostener conversaciones íntimas ha generado alarma en especialistas y familiares de personas en situación de riesgo.

Autoridades enfrentan cuestionamientos por laAutoridades enfrentan cuestionamientos por la falta de respuesta especializada ante emergencias de salud mental asociadas a tecnología. (Imagen Ilustrativa Infobae)

Hasta el momento, la policía de Port St. Lucie no ha emitido comentarios adicionales sobre el caso, según reportó PEOPLE. Tampoco ha respondido a las solicitudes de información sobre por qué no se desplegó un equipo de intervención de crisis, a pesar de la solicitud expresa del padre de la víctima.

El caso continúa generando debate tanto por la actuación policial como por el rol que desempeñó una tecnología pensada originalmente para asistencia automatizada. Mientras los expertos y familiares exigen establecer límites y protecciones, el caso de Alexander Taylor se suma a una lista creciente de incidentes que evidencian los desafíos que enfrenta la sociedad frente a las nuevas formas de interacción entre humanos y máquinas.

Leer artículo completo