
Un caso sin precedentes en el sistema judicial de Estados Unidos se presentó en Arizona, donde Chris Pelkey, un hombre asesinado en un incidente de furia al volante en 2021, “habló” durante la audiencia.
Se trataba de la sentencia de su agresor, su testimonio fue posible gracias a un video generado con inteligencia artificial (IA).
Según informó CBS News, la familia de Pelkey utilizó esta tecnología para crear un avatar que leyó una declaración de impacto de la víctima, marcando un hito en el uso de IA en los tribunales.

El incidente que llevó a la muerte de Pelkey ocurrió el 13 de noviembre de 2021, cuando él y Gabriel Paul Horcasitas, el hombre que posteriormente sería condenado por el homicidio, se detuvieron en un semáforo en rojo.
Pelkey salió de su camioneta y se dirigió al vehículo de Horcasitas, quien le disparó. Durante la audiencia de sentencia, el avatar de Pelkey expresó que lamentaba las circunstancias en las que ambos se conocieron, sugiriendo que en otra vida podrían haber sido amigos.
También compartió un mensaje de perdón y reflexionó sobre la importancia de aprovechar cada día y valorar a los seres queridos.
El juez Todd Lang, del Tribunal Superior del Condado de Maricopa, presidió el caso y expresó su aprecio por el uso de esta tecnología, según consignó BBC News. Lang destacó que el video reflejaba el carácter de la familia de Pelkey, que había solicitado la pena máxima para Horcasitas.
Además del video, familiares y amigos enviaron cerca de 50 cartas al juez, reforzando el mensaje de indignación por la pérdida de Pelkey.
Horcasitas, de 54 años, fue declarado culpable de homicidio y condenado a 10.5 años de prisión. Sin embargo, su abogado, Jason Lamm, informó a The Associated Press que ya se presentó una apelación, argumentando que el tribunal de apelaciones podría evaluar si el juez se basó indebidamente en el video generado por IA al dictar la sentencia.

La idea de utilizar inteligencia artificial para que Pelkey “hablara” surgió de su hermana, Stacey Wales, quien durante años reflexionó sobre lo que su hermano habría dicho en la audiencia.
Wales explicó a la BBC que el mensaje del avatar se construyó con ética y moral, comparando la tecnología con un martillo que puede usarse tanto para destruir como para construir. En este caso, afirmó, se utilizó para construir un mensaje de perdón y reflexión.
Pelkey, nacido en Poughkeepsie, Nueva York, y residente en Arizona, fue un veterano que sirvió en Irak y Afganistán en tres ocasiones. Según su obituario, participaba activamente en su iglesia local y en misiones tanto nacionales como internacionales.

El uso de inteligencia artificial en los tribunales no es nuevo, pero hasta ahora se había limitado principalmente a tareas administrativas, investigación jurídica y preparación de casos.
En Arizona, esta tecnología también ha servido para informar al público sobre sentencias en casos relevantes. Sin embargo, el empleo de IA para generar declaraciones de impacto de las víctimas representa una herramienta novedosa y, al menos en este estado, completamente legal.
La abogada de derechos de las víctimas Jessica Gattuso, quien representó a la familia de Pelkey, explicó que en Arizona las víctimas tienen la posibilidad de presentar sus declaraciones en cualquier formato digital.
Por su parte, la presidenta de la Corte Suprema de Arizona, Ann Timmer, señaló que el creciente uso de IA en los últimos años ha llevado a la creación de un comité para establecer mejores prácticas en los tribunales.

No obstante, el uso de esta tecnología también ha generado preocupaciones. Gary Marchant, profesor de derecho en la Universidad Estatal de Arizona y miembro del comité mencionado, advirtió sobre los riesgos de que pruebas generadas por IA puedan ser manipuladas o utilizadas de manera indebida.
Marchant recordó un caso reciente en Nueva York, donde un hombre sin representación legal intentó usar un avatar generado por IA para defenderse en una demanda. Los jueces detectaron rápidamente que el avatar no era real, lo que subraya los desafíos que plantea esta tecnología en el ámbito judicial.
El caso de Pelkey no solo abre un debate sobre el uso ético y legal de la inteligencia artificial en los tribunales, sino que también pone de manifiesto su potencial para transformar la manera en que las víctimas y sus familias participan en los procesos judiciales.