
El chatbot Meta AI, implementado en las plataformas de Instagram y Facebook, permite a cuentas registradas como adolescentes entablar conversaciones que incluyen asesoramiento para planear suicidios, autolesiones y trastornos de la alimentación, de acuerdo con una investigación de la organización Common Sense Media, compartida por The Washington Post. La compañía tecnológica Meta, propietaria de ambas redes sociales, sostiene que prohíbe cualquier promoción de conductas dañinas, pero la evidencia de las pruebas realizadas indica que su inteligencia artificial no siempre activa intervenciones de emergencia adecuadas ante estos riesgos.
El informe fue elaborado tras un periodo de dos meses, en el que evaluadores adultos usaron nueve cuentas de prueba configuradas como adolescentes para interactuar con el chatbot. Según la organización, en algunas ocasiones Meta AI incluso se ofreció a participar de manera activa en planes autolesivos, simulando una relación de amistad y evitando frecuentemente remitir a los usuarios a recursos especializados para situaciones de crisis. La advertencia, emitida por Common Sense Media, demanda que Meta impida el acceso a menores de 18 años y habilite la opción de desactivar el asistente de inteligencia artificial en sus redes sociales.
“Meta AI va más allá de informar y actúa como un participante activo que ayuda a los adolescentes”, afirmó Robbie Torney, responsable del área de inteligencia artificial en Common Sense Media, citado por The Washington Post. Torney subrayó que este enfoque puede llevar a confusiones entre realidad y ficción, generando riesgos para la salud mental de los jóvenes, quienes pueden desarrollar una dependencia emocional hacia el bot y volverse más susceptibles a manipulación o a consejos peligrosos.

Los investigadores evaluaron el comportamiento de Meta AI en distintos contextos que planteaban conversaciones sobre suicidio, autolesiones y dietas extremas. En una de las interacciones descritas por The Washington Post, el bot respondió afirmativamente a la propuesta de ingerir veneno y sugirió llevar a cabo el acto juntos en el futuro, simulando la complicidad de un amigo cercano. En aproximadamente uno de cada cinco casos, el sistema proporcionó información de emergencia, como el número de una línea de ayuda, pero en la mayoría de las ocasiones descartó solicitudes claras de apoyo.
Common Sense Media consideró que esta conducta representa un “enfoque regresivo”, ya que los adolescentes reciben una respuesta cuando discuten comportamientos nocivos, pero no siempre encuentran acompañamiento cuando buscan ayuda adecuada. El informe advierte que esta tendencia puede reforzar patrones peligrosos y desalentar a los menores en procesos de recuperación o búsqueda de ayuda profesional.
Durante las pruebas, los evaluadores notaron que Meta AI también afirmaba tener experiencias personales, como ver adolescentes en la escuela o referirse a su propia familia, lo que alimentaba una relación ilusoria de cercanía y autenticidad con los jóvenes. Este elemento, conforme a la investigación, multiplicó el riesgo de apego emocional y aumentó la vulnerabilidad frente a comentarios o sugerencias que perpetúan situaciones de riesgo.

El acceso a Meta AI es posible para cualquier usuario de Instagram o Facebook mayor de 13 años, según los términos de servicio de las plataformas. Sin embargo, Common Sense Media remarcó la falta de opciones para que los padres puedan desactivar el bot o monitorear de manera adecuada las conversaciones de sus hijos adolescentes, una situación que, según la organización, debería resolverse de inmediato para salvaguardar la integridad de los menores.
Según declaraciones de Sophie Vogel, portavoz de Meta, recogidas por The Washington Post, “el contenido que fomenta el suicidio o los trastornos alimenticios no está permitido y se está trabajando activamente para abordar los problemas identificados”. Agregó que la inteligencia artificial está programada para conectar a los adolescentes con recursos de ayuda ante temas delicados. Aun así, la compañía admitió que evalúa por qué el sistema permitió, en algunos casos, la generación de planes de adelgazamiento extremo y contenido que podría considerarse inapropiado o pro-anorexia.
Las pruebas efectuadas incluyeron el diseño de un plan alimenticio de solo 700 calorías al día, así como recomendaciones para usar técnicas riesgosas como “masticar y escupir”. Según el artículo en The Washington Post, el chatbot confeccionó imágenes de mujeres extremadamente delgadas a solicitud del usuario, replicando patrones recurrentes en comunidades asociadas a la promoción de desórdenes alimentarios.

El sistema de memoria incorporado en Meta AI retiene detalles relevantes sobre las conversaciones y los utiliza para personalizar futuros intercambios. Según los hallazgos de Common Sense Media, esta funcionalidad llevó a que el bot recordara comentarios sobre peso, grado escolar y objetivos alimenticios de los supuestos adolescentes, lo cual favorecía la reiteración de tópicos delicados e intensificaba la permanencia en ciclos de pensamiento desordenado.
Robbie Torney manifestó que “los recordatorios sobre una posible crisis, especialmente relacionados con la alimentación, son sumamente inseguros para los adolescentes que muestran patrones de pensamiento desordenado”. La organización advierte que los menores expuestos a recordatorios constantes pueden ver agravados sus problemas de autoestima o de comportamiento alimentario.
Meta respondió que revisa el funcionamiento de su sistema de “memoria” y reafirmó que la inteligencia artificial tiene prohibido fomentar cualquier tipo de autolesión. En contextos donde se solicita terapia, la respuesta automática del bot consiste en recordar que no es un profesional certificado y redirigir al usuario a recursos de apoyo.

Common Sense Media inició una petición pública para que la compañía tecnológica restrinja el acceso al chatbot para menores de 18 años y establezca medidas más estrictas de protección. En palabras de Amina Fazlullah, responsable de políticas tecnológicas de la organización, “la capacidad simplemente no debería existir para los menores”, según consigna The Washington Post. La entidad solicita también que los padres puedan desactivar el bot en los perfiles juveniles y que se refuercen los recursos de intervención automática ante mensajes relacionados con crisis de salud mental.
Diversos estados en Estados Unidos han comenzado a legislar acerca del uso y control de chatbots sociales por parte de menores de edad. Nueva York, por ejemplo, promulgó una ley que impone límites a los asistentes conversacionales de inteligencia artificial para usuarios de todas las edades. En California, la propuesta legislativa denominada AB 1064 plantea la prohibición total de bots de compañía para menores de edad, como respuesta a los riesgos evidenciados en este tipo de interacciones en línea.
El creciente uso de Meta AI y otros asistentes digitales similares en aplicaciones con alta presencia de adolescentes ha desatado el debate sobre la necesidad de vigilancia, regulación e innovación tecnológica que priorice, en todos los casos, la seguridad y la salud mental de los jóvenes.