Videos generados con inteligencia artificial imitan a doctores reales: difunden consejos y tratamientos falsos

hace 9 horas 2
Plataformas digitales identifican un aumentoPlataformas digitales identifican un aumento de contenido manipulado relacionado con temas de salud. (Imagen Ilustrativa Infobae)

La propagación de contenido falso en internet ha alcanzado un nuevo nivel con la aparición de videos generados por inteligencia artificial que imitan a médicos reales para difundir mensajes y productos engañosos. La proliferación de deepfakes médicos en redes sociales ha permitido que supuestos especialistas, a veces suplantando a profesionales auténticos, difundan recomendaciones de salud erróneas o promuevan tratamientos no verificados ante millones de usuarios. Un caso reciente lo vivió Joel Bervell, un médico con amplia presencia en plataformas digitales, quien descubrió que su imagen era utilizada en videos desconocidos para él y que promocionaban productos que nunca había respaldado.

Estos materiales manipulados han sido identificados en diversas redes sociales, como TikTok, Instagram, Facebook y YouTube, según reportó CBS News. El fenómeno afecta tanto a expertos reales, cuyos rostros y nombres son apropiados, como a figuras completamente ficticias, creadas exclusivamente con herramientas digitales para impulsar artículos relacionados principalmente con bienestar, belleza y pérdida de peso.

Las estrategias detrás de los deepfakes buscan generar confianza en la audiencia al utilizar testimonios supuestamente autorizados. En la investigación realizada por CBS News, se hallaron decenas de cuentas con más de cien videos publicados destinados a vender productos a través de sitios independientes o reconocidos mercados en línea. Muchas grabaciones contenían afirmaciones extraordinarias, como la promoción de fórmulas “96% más efectivas que Ozempic”, medicamento destinado al tratamiento de la diabetes y la obesidad.

Empresas de ciberseguridad rastrean cuentasEmpresas de ciberseguridad rastrean cuentas que difunden material falso con rostros de especialistas médicos. (Crédito: Unsplash)

El acceso a herramientas de inteligencia artificial ha permitido a actores maliciosos crear fácilmente videos de alta calidad, reduciendo la posibilidad de que los usuarios detecten el engaño, en especial desde dispositivos móviles. La compañía de ciberseguridad ESET detectó más de 20 cuentas en TikTok e Instagram utilizando médicos generados por IA para recomendar artículos supuestamente milagrosos, de acuerdo con declaraciones de Martina López, investigadora de esa empresa, recogidas por CBS News.

Tony Anscombe, director de seguridad de ESET, advirtió que el perfeccionamiento de estas tecnologías dificulta que el público identifique inconsistencias visuales o sonoras. Visualizar los videos en pantallas pequeñas aumenta la posibilidad de que pasen desapercibidos errores reconocibles, como bordes borrosos, distorsiones en el rostro o voces robóticas.

Entre los indicios para detectar estos contenidos, ESET resalta la presencia de “glitches” visuales y la falta de naturalidad en el audio. Además, conviene poner en duda mensajes que aseguran remedios milagrosos, beneficios garantizados o curas inéditas, tácticas frecuentes en estafas digitales. “Confía en nada, verifica todo”, recomendó Anscombe, citado por CBS News.

Consultadas por CBS News, las principales empresas detrás de las redes donde circulan estos videos expusieron su postura y las acciones tomadas tras recibir las denuncias. TikTok aseguró que entre enero y marzo removió proactivamente más del 94% de los contenidos contrarios a sus políticas sobre IA antes de que fueran denunciados formalmente. Meta, propietaria de Facebook e Instagram, confirmó haber eliminado videos que infringían sus estándares publicitarios y restringido la visibilidad de otros, en concreto los relacionados con salud y bienestar, limitando su acceso a mayores de 18 años.

Meta afirmó que quienes buscan evadir controles ajustan constantemente sus métodos, lo que obliga a revisar y actualizar las medidas de seguridad. CBS News anotó que la empresa restringió videos potencialmente dañinos, reforzando las barreras para su visualización por parte de menores de edad.

En el caso de YouTube, la respuesta fue diferente. Aunque la plataforma dispone de mecanismos para solicitar la eliminación de contenidos hiperrealistas que imitan a individuos sin su consentimiento, indicó a CBS News que los videos analizados no infringían sus directrices comunitarias y no serían retirados. YouTube aclaró que su normativa sí prohíbe la difusión de desinformación médica que contradiga las recomendaciones de autoridades sanitarias locales sobre enfermedades y sustancias específicas.

El uso de inteligencia artificialEl uso de inteligencia artificial facilita la creación de videos con apariencias y voces de médicos auténticos. (Imagen Ilustrativa Infobae)

Joel Bervell, conocido como “Medical Mythbuster” en redes, expresó a CBS News su temor ante la capacidad de estos videos de debilitar la credibilidad de la medicina frente al público. Tras solicitar apoyo de sus seguidores para denunciar el uso indebido de su imagen, algunas de las grabaciones fueron retiradas, aunque el episodio evidenció la vulnerabilidad de los profesionales de la salud ante estas maniobras. “Cuando existen supuestos expertos difundiendo información que podría ser falsa, se distorsiona la percepción social sobre la veracidad, y eso complica que el público confíe en la ciencia y el sistema de salud”, sostuvo Bervell, de acuerdo con el medio estadounidense.

A pesar de la remoción de varios videos tras las gestiones del afectado, la dinámica de las redes y el perfeccionamiento de la IA dificultan una erradicación completa del problema. Para especialistas y usuarios, la única defensa sigue siendo la verificación independiente de cualquier mensaje vinculado a la salud que circule por internet.

El informe de CBS News concluye que el fenómeno de los deepfakes médicos representa un reto creciente para las plataformas digitales, los profesionales de la salud y la sociedad en general, frente a la capacidad casi ilimitada de producir y distribuir información falsa con apariencia de legitimidad.

Leer artículo completo