Google Veo 3 revoluciona la generación de video con IA hiperrealista

hace 5 horas 2
Google Veo 3 revoluciona laGoogle Veo 3 revoluciona la generación de videos con inteligencia artificial al crear imágenes y audio hiperrealistas. (Infobae)

La irrupción de Google Veo 3 en el panorama tecnológico ha marcado un antes y un después en la generación de videos mediante inteligencia artificial. Este modelo, presentado recientemente, ha logrado crear videos hiperrealistas con audio sincronizado, acercándose a un nivel de realismo que desafía la capacidad de distinguir entre lo auténtico y lo sintético. Según Quartz, el salto de videos generados por IA que resultaban evidentemente falsos a contenidos casi indistinguibles de la realidad constituye uno de los avances más impactantes en la historia reciente de la tecnología.

Sin embargo, este progreso ha encendido un debate urgente sobre los riesgos de desinformación, manipulación mediática y la erosión de la confianza pública en los contenidos digitales.

Google Veo 3 representa un avance significativo respecto a sus predecesores en la generación de video por IA. A diferencia de modelos anteriores como ModelScope, SORA de OpenAI o Movie Gen de Meta, Veo 3 integra audio realista, diálogos y efectos de sonido, además de mantener una notable fidelidad a las leyes físicas y una calidad visual que elimina muchos de los defectos característicos de versiones previas. Veo 3 puede renderizar objetos pequeños en movimiento y generar audio que acompaña de manera convincente a las imágenes, aunque persisten pequeños errores, como sonidos inadecuados en ciertas situaciones.

El avance de Veo 3El avance de Veo 3 plantea riesgos de desinformación y manipulación mediática, según expertos y autoridades.(Infobae)

El modelo permite la creación de clips de hasta ocho segundos de duración, una limitación que podría desaparecer en futuras actualizaciones. La generación de videos se realiza a partir de descripciones textuales (prompts), y aunque la función de subir imágenes para crear videos personalizados aún no está disponible, se espera que esta capacidad se incorpore próximamente, lo que ampliaría aún más el potencial —y los riesgos— de la herramienta.

La proliferación de videos generadosLa proliferación de videos generados por IA erosiona la confianza pública en los contenidos digitales y dificulta distinguir realidad de ficción.

El impacto de Veo 3 ya se ha dejado sentir en la industria publicitaria y en la creación de contenidos virales. Gizmodo reportó que la herramienta debutó como motor de un anuncio para la empresa financiera Kalshi, emitido durante las finales de la NBA. El proceso de creación del anuncio involucró la generación de ideas y guion mediante IA, y la producción del video se completó en apenas dos días y tras 300 a 400 iteraciones, según el creador PJ Ace.

El resultado fue un anuncio con escenas realistas, aunque breves, debido a las limitaciones actuales de continuidad de Veo 3. Ace estimó que el uso de esta tecnología supuso una reducción de costos del 95% en comparación con métodos tradicionales, lo que subraya el potencial disruptivo de la IA en la industria audiovisual.

En el ámbito de los experimentos virales, el caso del video de Will Smith comiendo espaguetis se ha convertido en un referente para medir el progreso de la IA en video. El primer clip, generado en 2023 por ModelScope, resultaba grotesco y claramente artificial. Sin embargo, la versión creada por Veo 3 logra una imitación casi perfecta, con movimientos naturales y audio sincronizado, aunque con pequeños fallos, como el sonido crujiente del espagueti, según Quartz.

Time documentó la capacidad de Veo 3 para generar videos de eventos noticiosos falsos, como disturbios, fraude electoral o escenas de conflicto, que, aunque presentan algunas inexactitudes, podrían ser utilizados para desinformar si se difunden en redes sociales con descripciones engañosas.

En la primera semana, tras el lanzamiento de Veo 3, usuarios publicaron segmentos de noticias falsas en varios idiomas, incluyendo anuncios ficticios de la muerte de figuras públicas y conferencias políticas inventadas.

La facilidad y el bajo costo para crear videos hiperrealistas con Veo 3 han generado preocupación entre expertos y autoridades. El Departamento de Seguridad Nacional de Estados Unidos ha identificado los deepfakes como una amenaza creciente, advirtiendo que no es necesario que los videos sean técnicamente perfectos para resultar efectivos; basta con que exploten la tendencia natural de las personas a creer en lo que ven.

Según Time, la calidad alcanzada por Veo 3 podría acelerar la propagación de desinformación, haciendo que la manipulación mediática sea más barata, rápida y accesible.

La herramienta permite crear videosLa herramienta permite crear videos de hasta ocho segundos a partir de descripciones textuales, con audio sincronizado y alta fidelidad visual. (infobae)

Connor Leahy, director ejecutivo de Conjecture, expresó a Time: “El hecho de que tales riesgos bien conocidos sigan sin regularse tendrá consecuencias terribles para personas inocentes en todo el mundo.” Por su parte, Margaret Mitchell, científica principal de ética en IA en Hugging Face, advirtió: “Los riesgos incluyen facilitar la creación de propaganda intensa que manipule a las masas o propague discriminación y violencia.” Julia Smakman, investigadora del Ada Lovelace Institute, señaló que “los salvaguardas técnicos existentes son insuficientes para detener la generación de imágenes y videos dañinos.”

La erosión de la confianza colectiva en línea se perfila como uno de los peligros más graves. Nina Brown, profesora de la Universidad de Syracuse, explicó a Time que “el mayor peligro es la erosión de la confianza colectiva en línea”, ya que la proliferación de videos sintéticos puede llevar a que nadie confíe en lo que ve, afectando la credibilidad de los medios y la percepción pública de la realidad.

Expertos advierten sobre la insuficienciaExpertos advierten sobre la insuficiencia de las salvaguardas actuales para frenar la propagación de deepfakes y videos falsos. (infobae)

A pesar de sus capacidades avanzadas, Veo 3 presenta limitaciones técnicas y salvaguardas implementadas por Google. El modelo restringe la duración de los videos a ocho segundos y bloquea la generación de ciertos contenidos, especialmente aquellos relacionados con figuras públicas reconocibles, violencia o temas delicados. Time comprobó que Veo 3 se negó a crear videos de personalidades como Donald Trump o Elon Musk, y rechazó solicitudes que pudieran inducir pánico, como la simulación de desastres naturales.

Google ha incorporado marcas de agua visibles en los videos generados por Veo 3, aunque Time observó que estas pueden eliminarse fácilmente mediante edición. Además, todos los videos incluyen una marca de agua invisible denominada SynthID, y la compañía trabaja en una herramienta, SynthID Detector, que permitirá verificar la autenticidad de los videos, aunque esta aún no está disponible para el público.

En declaraciones recogidas por Time, un portavoz de Google afirmó: “Estamos comprometidos con el desarrollo responsable de la IA y contamos con políticas claras para proteger a los usuarios y regular el uso de nuestras herramientas.” La documentación técnica de Veo 3 minimiza los riesgos de desinformación, argumentando que el modelo tiende a generar videos con cortes y ángulos dramáticos, lo que dificultaría la creación de videos coercitivos realistas.

Sin embargo, experimentos realizados por medios como Time y usuarios independientes han demostrado que, con indicaciones mínimas, es posible generar videos provocativos y potencialmente dañinos.

El consenso entre expertos consultados por medios como Time y PC MAG es que las salvaguardas actuales resultan insuficientes ante la velocidad de avance de la tecnología. Julia Smakman sostuvo que “la única forma de prevenir eficazmente el uso de deepfakes para desinformar es restringir el acceso a los modelos que los generan y aprobar leyes que exijan requisitos de seguridad que prevengan el mal uso de manera significativa.” Margaret Mitchell subrayó la necesidad de mecanismos que permitan distinguir entre imágenes auténticas y sintéticas, mientras que Connor Leahy lamentó la falta de regulación y las posibles consecuencias globales.

Nina Brown alertó sobre el impacto acumulativo de los daños menores que, en conjunto, socaven la confianza en los contenidos digitales. La proliferación de videos falsos y la dificultad para verificar su autenticidad han llevado a que incluso videos reales sean acusados de ser generados por IA, como ocurrió con un reportaje sobre la distribución de ayuda en Gaza, según Time.

La adopción de Veo 3 y tecnologías similares está transformando la industria audiovisual. Amazon Studios ha reconocido públicamente la integración de IA generativa en sus procesos creativos, una tendencia que responde tanto a la innovación como a la necesidad de reducir costos en un contexto donde los gastos de rodaje pueden alcanzar los 200.000 dólares diarios en Los Ángeles.

Gizmodo destacó que la producción de anuncios mediante Veo 3 puede suponer una reducción de hasta el 95 % en los costos, lo que amenaza la viabilidad de los estudios de efectos visuales tradicionales y podría provocar la pérdida de numerosos empleos en el sector.

La democratización de la manipulación sofisticada de video implica que cualquier persona con acceso a internet y una inversión mínima puede crear contenidos que antes requerían equipos especializados y grandes presupuestos. Esta accesibilidad elimina barreras que, hasta ahora, funcionaban como salvaguardas naturales contra la manipulación masiva de medios.

Google implementa marcas de aguaGoogle implementa marcas de agua y restricciones en Veo 3, pero persisten desafíos para verificar la autenticidad de los videos. (infobae)

El auge de los videos generados por IA ha reavivado el debate sobre derechos de autor y la necesidad de una regulación específica. Google y otros laboratorios de IA enfrentan demandas de artistas que alegan el uso no autorizado de sus obras para entrenar estos modelos, según Time. Las leyes de derecho a la imagen ofrecen cierta protección a celebridades, pero su alcance varía considerablemente entre jurisdicciones.

En Estados Unidos, el Congreso aprobó en abril la ley Take it Down Act, que penaliza la creación y difusión de pornografía deepfake no consensuada y obliga a las plataformas a eliminar dicho material. Sin embargo, expertos e instituciones como el Ada Lovelace Institute insisten en que se requieren regulaciones adicionales para mitigar la propagación de desinformación mediante deepfakes.

La información publicada por medios como Quartz, Time y PC MAG coincide en que la aparición de herramientas como Veo 3 ha comprimido en meses un proceso de adaptación social que se preveía para una década. La verificación de la autenticidad de los videos se ha convertido en una crisis inmediata, y la confianza en los contenidos audiovisuales ya no puede basarse únicamente en lo que se ve o escucha.

Según advirtió Nina Brown a Time, “el mayor peligro es la erosión de la confianza colectiva en línea.” La proliferación de videos sintéticos obliga a replantear los sistemas de verificación y a desarrollar mecanismos que permitan distinguir entre lo real y lo artificial, en un entorno donde la manipulación mediática es más accesible que nunca.

Leer artículo completo