El lanzamiento de Veo 3, el avanzado generador de video con inteligencia artificial de Google, marcó en mayo un importante salto tecnológico en la creación de imágenes en movimiento. Con la capacidad de generar clips que en ocasiones parecen indistinguibles de los reales, la herramienta abrió la puerta a un sinfín de posibilidades creativas. Ahora, su llegada a España coincide con una preocupante revelación: Veo 3 ya está siendo utilizado para crear y difundir videos racistas en TikTok.
Un informe de MediaMatters ha puesto el foco en este uso indebido de la herramienta. De acuerdo con su investigación, decenas de cuentas en TikTok han comenzado a publicar clips generados con Veo 3 cargados de mensajes de odio y estereotipos racistas, contenidos que, además, están generando una alta interacción entre los usuarios.
La mayoría de estos videos, que suelen durar unos ocho segundos y conservan la marca de agua de «Veo», muestran a personas negras bajo representaciones criminales o deshumanizantes. También se han detectado ataques dirigidos contra inmigrantes y la comunidad judía, dejando en evidencia lo fácil que puede resultar manipular la realidad mediante esta tecnología.
Aunque Google ha insistido en que sus modelos de IA están diseñados con medidas de seguridad para evitar abusos —los llamados guardrails—, en el caso de Veo 3 estos filtros han demostrado ser insuficientes o fácilmente burlables. Parte del problema reside en que el sistema no reconoce muchos de los estereotipos usados comúnmente en discursos racistas, como la utilización de simios para denigrar a personas negras. Además, la ambigüedad en los prompts (las instrucciones que se le dan a la IA) permite esquivar los mecanismos de detección sin levantar alertas.
Incluso pruebas externas destinadas a medir la robustez de estos filtros demostraron lo sencillo que es generar este tipo de contenido. Y aunque las políticas tanto de Google como de TikTok prohíben de forma expresa los discursos de odio, el control efectivo sobre la proliferación de este material sigue siendo un desafío.
TikTok, por ejemplo, asegura combinar tecnología con moderadores humanos para detectar y eliminar contenido dañino. No obstante, según reconoció un portavoz de la compañía a Ars Technica, el volumen de videos que se suben a diario supera ampliamente su capacidad de revisión. Afirmaron que más de la mitad de las cuentas señaladas por MediaMatters ya habían sido eliminadas antes de la publicación del informe. Sin embargo, los videos ofensivos alcanzaron miles de visualizaciones antes de ser retirados, dejando su huella en la audiencia.
Y el fenómeno no se limita a TikTok. Plataformas como X (antes Twitter), donde la moderación es aún más laxa, también han sido escenario de la difusión de estos contenidos. Allí, herramientas como Grok, la IA integrada en la red, no logran distinguir entre videos reales y generados por inteligencia artificial, aunque algunos usuarios intentan usarla para ese fin.
Lo más preocupante es que esto podría ser solo el principio. Google ya ha anunciado planes para integrar Veo 3 en YouTube Shorts, lo que podría disparar aún más la viralización de contenido problemático en una de las plataformas de video más grandes del mundo. Una expansión que pondrá a prueba, una vez más, la capacidad de las grandes tecnológicas para contener el uso malicioso de sus propias creaciones.
Leave a comment