
ARTDEPARTMENT

El tiro de Veo 3 de Google en mayo supuso un gran brinco cualitativo en la engendramiento de vídeo con inteligencia fabricado, y equitativamente hoy aterriza en España. Su capacidad para crear clips que a veces cuesta distinguir de los reales abrió un amplio pericón de posibilidades creativas. Sin requisa, como suele ocurrir con este tipo de tecnología, su flanco anfibológico no ha tardado en manifestarse. Un nuevo documentación revela cómo esta aparejo se está utilizando para suscitar y propagar vídeos racistas en TikTok.
El problema, destapado por un informe de MediaMatters, muestra una preocupante tendencia: numerosas cuentas de TikTok están publicando vídeos cortos generados con Veo 3 que recurren a temas de racismo y odio. Poco que todavía se refleja en las interacciones que generan.
La mayoría de estos vídeos, con una duración media de ocho segundos y la marca de agua "Veo" visible, muestran principalmente a personas negras, representadas con estereotipos criminales o deshumanizantes. El contenido todavía ataca a inmigrantes y a la comunidad alubia, demostrando lo ligera que puede ser usar esta IA para manipular la verdad.
Desde Google siempre han querido hacer hincapié en la seguridad y los “guardrails” de sus modelos de IA. Esto todavía ocurre con otros modelos, que cuentan con diferentes filtros para cercar contenidos que vulneren principios éticos. Pero parece ser que, en el caso de Veo 3, estas defensas son más permeables y han sido sorteadas con facilidad para suscitar el contenido deseado.
Esto se debe, en parte, a que la IA no ha sido entrenada con todos los estereotipos que se usan en la vida cotidiana para mostrar conductas racistas. Por ejemplo, no comprende la "sutileza" de usar monos para representar personas. Adicionalmente, la imprecisión en los prompts que se le introducen permite suscitar contenido problemático sin activar las alarmas del sistema. Incluso en pruebas externas diseñadas para evaluar estos filtros, se comprobó que era ligera suscitar ese tipo de vídeos.
Si se revisan las políticas internas de Google y TikTok, queda claro que prohíben expresamente la engendramiento y difusión de contenido de odio. En el caso de TikTok, es tajante: “No permitimos ningún discurso de odio, comportamiento de odio o promoción de ideologías de odio”.


Google todavía cuenta con una política estricta, pero todavía ha presentado problemas en su padre de imágenes que cualquier petición que se le hacía acababa generando una imagen de inclusiva y ataque.
Pero el problema es que no existen herramientas eficaces para hacer cumplir estas normas a gran escalera. Un portavoz de TikTok declaró a Ars Technica que, aunque usan una combinación de tecnología y moderadores humanos, el convexidad de vídeos que se suben a la plataforma supera con creces su capacidad de revisión. Afirmaron que más de la porción de las cuentas investigadas por MediaMatters ya habían sido eliminadas antiguamente de la publicación del documentación. El problema es que, antiguamente de ser eliminadas, esos vídeos ya habían acumulado miles de visualizaciones, y sembrado esta semilla en la mente de muchas personas.

Este aberración no es exclusivo de TikTok. Incluso se han detectado casos similares en X (antiguamente Twitter), una red con una moderación mucho más laxa, donde los bulos circulan sin freno. Encima, con una IA integrada como Grok, que no es capaz de distinguir entre un vídeo efectivo y uno generado por IA, aunque algunos usuarios la utilizan como conductor para intentar distinguir lo efectivo de lo fabricado.
El decano temor es que esto sea solo el eclosión. Google tiene planes para integrar Veo 3 directamente en YouTube Shorts. Esta integración podría simplificar aún más la creación y viralización de contenido problemático en una de las plataformas de vídeo más grandes del mundo, poniendo a prueba sus sistemas de moderación como nunca antiguamente.
Imágenes | Solen Feyissa Aaron Weiss
Vía | Ars Technica
En Genbeta | Los adolescentes de hoy, la engendramiento Alfa, ya saben ganarse su propio billete de forma justo y poder subordinarse menos de sus padres
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!