Más de una quinta parte de los vídeos que YouTube muestra a quienes se abren una cuenta por primera vez son lo que varios investigadores ya definen como “basura de IA”: piezas generadas automáticamente, de baja calidad y sin apenas narrativa, diseñadas casi exclusivamente para rascar clics, retención y dinero publicitario.
El fenómeno, lejos de ser marginal, apunta a una industria global del contenido automatizado que se cuela en las recomendaciones iniciales de la plataforma y llega a millones de usuarios en todo el mundo, con un impacto notable también en países europeos y en España, donde decenas de millones de personas siguen ya este tipo de canales.
Un experimento que destapa el peso de la basura de IA en las recomendaciones
La empresa de edición de vídeo Kapwing llevó a cabo una prueba sencilla pero muy reveladora: crear una cuenta nueva en YouTube y observar qué recomendaba el algoritmo en ese primer contacto con la plataforma. De los primeros 500 vídeos sugeridos, 104 eran contenido generado con inteligencia artificial de calidad muy cuestionable, es decir, algo más del 20% del total.
Además, los investigadores identificaron que cerca de un tercio de esos 500 vídeos podían clasificarse como contenidos “sin sentido” o “destructivos”, una categoría que incluía tanto producciones automatizadas como otros clips de baja calidad cuya única razón de ser es retener la atención a toda costa.
Este tipo de vídeos se caracteriza por argumentos mínimos o inexistentes, imágenes estridentes y tramas repetitivas, pensadas para enganchar a usuarios muy diversos, incluidos niños, y para explotar al máximo el funcionamiento de las recomendaciones automáticas de la plataforma.
Los resultados del experimento, dados a conocer por medios como The Guardian, alimentan el debate sobre hasta qué punto el algoritmo de YouTube prioriza la calidad frente a la simple capacidad de generar visualizaciones y tiempo de reproducción.
Expertos consultados en el estudio advierten de que esta “basura de IA” no solo inunda las primeras recomendaciones, sino que puede condicionar la manera en que los nuevos usuarios entienden la plataforma, al encontrarse de entrada con un catálogo lleno de ruido y mensajes vacíos.
15.000 canales analizados y una nueva industria de contenido automático
Más allá del experimento con la cuenta nueva, Kapwing analizó también los 15.000 canales de YouTube más populares del mundo, incluyendo los 100 principales de cada país. En esa muestra encontraron 278 canales que publican exclusivamente vídeos generados con inteligencia artificial catalogados como “basura de IA”.
En conjunto, estos 278 canales acumulan más de 63.000 millones de visualizaciones y 221 millones de suscriptores, cifras que dan una idea de la magnitud del fenómeno. Los ingresos estimados rondan los 117 millones de dólares anuales, lo que demuestra que el modelo de negocio es, hoy por hoy, altamente rentable.
Kapwing describe esta tendencia como el ascenso de una industria global de contenido automático, adictivo y casi sin contexto, que no solo está presente en YouTube, sino también en TikTok, Facebook, X y otras grandes redes sociales.
Estas producciones suelen aprovechar plantillas de animación, voces sintéticas y guiones generados por IA para fabricar, a gran velocidad, y editar y convertir vídeos con calidad 4K, vídeos seriados que se repiten con pequeñas variaciones, pero que el algoritmo puede seguir impulsando si detecta que mantienen a la audiencia conectada.
El hecho de que una parte significativa de los canales que más crecen en la plataforma esté basada en este tipo de contenido hace pensar, según los investigadores, que la presión por maximizar visitas e ingresos publicitarios pesa más que los incentivos para fomentar contenido informativo o creativo de calidad.
España y otros países: millones de seguidores de canales de IA
El mismo estudio detalla que la audiencia de estos canales automatizados está muy repartida por todo el planeta. En España, se calcula que alrededor de 20 millones de usuarios siguen alguno de estos canales de IA, una cifra considerable para un país con poco más de 47 millones de habitantes.
Otros mercados también muestran un alcance masivo: 18 millones de seguidores en Egipto, 14,5 millones en Estados Unidos y 13,5 millones en Brasil, entre otros. Aunque el informe no se detiene en todos los países europeos, da a entender que la presencia de este tipo de contenidos es muy amplia en la región.
La combinación de barreras de entrada muy bajas —basta un ordenador, conexión a Internet y herramientas de IA accesibles— con el potencial de audiencia global que ofrece YouTube ha multiplicado la velocidad de expansión de estos formatos.
En el caso europeo, donde existen debates abiertos sobre regulación de plataformas y sobre la IA, la proliferación de vídeos automatizados de baja calidad añade un nuevo frente: el de la protección de menores, la salud mental digital y la calidad del ecosistema informativo.
Para los usuarios españoles, esto se traduce en que, al abrir una cuenta o al consumir contenido de forma casual, es relativamente fácil acabar envuelto en una cadena de recomendaciones dominada por producciones artificiales, repetitivas y con poco valor real más allá del entretenimiento inmediato.
Bandar Apna Dost y otros ejemplos de éxito de la basura de IA
Entre los canales analizados, el más visto es Bandar Apna Dost, con sede en India, que suma alrededor de 2.400 millones de visualizaciones. Sus vídeos, generados con IA, giran en torno a las aventuras de un mono parlante y un personaje musculoso claramente inspirado en Hulk, que se enfrentan a criaturas fantásticas o se embarcan en situaciones tan estrafalarias como viajar en un helicóptero construido con tomates.
Kapwing calcula que este canal podría estar generando ingresos anuales de hasta 4,25 millones de dólares, todo ello gracias a una fórmula basada en animaciones llamativas, violencia caricaturesca y tramas absurdas, sin apenas profundidad argumental.
La investigadora en tecnología y derechos digitales Rohini Lakshané apunta que el tirón de estos vídeos puede estar relacionado con lo desmesurado de sus personajes, la hipermasculinización de las figuras principales y la falta de una narrativa compleja, lo que facilita que el contenido sea comprensible para espectadores de cualquier edad o nivel educativo.
Otro ejemplo citado en el estudio es Pouty Frenchie, un canal con sede en Singapur que habría acumulado cerca de 2.000 millones de visualizaciones. Sus vídeos muestran a un bulldog francés viviendo aventuras imaginarias, muchas veces acompañadas de risas infantiles y situaciones disparatadas, también generadas con herramientas de IA.
En este caso, las estimaciones hablan de cerca de 4 millones de dólares de ingresos anuales. Tanto Bandar Apna Dost como Pouty Frenchie ilustran cómo la combinación de personajes fácilmente reconocibles, ritmo acelerado y producción masiva puede convertirse en una máquina de generar dinero en YouTube.
Comunidades enteras dedicadas a explotar el algoritmo
El periodista Max Read, que lleva tiempo investigando estos fenómenos, explica que han surgido comunidades específicas en Telegram, WhatsApp, Discord y foros online donde se comparten consejos, guías y plantillas para crear vídeos basura de IA que resulten lo bastante llamativos como para hacerse virales.
En estos espacios se venden cursos que enseñan a identificar nichos rentables, optimizar títulos y miniaturas, o aprovechar las últimas herramientas de generación de imágenes y vídeo para producir grandes volúmenes de contenido con muy pocos recursos.
Algunos de esos nichos pueden resultar incluso surrealistas: Read menciona, por ejemplo, vídeos generados con IA de ollas a presión explotando en la cocina, diseñados únicamente para atraer la curiosidad de los usuarios y acumular visitas sin ofrecer información útil ni contexto.
Según el periodista, muchos de los creadores que se dedican a esto proceden de países con salarios medios relativamente bajos en comparación con los ingresos potenciales de YouTube, y ven en la producción masiva de contenido automatizado una vía rápida para mejorar su situación económica.
Este entorno de “fábricas de contenido” refuerza la impresión de que no se trata de casos aislados, sino de una economía paralela alrededor del algoritmo de recomendaciones, donde lo importante es entender cómo engancharlo, no tanto ofrecer algo valioso al espectador.
Preocupación por la experiencia de usuario y la calidad de la información
Los expertos consultados por Kapwing y por los medios que han difundido el estudio coinciden en que el auge de la basura de IA está deteriorando la experiencia de uso en plataformas como YouTube. Para un usuario que llega sin un historial previo, la primera impresión puede ser la de un entorno saturado de vídeos ruidosos, repetitivos y sin contexto.
Además, se advierte del riesgo de “contaminación de la información”, al mezclar en el mismo flujo de recomendaciones contenido educativo o informativo con piezas engañosas, absurdas o incluso potencialmente dañinas, sin que el espectador tenga siempre claro qué está viendo ni por qué se le muestra.
En Europa, donde se debate de forma intensa sobre la regulación de la IA y la responsabilidad de las grandes plataformas, fenómenos como este plantean interrogantes sobre cómo se gestionan los contenidos automatizados y qué controles deberían aplicarse cuando se dirigen a audiencias masivas, incluidas personas menores de edad.
Organizaciones dedicadas a la defensa de los derechos digitales insisten en que no se trata solo de un problema de “calidad” en sentido estético, sino de un posible impacto en la atención, la percepción de la realidad y la confianza en las fuentes de información online.
La sensación general entre los analistas es que, si la lógica de la recomendación se basa casi exclusivamente en maximizar el tiempo de visualización, el espacio para contenidos más elaborados y críticos se ve desplazado, con consecuencias para el debate público y para la diversidad de voces presentes en la plataforma.
La respuesta de YouTube: la IA como herramienta neutral
Ante las conclusiones del estudio, un portavoz de YouTube subrayó que la inteligencia artificial es una herramienta que puede utilizarse para crear tanto contenido de alta como de baja calidad, y que, en sí misma, no determina el valor de los vídeos.
La compañía insiste en que su prioridad sigue siendo conectar a los usuarios con contenidos fiables y de calidad y que elimina aquellos vídeos que infringen las normas de la comunidad, independientemente de si han sido elaborados por personas, por máquinas o mediante una combinación de ambas.
No obstante, las cifras recopiladas por Kapwing y otros análisis, como el publicado por The Guardian, apuntan a que casi un 10% de los canales que más rápido crecen en la plataforma utilizan contenido generado por IA, lo que sugiere que las medidas actuales quizá no estén frenando el avance de la basura automatizada.
En este contexto, se abre el debate sobre si sería necesario que YouTube ofreciera más transparencia sobre el origen de los contenidos recomendados, permitiendo al usuario saber si un vídeo ha sido generado parcialmente por IA o si forma parte de un patrón de producción masiva.
También se plantea si la plataforma debería ajustar su sistema de recomendaciones para penalizar la proliferación de contenidos vacíos o engañosos, especialmente cuando se dirigen a públicos especialmente vulnerables o cuando dominan las sugerencias a quienes aún no han configurado sus propios intereses.
Con todos estos elementos sobre la mesa, el panorama que dibuja el estudio de Kapwing es el de un YouTube donde la basura de IA ha ganado un espacio muy relevante en las recomendaciones iniciales, apoyada por una industria global que sabe cómo explotar el algoritmo y por una audiencia gigantesca repartida por países como España y el resto de Europa, lo que obliga a replantearse el equilibrio entre libertad de creación, negocio publicitario y responsabilidad hacia los usuarios.
Madrid