En los últimos meses, los padres y educadores han comenzado a alertar sobre una tendencia alarmante en YouTube: videos AI generados que, supuestamente, enseñan a niños a jugar en la calle, cruzar callejones, y consumir alimentos tóxicos. Este fenómeno, conocido como 'AI Slop', ha generado preocupación internacional, especialmente en contextos donde el contenido educativo digital se mezcla con riesgos de seguridad y salud. Según investigaciones recientes, el problema no solo afecta a los menores, sino que también pone en duda la capacidad de las plataformas tecnológicas para proteger a los usuarios más vulnerables.
El caso más destacado ocurrió en marzo de 2026, cuando un estudio realizado por Dexerto reveló que varios videos etiquetados como 'educativos' para niños incluían pasos para 'jugar en tráfico' y 'comer alimentos tóxicos', como pesticidas y productos químicos peligrosos. Estos videos, generados por algoritmos de inteligencia artificial, se presentaban como tutoriales para niños, pero en realidad, estaban diseñados para imitar comportamientos peligrosos. El problema no es un error técnico, sino una falta de control en la generación de contenido automático.
El fenómeno 'AI Slop' ha sido objeto de demandas oficiales en todo el mundo. En Estados Unidos, el gobierno ha pedido a Google que prohíba la creación de videos AI para menores de 13 años en YouTube. La compañía ha respondido que está trabajando en medidas para mejorar la seguridad, pero los expertos en seguridad digital advierten que el problema exige una regulación más estricta y una revisión de los estándares éticos en la generación de contenido automático.
¿Por qué los niños están expuestos a videos peligrosos en YouTube?
Los niños, especialmente aquellos que están en el primer ciclo de aprendizaje, tienen una curiosidad natural y una disposición a seguir instrucciones visuales. En el caso de 'AI Slop', los videos no solo muestran cómo actuar, sino que también proporcionan pasos detallados para comportamientos que podrían ser peligrosos. Según el informe de Dexerto, los videos incluyen escenarios como 'jugar en la calle sin supervisión' y 'consumir productos químicos en casa', lo que representa un riesgo real para la salud y la seguridad.
El problema es especialmente preocupante en países donde los sistemas de protección de menores no están bien estructurados. En Argentina, por ejemplo, la normativa actual sobre el uso de tecnología en educación no abarca suficientemente los riesgos de contenido generado por IA. Esto genera una brecha entre lo que se explica en línea y lo que está protegido por las leyes existentes.
- 1. Falta de control en la generación de contenido: Los algoritmos de IA generan videos a partir de datos disponibles, pero no siempre pueden distinguir entre riesgos y beneficios.
- 2. Falta de regulación en plataformas: YouTube y otros servicios no tienen mecanismos robustos para identificar y eliminar contenido que pueda ser peligroso para niños.
- 3. Falta de educación para padres: Muchos padres no están informados sobre cómo identificar estos videos, lo que dificulta la prevención.
El problema no se limita a YouTube. Otros servicios como TikTok y Instagram también están enfrentando críticas similares. Sin embargo, YouTube, como plataforma principal para contenido educativo, tiene un rol central en esta situación.
Desde el punto de vista técnico, los videos generados por IA son un ejemplo de cómo la inteligencia artificial puede ser utilizada para crear contenido que, a primera vista, parece seguro, pero que, en realidad, tiene consecuencias graves. La tecnología no es malintencionada, pero su aplicación en contextos que involucran a niños requiere una regulación más estricta.
Los expertos en seguridad digital recomiendan que las plataformas tecnológicas deben implementar sistemas de verificación que permitan identificar contenido peligroso antes de que sea publicado. Además, los padres deben ser educados sobre cómo detectar este tipo de contenido y cómo proteger a sus hijos.