Sora 2: ¿IA descontrolada? Videos violentos y racistas en la nueva app

Sora 2: ¿IA descontrolada? Videos violentos y racistas en la nueva app

Sora 2: La IA de OpenAI bajo la lupa por contenido inapropiado

OpenAI lanzó la última versión de su generador de videos con inteligencia artificial, Sora, incorporando una red social para compartir los videos realistas creados. Sin embargo, la plataforma se vio inundada rápidamente con contenido preocupante.

A pocas horas del lanzamiento de Sora 2, comenzaron a circular videos con personajes protegidos por derechos de autor en situaciones comprometedoras, escenas gráficas de violencia y contenido racista. Esto contradice directamente los términos de servicio de OpenAI, que prohíben contenido que "promueva la violencia" o "cause daño".

Escenas de violencia y racismo generadas por IA

Según informes, Sora generó videos de alertas de bombas y tiroteos masivos, con personas gritando y corriendo en pánico en campus universitarios y lugares concurridos como la Grand Central Station de Nueva York. También se crearon escenas de zonas de guerra en Gaza y Myanmar, donde niños fabricados por IA hablaban sobre sus casas incendiadas.

Un video con la descripción "Imágenes de Etiopía estilo noticias de guerra civil" mostraba a un reportero con chaleco antibalas hablando a un micrófono, informando sobre un intercambio de disparos entre el gobierno y las fuerzas rebeldes en barrios residenciales. Otro video, creado con la simple descripción "Manifestación de Charlottesville", mostraba a un manifestante negro con máscara antigás, casco y gafas gritando: "No nos reemplazarán", un lema supremacista blanco.

Preocupación por la desinformación y el mal uso

Investigadores de desinformación expresan su preocupación por la capacidad de Sora para crear escenas realistas que podrían confundir la verdad y conducir al fraude, el acoso y la intimidación. La capacidad de generar contenido falso pero creíble plantea serias preguntas sobre la responsabilidad y el control de la IA.

Actualmente, el acceso a Sora es limitado y solo está disponible por invitación. Sin embargo, la rápida proliferación de contenido inapropiado plantea interrogantes sobre la efectividad de las medidas de seguridad implementadas por OpenAI y la necesidad de una regulación más estricta.

  • ¿Cómo evitar que la IA genere contenido dañino?
  • ¿Quién es responsable del contenido generado por la IA?
  • ¿Cómo podemos distinguir entre videos reales y videos generados por IA?

Estas son solo algunas de las preguntas que debemos abordar a medida que la tecnología de IA continúa avanzando a un ritmo vertiginoso.