OpenAI presentó a Sora el pasado 15 de febrero mediante un breve hilo de publicaciones en su cuenta oficial de X, la red social de Elon Musk. En el primero de estos posts podemos ver un vídeo generado detallando una Tokio vibrante con copos de nieve y muchos pétalos de cerezos en flor. El resultado, como se puede ver en el propio vídeo, es tan realista que da miedo.
VIDEOS DE EJEMPLO :
O lo que es lo mismo: Sora es a los vídeos lo que DALL-E3, también de OpenAI, a las imágenes. Según informa la compañía, como medida para evitar en lo posible un uso malicioso de Sora, es trabajar codo con codo junto con un equipo de expertos en áreas como la desinformación o los prejuicios que están buscando flecos de forma concienzuda en las capacidades de generación de este modelo de IA. En otras palabras: es un grupo de especialistas que está “usando mal” a Sora de forma deliberada precisamente para poder evitar que se haga un uso nocivo de esta inteligencia artificial en un futuro. Esto propiciaría que Sora usase prompts ocultos para combatir prejuicios como el racismo, como hace DALL-E3.
No en vano, las preocupaciones sobre la utilización de las IAs de forma carente de ética van en aumento. Varios investigadores de OpenAI llegaron a publicar una misiva dirigida al consejo de administración en la que le instaban que tomasen medidas para evitar “la destrucción de la humanidad”.
Por lo pronto, Sora solo está disponible para los red teamers, es decir, los usuarios que trabajarán codo con codo con la compañía propietaria de ChatGPT para buscar cualquier posible atisbo de uso potencialmente perjudicial. OpenAI también proporcionará acceso a Sora a varios artistas, diseñadores y cineastas para obtener feedback con el que saber cómo calibrar a este modelo de cara al futuro.
Según OpenAI, “Sora es capaz de generar escenas complejas con múltiples personajes, tipos muy específicos de movimiento y detalles muy precisos sobre los sujetos a tratar y el fondo. El modelo entiende no solo qué le pide el usuario, sino también cómo existen esos elementos en un espacio físico”. Y la compañía no lo dice sin más; los vídeos que acompañan a este texto demuestran que cada vez será más difícil distinguir un vídeo real de uno generado por IA.
El modelo actual posee puntos débiles. Puede tener problemas a la hora de representar una escena compleja, y puede no entender instancias específicas de causa y efecto. Por ejemplo, una persona podría dar un bocado a una galleta, pero tras esto la galleta podría no tener la marca de ese bocado”, se justifica OpenAI con respecto al hecho de que Sora aún está en fase de pruebas.
En cualquier caso, tras su anuncio Sora ha dado mucho de qué hablar en redes sociales no solo por el hecho de que cada vez se difumina más la línea entre ficción y realidad, sino también por los peligros que ello conlleva y por los potenciales usos maliciosos que pueden tener este tipo de herramientas.