Minecraft Edición: Lobotomía
Minecraft Edición: Lobotomía
Al iniciar un mundo nuevo la versión de Minecraft propuesta por las compañías informáticas Decart y Etched, tras una fila de espera, que en mi caso fue de 6 minutos, encontramos lo que fácilmente es identificable como una versión en baja resolución con algunos elementos extraños o fuera de lugar. No es hasta que avanzamos, como lo harías con la versión regular de Minecraft, que nos damos cuenta de algo muy extraño: la geometría tan perfectamente cúbica del juego original no parece ser completamente respetada, ciertos colores y dimensiones parecen cambiar y si rotamos nuestra vista 360 grados al volver notaremos cambios, a veces pequeños pero en ocasiones todo completamente cambiado. El ambiente, los bloques, la posición- casi pareciendo que estamos en un espacio no euclidiano o un sueño de fiebre. Esta es la innovadora y conflictiva versión que cariñosamente he denominado Minecraft Edición: Lobotomía.
Decart y Etched, las compañías detrás de este proyecto, nos presentan una versión del juego Minecraft que funciona completamente diferente a no sólo la versión original, sino que también a cualquier juego convencional. Esta versión es completamente generada mediante Inteligencia Artificial, fotograma a fotograma. El espacio dentro del juego no existe, la geometría del espacio no es más que una ilusión (en ocasiones bien hecha, he de admitir) de la computadora que “sin una línea de código” (como la compañía expresa, frase que es parcialmente verdadera) es capaz de imitar a trompicones la jugabilidad del juego de Microsoft.
La manera en que el proyecto consigue esto es de verdad fascinante y nos muestra un pequeño adelanto a lo que podemos esperar del contenido en general para el futuro. Según las palabras del cofundador de Decart, Dean Leitersdorf: “Tu pantalla puede convertirse en un portal hacia un mundo imaginario que no necesita codificarse y que puede cambiar sobre la marcha. Y eso es realmente lo que pretendemos”. Este “portal” al que Dean se refiere es realmente una tecnología denominada por la compañía cómo “predicción del siguiente fotograma” (sobre lo que ahondaré más luego) que suena bastante auto explicativo. Utilizando millones de horas de videos sobre el juego, este es capaz de imitar las físicas, ambientes y controles basados únicamente en el entrenamiento recibido por tales cantidades de contenido.
Obviamente, como podrán inferir de las imágenes mostradas y descripciones, el modelo está lejos de ser perfecto. La compañía es consciente de ello y por eso lo trata más cómo una prueba de concepto que un producto en concreto. Los principales detalles que saltan a la vista son 3: La baja resolución en la que se puede probar, lo propenso que es a las alucinaciones (término utilizado cuándo una inteligencia artificial regresa un resultado erróneo o raro basado en lo que nosotros esperaríamos) y que por el momento sólo se puede probar en intervalos de minutos cortos. Ante esto, Decart ha declarado que tiene en mente las siguientes mejores: mejorar las generaciones confusas y abstractas que el modelo pueda generar, más memoria por parte del modelo sobre cosas que se han hecho o presentado para evitar alucinaciones y mejor el sistema de imagen inicial. Esto hace referencia a una posibilidad dentro del proyecto que permite al usuario subir una foto e iniciar la experiencia desde esta imagen, como se puede suponer es muy propenso a romperse, pero da a entender lo poderoso que puede ser el modelo.
Ahora sí, lo que puede que muchos estuvieran esperando, ¿cómo funciona realmente esto? Bueno, creo que no hay mejor explicación que la proporcionada directamente por Decart en el siguiente enlace: https://www.decart.ai/articles/oasis-interactive-ai-video-game-model. Pero haré mi mejor esfuerzo en dar una explicación breve y digerible de cómo funciona. Básicamente, lo que vemos no es nada más que un modelo de generación de imágenes cómo los que estamos ya tan acostumbrados a la fecha. Sin embargo, este modelo tiene cambios en cómo se realiza el “pedido” de la imagen. Aquí es donde entra en juego la antes mencionada “predicción del siguiente fotograma” en la que al modelo se le alimentan 3 fotogramas pasados del juego. Esto quiere decir que se le da un poco de contexto sobre lo que ocurre. Como se puede intuir, 3 fotogramas que se van actualizando constantemente no permiten mucho contexto, lo que provoca que el modelo alucine cosas, ya que tienen una “memoria corta". Luego, el modelo espera a que nosotros, los usuarios, le demos un señal mediante nuestro teclado, por ejemplo avanzar. Ahora sumando el contexto con la señal recibida, el modelo genera una predicción de fotograma un “¿cómo se vería el siguiente fotograma basado en esta información?”. El modelo hace su mayor esfuerzo en regresar lo que cree podría ser el siguiente fotograma basado en su limitada memoria a corto plazo. ¿Interesante, no?
Ahora que tienes las principales piezas sobre la mesa, ya podemos plantear la reflexión sobre esto. Obviamente antes de que suenen las alarmas para los desarrolladores en Mojang (compañía desarrolladora de Minecraft) el modelo está basado en millones de diferentes vídeos sobre el juego. Sin el juego base y la cantidad enorme de videos y contextos proporcionados el modelo no puede hacer nada. Aunque mejoremos la memoria del modelo de 3 a miles de fotogramas, al no estar basado en un mundo real-virtual (¿nuevo término gracias a esto?), siempre está abierto a alucinaciones y actuares raros. Aún con miles de millones de fotogramas en la memoria del modelo se harán indiscutiblemente presentes en un modelo que repito, no es un espacio virtual, es un cúmulo de imágenes una tras otra. Tiene indiscutiblemente un potencial increíble en campos cómo la educación, medicina y entretenimiento. Pero por el momento y en el mediano a largo plazo parece que no es una alternativa práctica al juego, pero sí un paso grande hacía este tipo de contenido cuyo principal problema es su dependencia al producto base. Si se escogió Minecraft para este modelo no es casualidad, ya que funciona con creces y de manera tan “sencilla”. Debido a las características tan claras y definidas de este mismo, existe el potencial de replicar cualquier juego de esta manera, siempre que exista y que se tengan millones de horas para alimentar el modelo. Es por esto que no veo clara su evolución en el medio, no digo que no exista, sólo que se me es difícil de imaginar. ¿Creamos un juego, tomamos millones de hora en vídeo, entrenamos un modelo y luego lo lanzamos por separado al juego? Obviamente, su aplicación puede ser mayor al medio de los videojuegos y lo seguiré con curiosidad, pero no me ilusionaría mucho de que veamos un producto que sirva como “portales con experiencias y posibilidades infinitas” de manera práctica en nuestro tiempo de vida. Siendo honesto, tampoco sé si espero equivocarme o no al respecto.
No hay comentarios: