Tecnología

¿Por qué Silicon Valley está tan entusiasmado con los dibujos incómodos hechos por inteligencia artificial?

Zoom In IconFlechas señalando

Interfaz web de difusión estable, DreamStudio

Captura de pantalla / Difusión estable

Los programas de computadora pueden crear imágenes nunca antes vistas en segundos.

Alimente a uno de estos programas con algunas palabras y, por lo general, arrojará una imagen que realmente se ajusta a la descripción, sin importar cuán extraña sea.

Las imágenes no son perfectas. Suelen tener manos dedos extra o dígitos que se doblan y curvan de forma poco natural. Los generadores de imágenes tienen problemas con el texto, apareciendo con signos sin sentido o inventando los suyos propio alfabeto.

Pero estos programas generadores de imágenes, que hoy en día son como juguetes, podrían ser el comienzo de una gran ola tecnológica. Los tecnólogos los llaman modelos generativos o IA generativa.

«En los últimos tres meses, las palabras ‘IA generativa’ pasaron de ‘nadie discutió esto’ a la palabra de moda del día», dijo David Beisel, capitalista de riesgo de NextView Ventures.

Durante el último año, la IA generacional ha mejorado tanto que ha inspirado a las personas a renunciar a sus trabajos, iniciar nuevas empresas y soñar con un futuro en el que la inteligencia artificial podría impulsar a una nueva generación de un gigante tecnológico.

El campo de la inteligencia artificial ha estado en auge durante la última década, pero la mayoría de esos avances han implicado dar sentido a los datos existentes. Los modelos de IA han crecido rápidamente para ser lo suficientemente eficientes como para reconocer si hay un gato en una foto que acabas de tomar con tu teléfono y lo suficientemente confiables como para potenciar los resultados del motor de búsqueda de Google miles de millones de veces al día.

Pero los modelos genéticos de IA pueden producir algo completamente nuevo que no existía antes; en otras palabras, están creando, no solo analizando.

«La parte notable, incluso para mí, es que es capaz de inventar cosas nuevas», dijo Boris Dayma, creador de la generación de IA de Craiyon. «No se trata solo de crear imágenes antiguas, son cosas nuevas que pueden ser completamente diferentes a lo que hemos visto antes».

Sequoia Capital, históricamente la firma de capital de riesgo más exitosa en la historia de la industria, con apuestas tempranas en compañías como Apple y Google, dice en una publicación de blog en su sitio web que «La IA genética tiene el potencial de generar billones de dólares de valor económico .» La firma de capital de riesgo predice que la IA generativa podría transformar todas las industrias que requieren humanos para crear trabajos originales, desde juegos hasta publicidad y leyes.

En un giro, Sequoia también señala en la publicación que el mensaje fue escrito parcialmente por GPT-3, una IA generativa que produce texto.

Cómo funciona la generación de IA

Zoom In IconFlechas señalando

La generación de imágenes utiliza técnicas de un subconjunto de aprendizaje automático llamado aprendizaje profundo, que ha impulsado la mayoría de los avances en el campo de la inteligencia artificial desde que un artículo histórico de 2012 sobre la clasificación de imágenes despertó un renovado interés en la tecnología.

El aprendizaje profundo utiliza modelos entrenados en grandes conjuntos de datos hasta que el programa comprende las relaciones en esos datos. Luego, el modelo se puede usar para aplicaciones, por ejemplo, reconocer si hay un perro en una imagen o traducir texto.

Los generadores de imágenes funcionan dando la vuelta a este proceso. En lugar de traducir del inglés al francés, por ejemplo, traducen una frase en inglés a una imagen. Suelen tener dos partes principales, una que procesa la frase inicial, y la segunda que convierte esos datos en una imagen.

La primera ola de IA generativas se basó en un enfoque llamado GAN, que significa redes antagónicas generativas. Las GAN se han hecho famosas en una herramienta que genera fotos de personas inexistentes. Básicamente, funcionan haciendo que dos modelos de IA compitan entre sí para crear una imagen que se adapte mejor a un objetivo.

Los enfoques más nuevos suelen utilizar transformadores, que se describieron por primera vez en un artículo de Google de 2017. Es una técnica emergente que puede aprovechar conjuntos de datos más grandes que cuestan millones de dólares para entrenar.

El primer generador de imágenes que llamó mucho la atención fue DALL-E, un programa anunciado en 2021 por OpenAI, una startup bien financiada en Silicon Valley. OpenAI lanzó una versión más poderosa este año.

«Con DALL-E 2, ese es realmente el momento en que cruzamos el valle inquietante», dijo Christian Cantrell, un desarrollador que se enfoca en la IA genética.

Otro generador de imágenes basado en IA de uso común es Craiyon, anteriormente conocido como Dall-E Mini, disponible en la web. Los usuarios pueden escribir una frase y verla en minutos en su navegador.

Desde su lanzamiento en julio de 2021, ahora genera alrededor de 10 millones de imágenes por día, sumando un total sin precedentes de 1000 millones de imágenes, según Dayma. Asumió un trabajo de tiempo completo para Craiyon luego de su fallecimiento a principios de este año. Él dice que está enfocado en usar publicidad para mantener el sitio web gratuito para los usuarios porque los costos del servidor del sitio son altos.

Una cuenta de Twitter dedicada a las imágenes más extrañas y creativas de Craiyon tiene más de un millón de seguidores y publica regularmente imágenes de escenas cada vez más improbables o absurdas. Por ejemplo: un fregadero italiano con un grifo que dispensa salsa marinara o Minions luchando en la Guerra de Vietnam.

Pero el programa que ha inspirado más retoques es Stable Diffusion, que se lanzó al público en agosto. El código está disponible en GitHub y se puede ejecutar en computadoras, no solo en la nube o a través de una interfaz de programación. Esto alentó a los usuarios a modificar el código del programa para sus propios fines o construir sobre él.

Por ejemplo, Stable Diffusion se ha integrado en Adobe Photoshop a través de un complemento, lo que permite a los usuarios generar fondos y otras partes de las imágenes que pueden manipular directamente dentro de la aplicación mediante capas y otras herramientas de Photoshop, convirtiendo la generación de IA en algo que produce imágenes terminadas. . imágenes en una herramienta que puede ser utilizada por profesionales.

«Quería conocer a los profesionales creativos donde estaban y quería empoderarlos para incorporar la IA en su flujo de trabajo, sin hacer explotar su flujo de trabajo», dijo Cantrell, el desarrollador del complemento.

Cantrell, que ha estado en Adobe durante 20 años

Peter Flores Posada

Apasionado por el mundo de la tecnología, es productor de segmentos para portales de noticias importantes. Su experiencia y estudios, le llevan a desarrollar información de interés en el ámbito de la tecnología y nuevas técnicas y desarrollo.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Botón volver arriba