/ lunes 18 de abril de 2022

Robots serán cada vez más creativos

Las nuevas generaciones de sistemas de aprendizaje están causando sensación con su increíble capacidad para generar trabajo creativo de toda índole

Si has visto fotos de una tetera con forma de aguacate o leído artículos bien escritos que se desvían por tangentes ligeramente extrañas, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA).

Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación con su increíble capacidad para generar trabajo creativo.

Estos sistemas se conocen como "modelos de base" y no son solo exageraciones o trucos de fiesta, sino nuevos enfoques que han hecho que muchos vean en estas aplicaciones el fin de la creatividad humana y el comienzo de una pesadilla profundamente falsa.

Los modelos básicos funcionan entrenando un solo sistema enorme en grandes cantidades de datos generales y luego adaptando el sistema a nuevos problemas, mientras que los modelos anteriores tendían a empezar de cero para cada nuevo problema.

DALL-E 2, por ejemplo, fue entrenado para hacer coincidir imágenes (como una foto de un gato) con la leyenda ("Mr. Fuzzyboots, el gato atigrado se está relajando bajo el sol") escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe cómo se ven los gatos (y otras cosas) en las imágenes.

Pero el modelo también se puede usar para muchas otras tareas interesantes de IA, como generar nuevas imágenes a partir de un título solo ("Muéstrame un koala clavando una pelota de baloncesto") o editar imágenes basadas en instrucciones escritas ("Haz que parezca que este mono está pagando impuestos").

Los modelos básicos se ejecutan en "redes neuronales profundas", que se inspiran libremente en el funcionamiento del cerebro, e involucran matemáticas sofisticadas y una gran cantidad de poder de cómputo, pero se reducen a un tipo muy sofisticado de coincidencia de patrones.

Por ejemplo, al observar millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra "gato" con patrones de píxeles que a menudo aparecen en imágenes de gatos, como manchas de textura suaves, borrosas y peludas. Cuantos más ejemplos ve el modelo , y más grande es este (más "capas" o "profundidad" tiene), más complejos pueden ser estos patrones y correlaciones.

Los modelos básicos son, en cierto sentido, sólo una extensión del paradigma de "aprendizaje profundo" que ha dominado la investigación de IA durante la última década. Sin embargo, exhiben comportamientos no programados o “emergentes” que pueden ser sorprendentes

Por ejemplo, el modelo de lenguaje PaLM de Google parece ser capaz de producir explicaciones para bromas y metáforas complicadas. Esto va más allá de simplemente imitar los tipos de datos para los que fue entrenado originalmente.

Es difícil pensar en la gran escala de estos sistemas de IA. PaLM tiene 540 mil millones de parámetros, lo que significa que incluso si todos en el planeta memorizaran 50 números, aún no tendríamos suficiente almacenamiento para reproducir el modelo.

Los modelos son tan enormes que entrenarlos requiere cantidades masivas de recursos computacionales y de otro tipo. Una estimación sitúa el costo de entrenar el modelo de lenguaje GPT-3 de OpenAI en alrededor de 5 millones de dólares.

Como resultado, solo las grandes empresas tecnológicas como OpenAI, Google y Baidu pueden permitirse construir modelos básicos en este momento. Estas empresas limitan quién puede acceder a los sistemas, lo que tiene sentido económico.

Las restricciones de uso pueden darnos cierta tranquilidad de que estos sistemas no se utilizarán con fines nefastos (como generar noticias falsas o contenido difamatorio) en el corto plazo. Pero esto también significa que los investigadores independientes no pueden interrogar estos sistemas y compartir los resultados de manera abierta y responsable. Por lo tanto, aún no conocemos todas las implicaciones de su uso.

Se producirán más modelos básicos en los próximos años. Ya se están publicando modelos más pequeños en formas de código abierto, las empresas de tecnología están comenzando a experimentar con la concesión de licencias y la comercialización de estas herramientas y los investigadores de IA están trabajando arduamente para hacer que la tecnología sea más eficiente y accesible.

La notable creatividad mostrada por modelos como PaLM y DALL-E 2 demuestra que los trabajos profesionales creativos podrían verse afectados por esta tecnología antes de lo esperado inicialmente.

El futuro del trabajo profesional y creativo podría verse un poco diferente de lo que esperábamos.

Como investigadores que estudian los efectos de la IA en la sociedad, creemos que los modelos básicos generarán grandes transformaciones. Están estrictamente controlados (por ahora), por lo que probablemente tengamos un poco de tiempo para comprender sus implicaciones antes de que se conviertan en un gran problema.

El genio aún no ha salido de la botella, pero los modelos de base son una botella muy grande, y dentro hay un genio muy inteligente.

* Especialistas de la Universidad Tecnológica de Queensland.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Si has visto fotos de una tetera con forma de aguacate o leído artículos bien escritos que se desvían por tangentes ligeramente extrañas, es posible que hayas estado expuesto a una nueva tendencia de la inteligencia artificial (IA).

Los sistemas de aprendizaje automático llamados DALL-E, GPT y PaLM están causando sensación con su increíble capacidad para generar trabajo creativo.

Estos sistemas se conocen como "modelos de base" y no son solo exageraciones o trucos de fiesta, sino nuevos enfoques que han hecho que muchos vean en estas aplicaciones el fin de la creatividad humana y el comienzo de una pesadilla profundamente falsa.

Los modelos básicos funcionan entrenando un solo sistema enorme en grandes cantidades de datos generales y luego adaptando el sistema a nuevos problemas, mientras que los modelos anteriores tendían a empezar de cero para cada nuevo problema.

DALL-E 2, por ejemplo, fue entrenado para hacer coincidir imágenes (como una foto de un gato) con la leyenda ("Mr. Fuzzyboots, el gato atigrado se está relajando bajo el sol") escaneando cientos de millones de ejemplos. Una vez entrenado, este modelo sabe cómo se ven los gatos (y otras cosas) en las imágenes.

Pero el modelo también se puede usar para muchas otras tareas interesantes de IA, como generar nuevas imágenes a partir de un título solo ("Muéstrame un koala clavando una pelota de baloncesto") o editar imágenes basadas en instrucciones escritas ("Haz que parezca que este mono está pagando impuestos").

Los modelos básicos se ejecutan en "redes neuronales profundas", que se inspiran libremente en el funcionamiento del cerebro, e involucran matemáticas sofisticadas y una gran cantidad de poder de cómputo, pero se reducen a un tipo muy sofisticado de coincidencia de patrones.

Por ejemplo, al observar millones de imágenes de ejemplo, una red neuronal profunda puede asociar la palabra "gato" con patrones de píxeles que a menudo aparecen en imágenes de gatos, como manchas de textura suaves, borrosas y peludas. Cuantos más ejemplos ve el modelo , y más grande es este (más "capas" o "profundidad" tiene), más complejos pueden ser estos patrones y correlaciones.

Los modelos básicos son, en cierto sentido, sólo una extensión del paradigma de "aprendizaje profundo" que ha dominado la investigación de IA durante la última década. Sin embargo, exhiben comportamientos no programados o “emergentes” que pueden ser sorprendentes

Por ejemplo, el modelo de lenguaje PaLM de Google parece ser capaz de producir explicaciones para bromas y metáforas complicadas. Esto va más allá de simplemente imitar los tipos de datos para los que fue entrenado originalmente.

Es difícil pensar en la gran escala de estos sistemas de IA. PaLM tiene 540 mil millones de parámetros, lo que significa que incluso si todos en el planeta memorizaran 50 números, aún no tendríamos suficiente almacenamiento para reproducir el modelo.

Los modelos son tan enormes que entrenarlos requiere cantidades masivas de recursos computacionales y de otro tipo. Una estimación sitúa el costo de entrenar el modelo de lenguaje GPT-3 de OpenAI en alrededor de 5 millones de dólares.

Como resultado, solo las grandes empresas tecnológicas como OpenAI, Google y Baidu pueden permitirse construir modelos básicos en este momento. Estas empresas limitan quién puede acceder a los sistemas, lo que tiene sentido económico.

Las restricciones de uso pueden darnos cierta tranquilidad de que estos sistemas no se utilizarán con fines nefastos (como generar noticias falsas o contenido difamatorio) en el corto plazo. Pero esto también significa que los investigadores independientes no pueden interrogar estos sistemas y compartir los resultados de manera abierta y responsable. Por lo tanto, aún no conocemos todas las implicaciones de su uso.

Se producirán más modelos básicos en los próximos años. Ya se están publicando modelos más pequeños en formas de código abierto, las empresas de tecnología están comenzando a experimentar con la concesión de licencias y la comercialización de estas herramientas y los investigadores de IA están trabajando arduamente para hacer que la tecnología sea más eficiente y accesible.

La notable creatividad mostrada por modelos como PaLM y DALL-E 2 demuestra que los trabajos profesionales creativos podrían verse afectados por esta tecnología antes de lo esperado inicialmente.

El futuro del trabajo profesional y creativo podría verse un poco diferente de lo que esperábamos.

Como investigadores que estudian los efectos de la IA en la sociedad, creemos que los modelos básicos generarán grandes transformaciones. Están estrictamente controlados (por ahora), por lo que probablemente tengamos un poco de tiempo para comprender sus implicaciones antes de que se conviertan en un gran problema.

El genio aún no ha salido de la botella, pero los modelos de base son una botella muy grande, y dentro hay un genio muy inteligente.

* Especialistas de la Universidad Tecnológica de Queensland.



TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Local

Anuncian sitios de vacunación contra Covid-19 para menores de 5 a 11 años en BC

La campaña iniciará este lunes 27 de junio en todos los municipios

Deportes

‘Chinito’ Ornelas se reencontró con el triunfo

El pugilista mexicano doblegó a su contrincante a los dos minutos con 48 segundos del tercer round

Local

15 años después de dejar los estudios, Cinthya terminó la preparatoria

"Fue demasiado esfuerzo, sacrificio, desvelo, pero todo vale la pena", señaló tras culminar sus estudios

Sociedad

Sindicato petrolero exige plazas en refinería Dos Bocas

Los integrantes del sindicato petrolero, exigieron que la basificación no fuera a través del sistema Asiste

Mundo

Ante anulación del aborto, EU teme actividad extremista

Activistas marchan por segundo día contra la anulación a la protección de la interrupción del embarazo

Gossip

Mar Solís, la heredera del talento del Buki

Mar hace su debut como cantautora en inglés y español; dice que aprendió de su padre la tenacidad

Gossip

Homenajean a la productora Carla Estrada

Con una exposición fotográfica de sus telenovelas que se inaugura este domingo, la Fundación Grandes Valores de México y América Latina destaca su trayectoria

Gossip

Siete veces adiós se presentaría solo unas semanas: ya lleva 77 funciones

El musical que ofrecería sólo 50 fechas, se ha mantenido con lleno total; develaron la placa cinco padrinos de lujo

Sociedad

Colectivos de buscadoras sin garantía de mecanismo de protección

El objetivo que tienen los integrantes de los colectivos es claro y no abandonarán su tarea para dar con sus seres queridos