Publicidad Global

SOUTH BY SOUTHWEST EN PRIMERA PERSONA | NOTA 2

Google AI Studio se posiciona como la puerta de entrada a la nueva generación de modelos de IA, por Juan Korman

En SXSW, una de las presentaciones técnicas más interesantes sobre inteligencia artificial puso el foco en Google AI Studio, la plataforma que permite experimentar con algunos de los modelos generativos más recientes desarrollados por Google DeepMind.

Google AI Studio se posiciona como la puerta de entrada a la nueva generación de modelos de IA, por Juan Korman
Google AI Studio apareció como uno de los entornos clave para entender cómo se están desarrollando y probando los modelos de inteligencia artificial .

Por Juan Korman

CEO & fundador de Plug Collective

A diferencia de otras herramientas más conocidas, AI Studio funciona como un entorno donde desarrolladores, creativos y empresas pueden probar directamente nuevas capacidades de inteligencia artificial multimodal, es decir, modelos capaces de trabajar con texto, imágenes, audio, video y código dentro de un mismo sistema.

Durante la demostración se mostraron distintos modelos que ya están disponibles para experimentar dentro de la plataforma. Uno de ellos fue Lyria, un sistema de generación musical que permite crear canciones completas a partir de prompts detallados. En la demo, el modelo generó una pista electrónica con letra en hindi sobre álgebra lineal, mostrando cómo distintas capas de IA pueden trabajar juntas para construir música, letra y estilo en segundos.

Otro de los ejemplos más llamativos fue el uso de Gemini Flash, una versión optimizada de los modelos Gemini pensada para tareas rápidas de análisis y generación de contenido.

En la presentación se mostró cómo el sistema puede analizar directamente un video de YouTube: el modelo ingresa el contenido del video, identifica elementos dentro de las escenas y genera automáticamente una tabla con timestamps y datos contextualizados sobre lo que aparece en pantalla.

Este tipo de capacidades permite, por ejemplo:

  • transcribir videos completos
  • dividir el contenido en capítulos
  • identificar logos o marcas en pantalla
  • detectar emociones o acciones dentro de las escenas
  • generar resúmenes estructurados del contenido

Todo el proceso puede realizarse directamente dentro de Google AI Studio y luego exportarse en forma de código para integrarlo en productos, aplicaciones o herramientas internas.

La presentación también destacó cómo estos modelos están diseñados como IA nativamente multimodal, lo que significa que pueden comprender simultáneamente distintos tipos de información —texto, video, audio, imágenes o código— y producir resultados en cualquiera de esos formatos.

Dentro de AI Studio, además, cada experimento puede transformarse automáticamente en código utilizable mediante APIs, lo que permite pasar rápidamente de una prueba conceptual a una implementación real.

De esta manera, la plataforma funciona como un espacio donde desarrolladores y equipos creativos pueden explorar las capacidades de los nuevos modelos antes de integrarlos en productos o servicios.

En SXSW, Google AI Studio apareció como uno de los entornos clave para entender cómo se están desarrollando y probando los modelos de inteligencia artificial que empezarán a impactar en la producción de contenido, el análisis de información y el desarrollo de aplicaciones en los próximos años.

Redacción Adlatina

por Redacción Adlatina

Compartir