Andina

Google I/O 2024: estas son las novedades en inteligencia artificial

Sigue en vivo el keynote de Google, que incluye el anuncio de Ask Photos y el modelo de IA, Imagen 3.

A la fecha, dos millones de productos usan Gemini pero este es solo el comienzo, asegura Google.

A la fecha, dos millones de productos usan Gemini pero este es solo el comienzo, asegura Google.

12:38 | Lima, may. 14.

En la conferencia de desarrolladores Google I/O 2024 se anunciaron novedades vinculadas con inteligencia artificial, tal como se esperaba, especialmente relacionadas al modelo Gemini. Descubre lo nuevo en IA que promete Google.



Estos son los anuncios confirmados en el Google I/O 2024:

Gemini anuncia mejoras 

El modelo de lenguaje de Google, Gemini, avanza a pasos agigantados. A la fecha, dos millones de productos usan Gemini pero este es solo el comienzo, asegura Google.  Para que se pueda ejecutar acciones en base a instrucciones o prompts se calcula una cantidad de tokens. Por ejemplo, un texto largo podría sumar una cantidad de tokens y esa será la base para luego responder preguntas de esos documentos. 

Ahora, Google amplió la versión mejorada de Gemini 1.5 Pro con un millón de tokens para todos los desarrolladores a nivel mundial.  Esto permitirá un nivel de exploración aún mayor. Pero si esto suena mucho. Se expandirá a 2 millones de tokens para desarrolladores en un piloto privado.

Esto integrado a Google Workspace, que ahora está disponible en Labs, permitirá procesar todo lo que está en tu bandeja de correo y ahorrar más tiempo, por ejemplo.

También se anunció Gemini 1.5 Flash, un modelo más liviano, optimizado para tareas en las que la baja latencia y el costo son lo más importante. A partir de hoy, los desarrolladores pueden usarlo con hasta 1 millón de tokens en Google AI Studio y Vertex AI.  

Nuevas funciones que usan inteligencia artificial

Ask Photos facilita la búsqueda en yus fotos y videos con la ayuda de los modelos Gemini.  Por otro lado, se anunció Imagen 3, el modelo de generación de imágenes más capaz de Google Deep Mind hasta el momento. Entiende las indicaciones sobre la forma en que las personas escriben, crea imágenes más fotorrealistas y es nuestro mejor modelo para representar texto.  




Por otro lado, hoy se dio a conocer la integración de un nuevo modelo de Gemini en el Buscador. AI Overviews comenzará a implementarse para todos en los Estados Unidos, y pronto llegará a más países. 

Ahora el Buscador podrá hacer un “Resumen Creado con IA” para preguntas simples y complejas. Al mismo tiempo, ayudará a crear planes de alimentación o viajes: por ejemplo, consultando “crear plan (…)” se brindará información de recetas o lugares turísticos en un clic. Esta información se podrá exportar a Gmail o Documentos si fuese necesario. Asimismo, el Buscador incorporará la posibilidad de buscar con videos y acceder a páginas personalizadas de las fuentes más relevantes para cada inquietud.

Durante el evento, Google reveló nuevas formas en las que está mejorando sus modelos de lenguaje, como Gemini, y protegiendo a las personas de su uso indebido. Esto incluye nuevas prácticas de investigación, como la incorporación de marcas de agua para textos y videos generados con IA, y el trabajo colaborativo con otras organizaciones.

Por otro lado, presentó “LearnLM” un nuevo modelo de lenguaje basado en Gemini que impulsa una experiencia de aprendizaje adaptada a las necesidades de cada individuo. Se integrará a Gemini, el Buscador, YouTube y Google Classroom. De igual forma, lanzó “Illuminate”, una nueva herramienta experimental creada para hacer más accesible y comprensible el conocimiento. Por ejemplo, puede generar una conversación formada por dos voces generadas por IA, que ofrecen una visión general y un breve debate sobre las ideas clave de un trabajo de investigación determinado. 

Revisa más noticias sobre ciencia, tecnología e innovación en la Agencia Andina y escucha historias inspiradoras en Andina Podcast.

(FIN) SPV
Publicado: 14/5/2024