Al final de I/O, la conferencia anual de desarrolladores de Google en el Shoreline Amphitheatre de Mountain View, el director ejecutivo de Google, Sundar Pichai, reveló que la compañía dijo «IA» 121 veces. Esta fue, esencialmente, la esencia del discurso de apertura de dos horas de Google: incorporar la IA a todas las aplicaciones y servicios de Google utilizados por más de dos mil millones de personas en todo el mundo. Aquí están todas las actualizaciones importantes anunciadas por Google en el evento.
Actualizaciones de Gemini 1.5 Flash y Gemini 1.5 Pro
Google ha anunciado un modelo de inteligencia artificial completamente nuevo llamado Gemini 1.5 Flash, que, según dice, está optimizado para brindar velocidad y eficiencia. El Flash se encuentra entre el Gemini 1.5 Pro y el Gemini 1.5 Nano, el modelo más pequeño de la compañía que se ejecuta de forma nativa en el dispositivo. Google dijo que creó Flash porque los desarrolladores querían un modelo más liviano y menos costoso que Gemini Pro para crear aplicaciones y servicios impulsados por inteligencia artificial y al mismo tiempo conservar algunas cosas como una ventana de contexto de un millón de caracteres que distingue a Gemini Pro de los modelos de la competencia. A finales de este año, Google duplicará la ventana de contexto Gemini a 2 millones de tokens, lo que significa que podrá procesar 2 horas de vídeo, 22 horas de audio y más de 60.000 líneas de código o más de 1,4 millones de palabras al mismo tiempo. . el tiempo. .
Proyecto Astra
Google mostró el Proyecto Astra, una primera versión de un asistente global impulsado por IA, que según Demis Hassabis, director ejecutivo de DeepMind de Google, es la versión de Google de un agente de IA «que podría ser útil en la vida cotidiana».
En un video que, según Google, fue filmado en una sola toma, un usuario de Astra se mueve por la oficina de Google en Londres sosteniendo su teléfono y apuntando con la cámara a diferentes cosas (un altavoz, algún código en una pizarra, afuera de una ventana) y tiene una conversación natural. con la aplicación sobre cómo se ve el comando. Y en uno de los momentos más impresionantes del vídeo, le dice correctamente al usuario dónde dejó sus gafas antes sin que el usuario las levante.
El vídeo termina con una sorpresa: cuando el usuario encuentra las gafas que faltan y se las pone, nos enteramos de que tiene un sistema de cámara incorporado y puede utilizar Project Astra para tener una conversación fluida con el usuario, lo que podría sugerir que Es posible que Google esté trabajando en un competidor de las gafas inteligentes Ray Ban de Meta.
Pregúntale a Google Imágenes
Google Photos ya era inteligente a la hora de buscar fotos o vídeos específicos, pero con la IA, Google está llevando las cosas al siguiente nivel. Si es suscriptor de Google One en EE. UU., podrá hacerle a Google Fotos una pregunta compleja como «Muéstrame la mejor foto de cada parque nacional que hayas visitado» cuando la función se implemente en los próximos años. meses. Google Photos utilizará la información de su GPS, así como su propio criterio sobre qué es «mejor» para brindarle opciones. También puedes pedirle a Google Photos que genere títulos para publicar fotos en las redes sociales.
Ver e imaginar 3
Los nuevos motores de creación de medios impulsados por IA de Google se llaman Veo e Imagine 3. Veo es la respuesta de Google a Sora de OpenAI. Google dijo que puede producir videos de 1080p de «alta calidad» que pueden durar «más de un minuto» y que puede comprender conceptos cinematográficos como el lapso de tiempo.
Mientras tanto, Imagen 3 es un generador de texto a imagen que, según Google, maneja el texto mejor que su predecesor, Imagen 2. El resultado es el modelo de texto a imagen de mayor calidad de la compañía con un «asombroso nivel de detalle» para resultados «realistas». , imágenes realistas.» ” y menos artefactos, lo que esencialmente lo compara con DALLE-3 de OpenAI.
Grandes actualizaciones de la Búsqueda de Google
Google está realizando grandes cambios en el funcionamiento fundamental de la búsqueda. La mayoría de las actualizaciones anunciadas hoy son como la capacidad de hacer preguntas realmente complejas (“Encuentre los mejores estudios de yoga o Pilates en Boston y vea detalles sobre las ofertas y tiempos de caminata desde Beacon Hill”) y utilice la búsqueda para planificar comidas y vacaciones. No estará disponible a menos que se registre en Search Labs, la plataforma de la compañía que permite a las personas probar funciones beta.
Pero la gran característica nueva, que Google llama AI Overviews y que la compañía ha estado probando durante un año, finalmente se está implementando para millones de personas en los Estados Unidos. La Búsqueda de Google ahora presentará respuestas generadas por IA en la parte superior de los resultados de forma predeterminada, y la compañía dice que pondrá la función a disposición de más de mil millones de usuarios en todo el mundo para fin de año.
Géminis en Android
Google está integrando Gemini directamente en Android. Cuando se lance Android 15 a finales de este año, Gemini sabrá qué aplicación, foto o video estás reproduciendo y podrá arrastrarlo como una superposición y hacerle preguntas específicas del contexto. ¿Dónde deja eso al Asistente de Google que ya hace esto? ¡A quién conoces! Google no mencionó esto en absoluto durante la conferencia magistral de hoy.
También ha habido muchas otras actualizaciones. Google dijo que agregará marcas de agua digitales a videos y textos generados por IA, hará que Gemini sea accesible en el panel lateral de Gmail y Docs, admitirá a un colega virtual impulsado por IA en Workspace, escuchará llamadas telefónicas y detectará si realmente está siendo estafado. tiempo y mucho más.
Sigue en directo todas las novedades del Google I/O 2024 aquí!
More Stories
El ex director de «Marathon» ha sido despedido de Bungie por mala conducta
Lanzamiento físico de Castlevania Dominus Collection confirmado, los pedidos anticipados se abrirán el próximo mes
Bethesda tiene el mejor juego independiente por 100 dólares