- El lunes en la WWDC, Apple anunció hábilmente cuánto trabajo estaba haciendo en las últimas tecnologías de inteligencia artificial y aprendizaje automático.
- A diferencia de la mayoría de las empresas de tecnología impulsadas por IA, Apple realiza un procesamiento de vanguardia en sus dispositivos en lugar de depender de la nube.
- En lugar de hablar de modelos y tecnologías de IA, centrarse en un producto de Apple significa que, por lo general, solo muestra nuevas funciones que la IA habilita silenciosamente detrás de escena.
Apple Park se ve antes de la Conferencia Mundial de Desarrolladores (WWDC) en Cupertino, California, el 5 de junio de 2023.
Josh Adelson | AFP | imágenes falsas
El lunes, durante la conferencia anual de desarrolladores WWDC de Apple, la compañía reveló cuánto trabajo estaba haciendo en las últimas tecnologías de inteligencia artificial y aprendizaje automático.
A medida que Microsoft, Google y nuevas empresas como OpenAI adoptaron tecnologías de aprendizaje automático de vanguardia como los chatbots y la IA generativa, Apple pareció quedarse al margen.
Pero el lunes, Apple anunció varias funciones importantes de IA, incluida la autocorrección de iPhone basada en software de aprendizaje automático que utiliza un modelo de lenguaje de adaptador, la misma tecnología que subyace a ChatGPT. Apple dijo que incluso aprenderá de cómo el usuario hace scripts y tipos para mejorar.
Craig Federighi, director de software de Apple, bromeó sobre la tendencia de Autocorrección a usar la palabra sin sentido «agacharse» para reemplazar un insulto común.
La noticia más importante del lunes fue su nuevo y genial auricular de realidad aumentada, el Vision Pro, pero Apple, sin embargo, mostró cómo funciona y está interesado en los desarrollos de lo último en tecnología de aprendizaje automático e inteligencia artificial. ChatGPT de OpenAI puede haber llegado a más de 100 millones de usuarios en dos meses cuando se lanzó el año pasado, pero Apple ahora está aprovechando la tecnología para mejorar una función utilizada por mil millones de propietarios de iPhone todos los días.
A diferencia de sus competidores, que construyen modelos más grandes con granjas de servidores, supercomputadoras y terabytes de datos, Apple quiere modelos de IA en sus dispositivos. La nueva función de autocorrección es particularmente impresionante porque funciona en el iPhone, mientras que modelos como ChatGPT requieren cientos de costosas GPU trabajando en conjunto.
La IA en el dispositivo evita muchos de los problemas de privacidad de datos que enfrenta la IA basada en la nube. Cuando un modelo se puede ejecutar en un teléfono, Apple necesita recopilar menos datos para ejecutarlo.
También está estrechamente relacionado con el control de Apple de su cartera de hardware, hasta sus chips de silicio. Apple construye nuevos circuitos de IA y GPU en sus chips cada año, y su control sobre la arquitectura general le permite adaptarse a los cambios y las nuevas tecnologías.
A Apple no le gusta hablar de «inteligencia artificial»; prefieren la frase académica «aprendizaje automático» o simplemente hablar de la ventaja que permite la tecnología.
Algunas de las otras empresas líderes de IA tienen líderes con antecedentes académicos. Esto ha resultado en que te centres en mostrar tu trabajo, explicar cómo puede mejorar en el futuro y documentarlo para que otros puedan estudiarlo y desarrollarlo.
Apple es una empresa de productos y ha sido muy reservada durante décadas. En lugar de hablar sobre el modelo de IA específico, los datos de entrenamiento o cómo podría mejorar en el futuro, Apple simplemente menciona la función y dice que hay una gran tecnología trabajando detrás de escena.
Un ejemplo de ello el lunes es una mejora de AirPods Pro que desactiva automáticamente la cancelación de ruido cuando un usuario participa en una conversación. Apple no lo ha enmarcado como una función de aprendizaje automático, pero es difícil de resolver y la solución se basa en modelos de inteligencia artificial.
En una de las funciones más audaces anunciadas el lunes, la nueva función Digital Persona de Apple escanea la cara y el cuerpo de un usuario en 3D, y luego puede recrear virtualmente su apariencia mientras realiza videoconferencias con otras personas mientras usa un auricular Vision Pro.
Apple también mencionó varias otras características nuevas que utilizaron la habilidad de la compañía en redes neuronales, como la capacidad de seleccionar campos para completar un PDF.
Uno de los mayores aplausos de la tarde en Cupertino fue la función de aprendizaje automático que permite que el iPhone reconozca a su mascota, en comparación con otros gatos o perros, y coloque todas las fotos de mascotas de un usuario en una carpeta.
More Stories
El ex director de «Marathon» ha sido despedido de Bungie por mala conducta
Lanzamiento físico de Castlevania Dominus Collection confirmado, los pedidos anticipados se abrirán el próximo mes
Bethesda tiene el mejor juego independiente por 100 dólares