El dispositivo recién lanzado incluye el procesador A17 Pro, un chip desarrollado por Apple con el propósito de brindar mayor capacidad de procesamiento a los algoritmos de aprendizaje automático, lo que parece ser una inteligencia artificial más intuitiva que generativa. Esta tecnología permite solucionar problemas inmediatos de los usuarios y ofrece predicciones útiles sin ser intrusiva.

Las funciones que trae esta IA desarrollada por Apple son:

1. Aislamiento de voz

Esta herramienta utiliza el aprendizaje automático para reconocer y enfocarse en el sonido de la voz del propietario del celular, silenciando el ruido de fondo en las llamadas telefónicas.

2. IA en la cámara

La cámara del iPhone 15 podrá hacer detección automática de personas, perros o gatos en un marco fotográfico para recopilar información de profundidad que ayude a convertir posteriormente cualquier imagen en un retrato.

3. Transcripción automática de mensajes

Esta función llamada Live Voicemail fue pensada para que las personas sepan quién llama antes de contestar y para que produzcan recomendaciones de texto predictivo más completas desde el teclado del iPhone.

4. Point and Speak (Apuntar y Hablar)

Esta herramienta, que funciona a través de la aplicación de la lupa, permite que los usuarios con discapacidad visual apunten con la cámara a objetos con botones, como un microondas, y oír cómo el teléfono les indica lo que tocan con el dedo.

5. Personal Voice

Para las personas con enfermedades como la esclerosis lateral amiotrófica (ELA), que priva a una persona de la capacidad de hablar, iOS 17 creará una voz sintética similar a la suya, después de grabarse leyendo una serie aleatoria de textos durante 15 minutos.

Además de dichas funciones del iPhone 15, el Apple Watch Series 9 trajo consigo el double tap, un avance en cuanto aprendizaje automático.

Este movimiento, que consiste en acomodar el dedo índice y el pulgar, como si fuera una pinza, permite que el reloj inteligente realice funciones básicas como contestar una llamada o desactivar una alarma.

La unidad de Apple que trabaja en la IA conversacional recibe el nombre de ‘Foundational Models’ -que se traduce como Modelos fundacionales – y está formada por unos 16 desarrolladores e ingenieros, algunos de ellos extrabajadores de Google, según han adelantado fuentes cercanas a la compañía tecnológica estadounidense a The Information.

Las mismas fuentes han indicado que Apple invierte millones de dólares al día en el desarrollo de características potenciadas por IA, como la utilización de comandos de voz simples en sus iPhone para automatizar tareas que involucran varios pasos y que actualmente requieren su realización manual en un teléfono de la compañía.

El director del equipo es el jefe de IA de la empresa, John Giannandrea, contratado en 2018 para ayudar a mejorar el actual asistente virtual de la marca, Siri, quien habría mostrado excepticismo a sus compañeros “sobre la utilidad potencial de los chatbots impulsados por modelos de lenguaje de IA”, como recoge The Verge con base en este adelanto.

Este no sería el único proyecto de inteligencia artificial en el que está involucrado Apple, ya que también ha puesto en marcha una unidad de Inteligencia Visual, que desarrolla un modelo de generación de imágenes, y otro equipo que investiga la IA multimodal para el reconocimiento y la creación de imágenes o vídeos, además de texto.

Conviene recordar que a finales de julio el analista de Bloomberg Mark Gurman comentó que el fabricante estadounidense también estaba desarrollando un ‘chatbot’ llamado Ajax, inicialmente planteado para un uso interno y con el que esperaba desafiar a otras compañías dedicadas a esta tecnología, como Google y OpenAI.

Las fuentes con las que ha tenido contacto The Information han aclarado que Ajax GPT ha sido entrenado “con más de 200.000 millones de parámetros” y que tiene más capacidad que GPT 3.5, desarrollado por OpenAI.

Con información de Europa Press.

/psg