In partnership with

Apple tiene algo escondido bajo la manga

Lamentablemente, uno de los puntos más débiles de Apple es Apple Intelligence; las pocas funciones que hay no son precisamente las mejores del mercado y tampoco satisfacen lo que un usuario promedio busca para optimizar sus tareas del día a día. A pesar de esto, detrás de las escenas, Apple ha estado trabajando en algo que podría cambiar esta percepción por completo.

En 2023, Apple y la Universidad de Cornell desarrollaron “Ferret”, un LLM (Large Language Model) de IA con código abierto que podía reconocer aspectos de una imagen para responder consultas del usuario. En 2024, el modelo ya podía leer y entender los elementos dentro de la interfaz del dispositivo, o sea, ya podía identificar e interpretar cosas que estuvieran en la pantalla del iPhone; e incluso, en algunos casos ya podía interactuar por si mismo con la aplicación.

El detalle con esto es que, a pesar de ser una función que tiene mucho potencial, Apple solo podía correr el modelo en servidores privados y no dentro del dispositivo, al menos hasta ahora. De acuerdo con un documento publicado este mes, Apple ya desarrolló la versión “lite” de ese modelo, permitiendo que muchas de las consultas ya se hagan on-device.

Esta investigación no confirma al 100% que Apple vaya a implementar este tipo de tecnología en futuros dispositivos, pero si nos da la idea del camino que quieren y están siguiendo. El reconocimiento de elementos dentro de la interfaz del dispositivo es algo que laSiri más personalpretender hacer en un futuro, por lo que la interacción de ella con aplicaciones y sistemas no suena tan descabellado.

Los Apple Glasses están cerca…

Desde hace tiempo sabemos que Apple está haciendo un esfuerzo muy grande para lanzar lo más pronto posible los “Apple Glasses”, la competencia directa a los Meta Ray-Ban. De acuerdo con varios reportes, este no será el único dispositivo de computo espacial que Apple planea lanzar muy pronto.

Bloomberg reportó esta semana que Apple tiene tres prioridades, hablando en términos de computo espacial: Los “Apple Glasses”, un pin con IA y los AirPods con cámaras pequeñas. Todos estos dispositivos están planeados para conectarse con el iPhone, aprovechar al máximo la próxima “Siri más personal” y tener cámaras integradas.

Aparentemente, los Apple Glasses tendrán dos cámaras: Una para tomar fotos y videos y otra que el dispositivo utilizará para adquirir contexto e información visual. Por otro lado, los lentes no tendrán un display integrado, estarán disponibles en varios tamaños y colores, su interfaz se controlará completamente con Siri y tendrán una batería lo suficientemente potente para durar todo el día.

Ahora, el pin con IA de Apple también podría seguir un camino muy similar. De acuerdo con el reporte, este también tendrá cámaras y micrófonos de menor calidad que le brindarán contexto visual al dispositivo; muchos trabajadores de Apple lo llaman “los ojos y oídos del iPhone”. Básicamente, este pin será un accesorio directo del iPhone que se podrá utilizar en collares, mochilas o colgar en la camisa.

Por último, los AirPods con cámaras seguirán la misma línea: Ser un dispositivo pequeño que sirva para entender el ambiente que te rodea y utilizar a Siri. El pin con IA y estos AirPods aún están en etapas de desarrollo muy tempranas, pero Bloomberg asegura que estamos muy próximos a verlos.

The headlines that actually moves markets

Tired of missing the trades that actually move markets?

Every weekday, you’ll get a 5-minute Elite Trade Club newsletter covering the top stories, market-moving headlines, and the hottest stocks — delivered before the opening bell.

Whether you’re a casual trader or a serious investor, it’s everything you need to know before making your next move.

Join 200K+ traders who read our 5-minute premarket report to see which stocks are setting up for the day, what news is breaking, and where the smart money’s moving.

By joining, you’ll receive Elite Trade Club emails and select partner insights. See Privacy Policy.

Tip Para Tu iPhone

Es muy común que al hablar por teléfono no siempre estamos en el lugar más silencioso o cómodo para contestar; el ruido de la calle, o algún otro factor, siempre terminan alterando el cómo nos escuchamos en la llamada. Afortunadamente, Apple ya solucionó esto hace un par de años.

Al estar en una llamada, ya sea de audio o FaceTime, si nos vamos al centro de control del iPhone, en la parte superior encontraremos un menú naranja donde podremos controlar y administrar la manera en la que nos escuchamos. Hay opciones para utilizar el micrófono de manera estándar, aislar solamente la voz, e incluso decidir qué entrada de audio utilizar. Lo padre de este truco es que funciona con y sin audífonos, por lo que no será necesario tener los últimos AirPods o el iPhone más nuevo para sacarle provecho a esta función.

Suscríbete a Premium

Si quieres disfrutar el Newsletter sin publicidad y apoyarnos a seguir creciendo, hazte Premium. Somos un medio independiente y tu apoyo hace la diferencia. ¡Gracias!

  • ¿Te reenviaron este correo? Suscríbete aquí

  • ¿Tienes alguna duda o sugerencia? Habla con nosotros por aquí

  • ¿Quieres comprar la mejor gorra del mundo y apoyar SELM? Aquí

  • ¿Quieres promocionar tu producto o servicio a más de 35,000 usuarios de Apple? Patrocina Semana en la Manzana. Escríbenos y platicamos.

  • Quieres crear un Newsletter como este o ver cómo funciona Beehiiv, puedes probar la plataforma gratis aquí.

Reply

Avatar

or to participate

Keep Reading