La semaine dernière a eu lieu la conférence « Keynote » d’Apple, annonçant la nouvelle gamme d’iPhone et d’Apple Watch pour 2023/2024.
Durant cette conférence, une annonce très importante a été faite par Apple. Cette annonce, qui n’a probablement pas été comprise par tous les observateurs, est la capacité pour la nouvelle version de l’Apple Watch série 9, d’utiliser l’assistant Siri directement depuis la montre, et sans aucune connexion avec internet.
Tout le monde connaît Siri, l’assistant qui a été introduit en 2012 sur l’iPhone 4S. Et même si la promesse était belle, force est de constater que depuis toutes ces années les utilisateurs boudent Siri en raison de son manque de performance, et sa tendance à répondre à côté à des questions pourtant simples.
Pourquoi cette annonce d’Apple est-elle importante ?
Cette mise à jour de Siri est importante, car elle montre un changement de cap pour Apple.
En effet, jusqu’à aujourd’hui, Siri fonctionnait uniquement « en ligne », exactement comme Alexa chez Amazon, ou Google Home, etc.
Lorsqu’un utilisateur pose une question à Siri, un enregistrement audio est fait, puis transmis directement aux serveurs d’Apple pour :
- Faire une transcription automatique en texte (ASR) ;
- Utiliser un TAL (NLP), pour interpréter la requête de l’utilisateur ;
- Générer une réponse pour ce dernier.
Tous ces traitements sont réalisés côté serveur. Ce qui nécessite la mise en place de « datacenter » dédiés à ces tâches pour Apple, d’une connexion internet pour l’utilisateur, le tout avec l’efficacité que l’on connaît de Siri.
L’annonce d’Apple montre désormais un chemin très différent. Puisque tout pourra se faire directement sur la montre, et grâce à deux éléments :
- Le nouveau processeur embarqué SiP S9 possédant un moteur neuronal à 4 cœurs ;
- La première version déployée par Apple d’un modèle de langage maison. Pour le moment, cela fonctionnera à la sortie de la montre en anglais et en mandarin.
Cette annonce vient confirmer une rumeur selon laquelle Apple est activement en train de travailler sur son propre modèle de langage large. Et surtout, à la différence d’un OpenAI, ou de Google, Apple va s’appuyer sur un hardware maison optimisé pour le « machine learning » grâce, notamment, à ses Apple Silicon.
Au fait, c’est quoi au juste les Apple Silicon ?
Apple Silicon est la nouvelle gamme de processeurs sortie en 2020 par Apple. Ils remplacent les processeurs Intel sur l’ensemble des Mac. Ces nouveaux processeurs sont basés sur l’architecture Apple Bionic (A1, A2, etc.) ; architecture qui est déjà déployée depuis plusieurs années sur les iPhone, iPad, Apple Watch, etc.
Basés sur une architecture ARM, ces processeurs ont été conçus par Apple dans le but de proposer une grande puissance pour une consommation électrique très faible. Ses téléphones, ses montres, ou ses ordinateurs portables en sont équipés et offrent un rapport de puissance et d’autonomie inégalé.
En 2017, Apple introduit des « cores » dédiés et optimisés pour les calculs autour du « machine learning » : les « Neural Engine ».
Ces NPU (Unité de Traitement Neuronal) existent aussi chez d’autres constructeurs, comme Huawei, Samsung, Qualcomm, NVIDIA, etc.
En 2020, Apple sort son processeur M1, le plus petit de la gamme. La puissance de calcul du Neural Engine est de 11 trillions d’opérations par seconde avec un maximum de 39 watts de puissance consommés !
Plusieurs chercheurs ont alors comparé cette nouvelle architecture avec des cartes professionnelles NVIDIA. Rappelons que NVIDIA est l’état de l’art des cartes pour faire du « machine learning ».
La comparaison avec l’Apple M1 dans les différents articles est assez surprenante, sans appel. Ses capacités pour le traitement du « machine learning » sont impressionnantes pour un matériel à 600 $. À titre de comparaison une carte NVIDIA peut représenter jusqu’à plusieurs milliers de dollars.
À quoi ça sert ?
Apple a conçu, très tôt, ce type de composant dédié au « machine learning ». Il permet aux iPhone, aux iPad, etc., d’embarquer des modèles utilisant des réseaux neuronaux pour reconnaître l’empreinte digitale d’un utilisateur (Touch ID), son visage (Face ID), mais aussi pour détourer une photo prise par un iPhone, etc.
L’avantage pour Apple, c’est de mettre en œuvre toutes ces fonctions sans dépendre d’une connexion internet. Cela permet au passage l’économie des coûts directs et de la maintenance de nouveaux « data center » dédiés à ces tâches-là.
N’oublions pas qu’OpenAI débourse environ 700k $ par jour. Cela sert, entre autres, à maintenir l’infrastructure des serveurs permettant de faire tourner ses modèles GPT. Si cela vous intéresse, j’en explique les raisons dans mon précédent article sur ChatGPT.
Le lecteur attentif me fera remarquer que cela permet également à Apple d’amener ces nouvelles fonctionnalités sur les nouvelles gammes hardware (comme avec la dernière Apple Watch).
N’oublions pas que le métier d’Apple c’est d’abord de vendre du hardware. Et cela donne un argument supplémentaire à des gens comme moi pour changer d’iPhone ou de Mac encore plus régulièrement.
Pour résumer ma pensée : c’est à la fois diabolique et génial 🙂
L’autre idée d’Apple, c’est l’argument de la protection de la vie privée. Car comme son ancienne campagne publicitaire disait en 2019 : What happens on your iPhone, stays on your iPhone. Ce qui est sans doute vrai, mis à part le Siri actuel, iCloud, Apple Music, etc.
Et pour demain, que nous réserve Apple ?
Pour demain, Apple a déjà annoncé la sortie d’un casque de réalité mixte, l’Apple Vision Pro. Il utilisera aussi la capacité de ces processeurs embarqués, afin de positionner des objets virtuels dans le champ de vision de l’utilisateur, de détecter le positionnement des yeux, des doigts, des bras, pour une meilleure expérience utilisateur.
Enfin, rêvons d’un Siri qui fonctionne comme un ChatGPT. Chaque utilisateur aura son propre assistant, tournant sur son propre matériel, sans aucune dépendance, et pour une meilleure confidentialité des données échangées.
Vous voulez comprendre comment notre IA conversationnelle optimise la productivité et l’engagement de vos utilisateurs en complétant efficacement vos applications ?