Cette semaine, Apple a annoncé son intention d’intégrer des fonctionnalités d’intelligence artificielle aux iPhone et autres appareils Apple. Cela signifie que les photos, les messages texte, les notes et d’autres contenus pourront tirer parti de certaines fonctionnalités de l’IA. Imaginez que vous puissiez supprimer l’arrière-plan d’une photo sur votre téléphone avec Apple Intelligence. Cool, non ?
Cependant, le traitement de l’IA et la sécurité d’Apple ne vont pas de pair. La confidentialité que nous attendons de produits comme iMessage découle de la mentalité d’Apple qui consiste à tout traiter sur l’appareil, plutôt que dans le Cloud ou ailleurs. Cela limite les points de faiblesse potentiels et permet à Apple d’affirmer que même eux n’ont pas accès au contenu de l’iPhone et d’iMessage d’un utilisateur.
Pourtant, même l’iPhone 16, doté des processeurs propriétaires les plus avancés d’Apple, n’a pas la capacité de gérer les tâches d’intelligence artificielle de grande envergure que nous attendons de l’IA générative. Apple doit, inévitablement, traiter ces informations ailleurs. Si vous souhaitez supprimer l’arrière-plan d’une photo sur votre téléphone, la photo doit quitter votre appareil.
Laisser son appareil, c’est s’aventurer dans le monde effrayant d’Internet. Et cela signifie stocker ses données sur un serveur quelque part, même si ce n’est que temporaire. Faites-vous confiance à ce serveur ? Apple fait-il confiance à ce serveur ? L’entreprise qui possède le serveur fait-elle même confiance à ce serveur ?
Dans l’idéal, nous n’aurions pas à répondre à ces questions. En fait, Apple a pris des mesures pour éviter ces problèmes avec ses produits d’IA jusqu’à présent. L’OCR et la reconnaissance de sujet dans vos photos se font toujours sur votre appareil. Tout comme la saisie prédictive dans iMessage. Hélas, cela n’est pas possible avec les nouvelles attentes concernant les capacités de l’IA.
En réponse à cela, Apple a apporté sa propre marque de sécurité au traitement hors appareil avec son produit Private Cloud Compute (PCC). Avec PCC, Apple traitera autant de données que possible sur l’appareil et enverra les données restantes à ses serveurs spécifiques. Ces serveurs ont une sécurité renforcée qui est censée pouvoir être garantie et vérifiée de manière indépendante. Les lecteurs intéressés peuvent approfondir les détails dans l’article du blog sur la sécurité d’Apple, Private Cloud Compute : une nouvelle frontière pour la confidentialité de l’IA dans le cloud.
Pour nos besoins, le PCC d’Apple signifie que les tiers (y compris Apple elle-même) n’ont pas d’accès administratif, d’urgence ou de porte dérobée aux données traitées sur les serveurs d’Apple. Cela élimine l’un des plus grands points d’exploitation qui existent sur n’importe quel ordinateur. Cela différencie également Apple Intelligence de la grande majorité des produits du marché.
De plus, Apple dispose de plusieurs niveaux de suppression (et de vérification de la suppression) des données traitées sur ses serveurs. Ainsi, non seulement elle n’entraîne pas ses modèles d’IA sur vos informations, mais elle ne conserve même pas de journaux de vos invites à des fins de débogage.
Comme pour tous les produits d’intelligence artificielle, les utilisateurs doivent se méfier des hallucinations, des données sources erronées et des problèmes de droits d’auteur qui transcendent les modèles d’IA. Et comme toujours, nous suggérons aux utilisateurs de lire les conditions d’utilisation et de ne donner accès qu’aux données qu’ils ont vérifiées. Mais à première vue, il semble qu’Apple Intelligence ait évité certains des principaux pièges des autres produits d’IA du marché.
Dernière mise à jour le 13 septembre 2024