Comment Apple prévoit d’améliorer ses modèles d’IA tout en protégeant la confidentialité des utilisateurs

Comment Apple prévoit d'améliorer ses modèles d'IA tout en protégeant la confidentialité des utilisateurs

Même les utilisateurs d’Apple les plus fidèles admettront que l’entreprise est à la traîne en ce qui concerne l’IA, la mise à niveau de l’intelligence Big Apple de Siri est désormais officiellement retardée (après avoir été fortement promue tout au long de l’année dernière). Dans un nouvel article de blog, Apple décrit certaines des façons dont il espère se remettre sur la bonne voie.

L’une des raisons potentielles des difficultés génératrices d’Apple peut être qu’elle privilégie beaucoup plus la confidentialité des utilisateurs que Openai et Google. Apple ne rassemble aucune donnée utilisateur pour former ses grands modèles de langage ou ses LLM (bien qu’il ait formé ses modèles sur du texte libre sur le Web), et s’appuie fortement sur des données synthétiques pour produire du texte d’IA à partir d’invites et de l’écriture existante.

Le problème des données synthétiques est, bien, son artificialité. Il n’a pas la nuance et la variation de l’écriture humaine à mesure qu’elle change avec le temps, et sans aucun texte écrit par des personnes réelles à titre de comparaison, il est difficile d’évaluer la qualité de ce que l’IA sort. Comme mentionné dans le billet de blog, Apple prévoit désormais des améliorations de la génération de texte.

En termes de base, l’idée est que le texte synthétique généré par l’IA sera comparé à une sélection d’écrits réels des utilisateurs, stockés sur des appareils Apple, mais avec plusieurs couches de protection en place pour empêcher l’identification des utilisateurs individuels, ou toute correspondance personnelle envoyée à Apple. L’approche note essentiellement le texte synthétique en la comparant à des échantillons d’écriture réels, mais seules les notes agrégées reviennent à Apple.

Ce qui se passe réellement n’implique pas du tout de mots ou de phrases réels, en fait: le texte synthétique et l’écriture humaine sont convertis en «intérêts», qui sont essentiellement des représentations mathématiques du texte. Il y a suffisamment de données pour classer la qualité du texte de l’IA, sans atteindre le niveau de la lecture réelle.

Toutes ces informations sont cryptées lorsqu’elles sont transférées, et les comparaisons ne sont faites que sur des appareils où les utilisateurs ont opté pour l’analyse des appareils sur leurs gadgets (l’option peut être trouvée dans Confidentialité et sécurité> analyse et améliorations Dans les paramètres sur iOS, par exemple). Apple ne sait jamais quel échantillon de texte IA a été choisi par un appareil individuel, seulement quels échantillons ont de meilleurs classements de tous les appareils ont cinglé.

Genmoji et autres outils

Ce système de classement anonymisé peut être utilisé pour améliorer le texte fabriqué ou réécrit par ses modèles d’IA génératifs, dit Apple, et devrait également signifier des résumés plus précis et plus intelligents du texte. Les résultats qui classent le plus haut pourraient être modifiés avec un ou deux mots différents, avant d’être renvoyé pour une autre série d’évaluations.

Une version plus simple de la même approche est déjà utilisée par Apple pour alimenter sa fonction Genmoji AI, où vous pouvez magner une pieuvre sur une planche de surf ou un cow-boy portant des écouteurs. Apple regroupe les données de plusieurs appareils pour voir quelles invites s’avèrent populaires, tout en appliquant des garanties pour garantir que les demandes individuelles uniques ne sont pas vues ou liées à des utilisateurs ou des appareils spécifiques.

Encore une fois, cela ne se produit que sur les iPhones, les iPads et les Mac qui ont été optés dans l’analyse des appareils. En obligeant les appareils à signaler les signaux « bruyants » sans aucune information utilisateur spécifique, Apple peut améliorer ses modèles d’IA basés sur des données agrégées et les utilisateurs n’ont pas à se soucier de la découverte de leurs invites Genmoji.

Des techniques similaires seront bientôt utilisées dans d’autres fonctionnalités d’intelligence d’Apple, explique Apple. Ces fonctionnalités comprendront un terrain de jeu d’image, une baguette d’image, la création de souvenirs, des outils d’écriture et l’intelligence visuelle, qui ont toutes été parmi les premières capacités d’APPA à se rendre aux appareils.

Selon Bloomberg, les systèmes nouveaux et améliorés seront testés dans les prochaines versions bêta d’IOS 18.5, iPados 18.5 et MacOS 15.5. Nous pourrions bien en savoir plus sur eux, et sur Apple Intelligence en général, lors de la conférence Apple Worldwide Developer de cette année, qui devrait débuter le lundi 9 juin.

Pendant ce temps, les rivaux d’Apple dans l’espace d’IA ne montrent aucun signe de ralentissement – et ont moins de scrupules sur l’utilisation du texte écrit par leurs utilisateurs pour former leurs modèles d’IA davantage. Ces derniers jours, nous avons vu Microsoft pousser une gamme de mises à jour pour Copilot (y compris la vision de Copilot et la recherche de fichiers), Google Ajouter la génération de vidéos aux Gemini et OpenAI mettent à niveau les capacités de mémoire de Chatgpt.

Total
0
Shares
Previous Post
Tiktok obtient aussi des notes de communauté maintenant

Tiktok obtient aussi des notes de communauté maintenant

Next Post
Quoi de neuf sur Hulu en mai 2025

Quoi de neuf sur Hulu en mai 2025

Related Posts