Microsoft Mu : le nouveau modèle de langage qui apporte l'IA locale à Windows 11

Dernière mise à jour: 25/06/2025

  • Mu est le nouveau petit modèle de langage de Microsoft, optimisé pour fonctionner localement sur les appareils Windows 11 avec NPU.
  • Son intégration initiale se fait dans l'agent de configuration de Windows 11, permettant des ajustements en langage naturel.
  • Mu se distingue par son efficacité et sa rapidité, atteignant plus de 100 jetons par seconde grâce à ses 330 millions de paramètres.
  • Il comprend des innovations telles que Dual LayerNorm, RoPE et GQA, et a été formé à l'aide de processus avancés et de données éducatives de haute qualité.

Modèle de langage Microsoft Windows 11 MU

L'arrivée de Mu, le dernier petit modèle de langage présenté par Microsoftmarque une étape importante dans la tendance actuelle qui consiste à intégrer l'intelligence artificielle directement sur les appareils des utilisateurs. Avec l'intention de réduire la dépendance au cloud et exploiter le potentiel de Unités de traitement neuronal (NPU), Mu est intégré dans le PC Copilot+ fonctionnement Windows 11, se concentrant initialement sur la Application Paramètres pour faciliter l'accès et la modification des paramètres du système en utilisant simplement un langage naturel.

Cette avancée signifie qu’au lieu d’envoyer des requêtes à des serveurs externes, le traitement et les réponses sont générés sur l'appareil lui-même, garantissant une plus grande confidentialité, une plus grande agilité et une plus grande efficacité. Pour le moment, Le déploiement est destiné aux participants au programme Windows Insider disposant d'ordinateurs Copilot+., bien que l'on s'attende à ce que cette technologie soit étendue à davantage d'utilisateurs et de fonctions dans les futures mises à jour.

Fonderie locale
Article connexe:
Foundry Local et Windows AI Foundry : Microsoft mise sur l'IA locale avec un nouvel écosystème de développeurs.

Qu'est-ce que Mu réellement et qu'est-ce qui le distingue ?

Langue Mu

Mu est un petit modèle de langage (SLM, pour ses sigles en anglais), formé avec 330 millions de paramètresSa taille compacte ne signifie pas un sacrifice en termes de performances, car selon Microsoft, il atteint des chiffres très proches de modèles beaucoup plus grands tels que Phip-3.5-miniCet équilibre a été atteint grâce à un processus de formation rigoureux qui a inclus des techniques telles que Norme double couche, Encastrements positionnels rotatifs (RoPE) y Attention aux requêtes groupées (GQA) qui offrent efficacité et précision, notamment dans les appareils aux ressources limitées.

Contenu exclusif - Cliquez ici  Comment ouvrir un fichier RVB

Le modèle profite d'un architecture encodeur-décodeur de type transformateur, capable de traiter les entrées utilisateur et de les transformer en actions au sein du système. Grâce à cette structure, Mu sépare le traitement des entrées et des sorties, Qui réduit la latence et la consommation de mémoire, points clés pour garantir une expérience utilisateur fluide et sans attente.

Dans les tests et les données officiels, Mu s'est avéré capable de répondre à plus de 100 jetons par seconde et fournir des réponses en moins de 500 millisecondesCes chiffres permettent des interactions quasi instantanées, même pour modifier des paramètres ou interpréter des requêtes longues et variées en langage courant. Pour approfondir le fonctionnement de ces modèles, consultez Comparaisons entre modèles de langage sur PC.

Intégration dans l'agent de configuration et fonctions pratiques

L'atterrissage initial de Mu est centré sur le Agent de configuration Windows 11, une fonctionnalité qui permet aux utilisateurs ajuster les paramètres du système en tapant ou en disant simplement ce dont ils ont besoinPar exemple, demandez simplement « Comment activer le mode sombre ? » o « Je veux augmenter la luminosité » afin que Mu puisse traduire cette instruction en action technique correspondante au sein du système.

Contenu exclusif - Cliquez ici  La solution Sodexo ne fonctionne pas

Microsoft a souligné que l’IA s’adapte à des dizaines de milliers de contextes et de requêtes différentsEn fait, plus de 100 000 d’entre eux ont été utilisés. 3,6 millions d'échantillons d'entraînement pour couvrir toutes les requêtes, des plus courantes (changer de langue ou gérer les réseaux Wi-Fi) aux tâches plus complexes. Pour les questions trop courtes ou ambiguës, le système utilise la fonctions de recherche traditionnelles, mais lorsque les instructions sont claires et détaillées, Mu agit automatiquement ou guide l'utilisateur étape par étape.

Technologie et optimisation adaptées aux nouvelles générations de matériel

Microsoft Mu NPU Windows Copilot+

La Optimisation Mu a été l'un des points les plus soigneusement étudiés lors de son développement. Microsoft a travaillé en collaboration avec des partenaires spécialisés dans le silicium, tels que AMD, Intel et Qualcomm pour l'adapter aux spécificités des nouveaux NPU présents dans les PC Copilot+Ce travail commun a permis d’introduire techniques de quantification post-formation, qui convertissent les poids et les activations du modèle en entiers de 8 et 16 bits, réduisant ainsi la consommation de mémoire et évitant la nécessité de recycler l'ensemble du modèle.

Le processus de formation de Mu a été réalisé dans des environnements de haute performance, en utilisant GPU NVIDIA A100 dans Apprentissage automatique AzureL'ensemble de données inclus des centaines de milliards de jetons éducatifs et des techniques telles que distillation à partir de modèles Phi et l'adaptation à faible portée (LoRA) pour transférer les connaissances et affiner le modèle pour des tâches spécifiques. Le résultat final est un modèle compact et agile, particulièrement adapté aux ressources et aux limites des appareils portables modernes. Vous pouvez également découvrir comment transformez votre PC en un hub d'IA local pour étendre les capacités de votre système.

Mini IA Phi-4 sur Edge-2
Article connexe:
Phi-4 mini AI on Edge : l'avenir de l'IA locale dans votre navigateur

Défis actuels, disponibilité et perspectives d'avenir

L’un des plus grands défis auxquels Mu est confronté est la interprétation de requêtes ambiguës ou très brèves, un problème courant dans les systèmes basés sur le langage naturel. Pour ce faire, Microsoft a mis en place une logique hybrideAlors que les requêtes courtes déclenchent des résultats de recherche traditionnels, des instructions plus détaillées déclenchent l'intervention de l'IA, soit pour guider l'utilisateur, soit pour effectuer des actions automatisées.

Contenu exclusif - Cliquez ici  Voici comment vous pouvez créer des vidéos avec Perplexity sur Twitter (maintenant X) d'une durée maximale de 8 secondes et avec du son

Pour l'instant, Mu est uniquement disponible en anglais et sur les appareils Copilot+ via le canal Insider., bien qu'il soit prévu qu'il soit étendu à davantage de langues et à d'autres appareils dans les mois à venir, y compris ceux équipés de processeurs AMD et Intel. confidentialité et sécurité Ils jouent également un rôle fondamental, compte tenu du caractère local du traitement.

Le déploiement de Mu n’est que le début d’une stratégie plus large de Microsoft visant à intégrer IA locale et modèles linguistiques efficaces dans encore plus d'applications et d'aspects du système d'exploitation, améliorant l'expérience et l'accessibilité sans sacrifier les performances ou la confidentialité.