- Gemma 3 est un modèle LLM multimodal hautement flexible développé par Google
- Il peut être installé sur Windows 11 à l'aide d'Ollama, LM Studio ou utilisé via Google AI Studio
- Nécessite des ressources variables selon la taille du modèle, de 8 Go à 32 Go de RAM
- Intègre des fonctionnalités avancées telles que la saisie d'images et jusqu'à 128 XNUMX jetons de contexte
Les modèles de langage open source ont évolué à pas de géant, et Aujourd’hui, il est possible d’en profiter directement depuis un ordinateur personnel sans dépendre de services cloud.. L'un des plus prometteurs actuellement est Gemma 3, le nouveau LLM de Google basé sur la technologie Gemini, qui se distingue par sa capacité à traiter du texte et des images, ainsi que par son énorme fenêtre de contexte pouvant atteindre 128 XNUMX jetons dans ses versions avancées. Pour plus d'informations sur cette version, vous pouvez consulter notre article sur la présentation de Gemma 3.
Si vous utilisez Windows 11 et que vous souhaitez installer Gemma 3 pour l'expérimentation ou même la production locale, vous êtes au bon endroit. Passons en revue en détail toutes les manières possibles de le faire fonctionner sur votre ordinateur, y compris les options les plus recommandées comme Ollama, LM Studio, ainsi qu'une alternative basée sur le cloud avec Google AI Studio. De plus, nous aborderons les exigences techniques, les avantages de chaque méthode et Comment exploiter au mieux le potentiel de cette puissante intelligence artificielle.
Qu'est-ce que Gemma 3 et pourquoi l'installer ?

Gemma 3 est la troisième génération de modèles LLM publiés par Google sous une licence open source.. Contrairement aux solutions précédentes comme Llama ou Mistral, il offre un support direct pour la saisie d'images, un contexte beaucoup plus large et une prise en charge de plus de 140 langues. Selon vos besoins, vous pouvez choisir parmi plusieurs versions du modèle allant de 1B à 27B paramètres :
- Gemma 3:1B:Modèle léger idéal pour les tâches de base et les environnements aux ressources limitées.
- Gemma 3:4B:Équilibrer les performances et l'efficacité pour les applications intermédiaires.
- Gemma 3:12B: Recommandé pour l'analyse complexe, la programmation et le traitement multilingue.
- Gemma 3:27B:L'option la plus puissante, conçue pour des usages intensifs, multimodaux et avec une grande capacité contextuelle.
La possibilité d'exécuter un modèle aussi avancé depuis votre PC Cela change les règles du jeu en termes de confidentialité, de vitesse de réponse et de dépendance à l’égard de tiers. Vous n’avez plus besoin de payer des abonnements mensuels ni de renoncer à vos données. Il suffit d’un peu de préparation et d’une envie d’apprendre. Si vous souhaitez en savoir plus sur les avantages de ces modèles, consultez notre article sur modèles d'IA à poids ouvert.
Option 1 : Installation avec Ollama

Ollama est probablement le moyen le plus simple d'exécuter LLM comme Gemma 3 à partir de Windows 11. Son interface basée sur un terminal vous permet d'installer et d'exécuter des modèles avec une simple ligne de commande. De plus, il est compatible avec macOS, Linux et Windows, ce qui le rend facile à utiliser dans divers environnements.
Étapes pour installer Ollama et exécuter Gemma 3 :
- Accédez au site officiel : ollama.com.
- Téléchargez le programme d'installation pour Windows et exécutez-le comme n'importe quel autre programme.
- Ouvrez l'invite de commande (CMD) ou PowerShell et vérifiez l'installation avec :
ollama --version
Si tout se passe bien, vous pouvez désormais télécharger l’un des modèles Gemma 3 disponibles. Exécutez simplement l’une de ces commandes en fonction du modèle souhaité :
ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b
Une fois téléchargé, vous pouvez facilement démarrer le modèle.. Pour ce faire, exécutez :
ollama init gemma3
À partir de ce moment, vous pouvez commencer à interagir avec le LLM en :
ollama query gemma3 "¿Cuál es la capital de Japón?"
Si vous souhaitez profiter des fonctionnalités multimodales, vous pouvez également utiliser des images dans vos requêtes :
ollama query gemma3 --image "ruta-de-la-imagen.jpg"
De quoi avez-vous besoin pour que cela fonctionne bien ? Bien qu'Ollama n'impose pas d'exigences minimales strictes, les modèles plus grands (comme le 27B) nécessitent au moins 32 Go de RAM. Avec 16 Go, vous pouvez travailler sans problème avec le modèle 7B, et bien que l'utilisation d'un GPU ne soit pas obligatoire, cela aide beaucoup en termes de vitesse.
Option 2 : utiliser LM Studio

LM Studio est un autre outil gratuit qui vous permet d'installer et d'exécuter des modèles LLM localement à partir d'une interface graphique.. Il est compatible avec Windows, macOS et Linux, et son grand avantage est qu'il ne nécessite pas de connaissances techniques pour fonctionner.
Mode d'emploi:
- Téléchargez LM Studio depuis son site officiel : lmstudio.ai.
- Installez-le et exécutez-le.
- Cliquez sur l’icône en forme de loupe indiquant « Découvrir ».
- Tapez « Gemma 3 » dans le moteur de recherche pour voir les modèles disponibles.
Avant l'installation, vérifiez si le modèle est compatible avec votre équipement. Si vous voyez l’avertissement « Probablement trop grand pour cette machine », vous pouvez toujours l’installer, mais des performances optimales ne sont pas garanties.
Une fois qu'un modèle compatible a été téléchargé :
- Appuyez sur « Charger le modèle » pour le charger.
- Ou ouvrez une nouvelle discussion et choisissez le modèle dans le menu déroulant.
Le meilleur atout de LM Studio est qu'il agit comme une sorte de ChatGPT local, hors ligne et dans votre langue. Vous pouvez créer plusieurs chats et enregistrer vos conversations si vous le souhaitez. De plus, si vous activez l’option « Serveur local », vous pouvez l’intégrer à vos applications Python à l’aide de l’API compatible OpenAI.
Option 3 : Utiliser Google AI Studio (en ligne)

Si vous ne pouvez pas ou ne voulez rien installer, vous pouvez utiliser Gemma 3 directement depuis le cloud avec Google AI Studio. Aucune installation n'est requise, mais une connexion Internet et un compte Google sont requis.
Il suffit d'aller à aistudio.google.com et sélectionnez « Gemma 3 » dans la liste des modèles. À partir de ce moment, vous pouvez commencer à discuter avec le modèle comme s'il s'agissait d'une version avancée de Bard ou de ChatGPT, y compris la saisie d'images.
Installation dans le cloud avec NodeShift (facultatif)
Pour ceux qui recherchent plus de puissance ou pour déployer le modèle de manière professionnelle, il existe la possibilité d'utiliser des services cloud comme NodeShift. Avec eux, vous pouvez louer des machines avec des GPU puissants et configurer votre environnement idéal pour exécuter Gemma 3 sans limitations.
Étapes de base dans NodeShift :
- Créez un compte sur app.nodeshift.com.
- Démarrez un nœud GPU personnalisé (par exemple avec 2x RTX 4090).
- Choisissez une image préconfigurée avec Ubuntu + Nvidia CUDA ou Jupyter Notebook, selon que vous utiliserez Ollama ou Transformers.
- Connectez-vous via SSH et installez le modèle depuis la ligne de commande.
Ce type d'installation vous donne accès à des configurations professionnelles, idéal pour la formation de modèles, l'évaluation des performances, etc. Bien qu'il ne soit pas essentiel pour les utilisateurs à domicile, il est utile pour ceux qui souhaitent expérimenter en profondeur ou créer des applications sur des LLM avancés.
Configuration requise et recommandations techniques
Tous les modèles Gemma 3 ne fonctionneront pas sur n'importe quel PC. Ci-dessous, nous vous laissons une référence générale selon le type de modèle :
- Pour modèles 1B à 7B: minimum 8 Go de RAM. Ils fonctionnent sur presque tous les PC modernes, même sans GPU.
- Pour Modèles 13B: sont recommandés 16 Go à 24 Go de RAM.
- Pour Modèles 27B: sont nécessaires au moins 32 Go de RAM et de préférence un GPU dédié.
Avoir plus de RAM accélère le fonctionnement et évite les erreurs dues au manque de mémoire. Bien qu'Ollama et LM Studio essaient d'utiliser les ressources de manière efficace, cela dépendra beaucoup de votre matériel. De plus, la vitesse de réponse s'améliore considérablement si le GPU est utilisé à la place du CPU.
L'installation de Gemma 3 sur Windows 11 est plus simple qu'il n'y paraît.. Peu importe que vous décidiez d'utiliser Ollama pour sa simplicité, LM Studio pour son interface graphique ou Google AI Studio pour jouer la sécurité dans le cloud. L’important est que chaque méthode s’adapte à différents niveaux d’expérience et de capacités techniques. Maintenant que vous connaissez toutes les options et ce dont vous avez besoin pour commencer, vous pouvez commencer à expérimenter cette impressionnante intelligence artificielle locale dès aujourd'hui.
Je suis un passionné de technologie qui a fait de ses intérêts de « geek » un métier. J'ai passé plus de 10 ans de ma vie à utiliser des technologies de pointe et à bricoler toutes sortes de programmes par pure curiosité. Aujourd'hui, je me spécialise dans l'informatique et les jeux vidéo. En effet, depuis plus de 5 ans, j'écris pour différents sites Web sur la technologie et les jeux vidéo, créant des articles qui cherchent à vous donner les informations dont vous avez besoin dans un langage compréhensible par tous.
Si vous avez des questions, mes connaissances s'étendent de tout ce qui concerne le système d'exploitation Windows ainsi qu'Android pour les téléphones mobiles. Et mon engagement est envers vous, je suis toujours prêt à consacrer quelques minutes et à vous aider à résoudre toutes les questions que vous pourriez avoir dans ce monde Internet.