Windows 3にGemma 11 LLMをインストールする手順

最終更新: 02/04/2025

  • Gemma 3は、Googleが開発した柔軟性の高いマルチモーダルLLMモデルです。
  • Ollama、LM Studioを使用してWindows 11にインストールするか、Google AI Studio経由で使用できます。
  • モデルのサイズに応じて、8 GB から 32 GB の RAM までのさまざまなリソースが必要です。
  • 画像入力や最大128kのコンテキストトークンなどの高度な機能を組み込んでいます
Windows 3/11にGemma 8 LLMをインストールする方法

オープンソースの言語モデルは飛躍的に進化しており、 今ではクラウドサービスに頼らずにパソコンから直接楽しむことも可能です。。現在最も有望なものの 3 つは、Gemini テクノロジに基づく Google の新しい LLM である Gemma 128 です。これは、テキストと画像を処理する能力と、高度なバージョンでは最大 XNUMX トークンの巨大なコンテキスト ウィンドウを備えていることで際立っています。このリリースの詳細については、次の記事をご覧ください。 ジェマ3の発表.

Windows 11を使用していて、実験やローカルプロダクションのためにGemma 3をインストールしようとしている場合、あなたは正しい場所に来ました。 Ollama、LM Studio、クラウドベースの代替手段であるGoogle AI Studioなど、最も推奨されるオプションを含め、コンピューターでこれを起動して実行するためのすべての可能な方法を詳しく見ていきましょう。さらに、各方法の技術的要件、利点、 この強力な人工知能の可能性を最大限に活用する方法.

Gemma 3 とは何ですか? また、なぜインストールするのですか?

Google、Gemma 3-4 を発表

Gemma 3 は、Google がオープンソース ライセンスに基づいてリリースした LLM モデルの第 XNUMX 世代です。。 Llama や Mistral などの以前のソリューションとは異なり、画像入力の直接サポート、はるかに幅広いコンテキスト、および 140 を超える言語のサポートを提供します。ニーズに応じて、1B から 27B のパラメータにわたるモデルの複数のバージョンから選択できます。

  • 創世記 3:1B: 基本的なタスクやリソースが限られた環境に最適な軽量モデルです。
  • 創世記 3:4B: 中間アプリケーションのパフォーマンスと効率のバランスをとります。
  • 創世記 3:12B: 複雑な分析、プログラミング、多言語処理に推奨されます。
  • 創世記 3:27B: 優れたコンテキスト容量を備えた集中的なマルチモーダル用途向けに設計された最も強力なオプションです。
限定コンテンツ - ここをクリックしてください  直接請求書を使用して予算リストをエクスポートするにはどうすればよいですか?

このような高度なモデルをPCから実行できる可能性 プライバシー、応答速度、第三者への依存という点でゲームのルールが変わります。毎月のサブスクリプション料金を支払ったり、データを放棄したりする必要はもうありません。必要なのは、少しの準備と学習意欲だけです。これらのモデルの利点について詳しく知りたい場合は、次の記事をご覧ください。 オープンウェイトAIモデル.

オプション 1: Ollama を使用したインストール

Ollama ダウンロード

OllamaはおそらくWindows 3からGemma 11のようなLLMを実行する最も簡単な方法です。ターミナルベースのインターフェースにより、シンプルなコマンドラインでモデルをインストールして実行できます。さらに、macOS、Linux、Windows と互換性があるため、さまざまな環境で簡単に使用できます。

Ollama をインストールして Gemma 3 を実行する手順:

  1. 公式ウェブサイトにアクセスします。 オラマ.com.
  2. Windows用のインストーラーをダウンロードする 他のプログラムと同じように実行します。
  3. コマンド プロンプト (CMD) または PowerShell を開き、次のコマンドでインストールを確認します。
ollama --version

すべてがうまくいけば、利用可能な Gemma 3 テンプレートのいずれかをダウンロードできるようになります。必要なテンプレートに応じて、次のコマンドのいずれかを実行するだけです。

ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b

ダウンロードしたら、モデルを簡単に起動できます。。これを行うには、次のコマンドを実行します。

ollama init gemma3

その瞬間から、次の方法で LLM とのやり取りを開始できます。

ollama query gemma3 "¿Cuál es la capital de Japón?"

マルチモーダル機能を活用したい場合クエリで画像を使用することもできます。

ollama query gemma3 --image "ruta-de-la-imagen.jpg"

うまく機能させるには何が必要ですか? Ollama では厳格な最小要件は課していませんが、大型モデル (27B など) では少なくとも 32 GB の RAM が必要です。 16GB があれば 7B モデルでも問題なく動作し、GPU の使用は必須ではありませんが、速度が大幅に向上します。

限定コンテンツ - ここをクリックしてください  Brainly アプリのメーリング リストに登録するにはどうすればよいですか?

オプション2: LM Studioを使用する

LMスタジオ

LM Studio は、グラフィカル インターフェイスから LLM モデルをローカルにインストールして実行できるもう 1 つの無料ツールです。。 Windows、macOS、Linuxに対応しており、操作に技術的な知識を必要としないのが大きな利点です。

説明:

  1. LM Studio を公式ウェブサイトからダウンロードしてください: lmstudio.ai.
  2. インストールして実行します。
  3. 「発見」と書かれた虫眼鏡アイコンをクリックします。
  4. 利用可能なモデルを表示するには、検索エンジンに「Gemma 3」と入力してください。

インストールする前に、モデルが機器と互換性があるかどうかを確認してください。 「このマシンには大きすぎる可能性があります」という警告が表示されてもインストールは可能ですが、最適なパフォーマンスは保証されません。

互換性のあるモデルをダウンロードしたら:

  • 「モデルのロード」を押してロードします。
  • または、新しいチャットを開いて、ドロップダウン メニューからモデルを選択します。

LM Studioの最も優れた点は、オフラインで自分の言語で一種のローカルChatGPTとして機能することです。。必要に応じて複数のチャットを作成し、会話を保存できます。さらに、「ローカル サーバー」オプションを有効にすると、OpenAI 互換 API を使用して Python アプリケーションと統合できます。

オプション 3: Google AI Studio (オンライン) を使用する

Google AIスタジオ

何もインストールできない場合やインストールしたくない場合は、Google AI Studioを使用してクラウドから直接Gemma 3を使用できます。。インストールは必要ありませんが、インターネット接続と Google アカウントが必要です。

行くだけでいい google.com/aistudio/ モデルのリストから「Gemma 3」を選択します。その瞬間から、Bard や ChatGPT の高度なバージョンのように、画像入力を含めてモデルとのチャットを開始できます。

NodeShift を使用したクラウド インストール (オプション)

より強力なモデルをお探しの方、または専門的にモデルを展開したい方NodeShift などのクラウド サービスを利用するというオプションもあります。これらを使用すると、強力な GPU を搭載したマシンをレンタルし、制限なく Gemma 3 を実行するための理想的な環境を構成できます。

限定コンテンツ - ここをクリックしてください  Pou アプリでゲーム時間を制限するにはどうすればよいですか?

NodeShift の基本的な手順:

  1. でアカウントを作成します ノードシフト.
  2. カスタム GPU ノード (例: 2x RTX 4090) を起動します。
  3. Ollama を使用するか Transformers を使用するかに応じて、Ubuntu + Nvidia CUDA または Jupyter Notebook で事前構成されたイメージを選択します。
  4. SSH 経由で接続し、コマンド ラインからモデルをインストールします。

このタイプのインストールでは、プロフェッショナルな構成にアクセスできますモデルのトレーニング、パフォーマンスの評価などに最適です。家庭ユーザーにとっては必須ではありませんが、高度な LLM で詳細な実験やアプリケーションの構築を行うユーザーにとっては便利です。

システム要件と技術推奨事項

すべてのGemma 3モデルがどのPCでも動作するわけではない。以下に、モデルのタイプに応じた一般的な参考情報を示します。

  • モデル1B~7B: 最小 RAMの8 GB。 GPU がなくても、ほぼすべての最新 PC で動作します。
  • 13Bモデル: が推奨されます 16 GB~24 GBのRAM.
  • 27Bモデル: が必要です 少なくとも32GBのRAM 専用の GPU が望ましいです。

RAMを増やすと操作が高速化し、メモリ不足によるエラーを防ぐことができます。。 Ollama と LM Studio はリソースを効率的に使用しようとしますが、ハードウェアに大きく依存します。さらに、CPUの代わりにGPUを使用すると応答速度が大幅に向上します。

Windows 3 に Gemma 11 をインストールするのは、思ったより簡単です。。シンプルさのために Ollama を使用するか、グラフィカル インターフェイスのために LM Studio を使用するか、クラウドで安全にプレイするために Google AI Studio を使用するかは問題ではありません。重要なのは、それぞれの方法がさまざまなレベルの経験と技術的能力に適応することです。すべてのオプションと開始に必要なものがわかったので、今すぐこの優れたローカル人工知能を試し始めることができます。