Windows 3에 Gemma 11 LLM을 단계별로 설치하는 방법

마지막 업데이트 : 02/04/2025

  • Gemma 3는 Google에서 개발한 매우 유연한 다중 모드 LLM 모델입니다.
  • Ollama, LM Studio를 사용하여 Windows 11에 설치하거나 Google AI Studio를 통해 사용할 수 있습니다.
  • 모델 크기에 따라 8GB에서 32GB의 RAM까지 다양한 리소스가 필요합니다.
  • 이미지 입력 ​​및 최대 128k 컨텍스트 토큰과 같은 고급 기능을 통합합니다.
Windows 3/11에 Gemma 8 LLM을 설치하는 방법

오픈 소스 언어 모델은 엄청나게 발전해 왔습니다. 요즘에는 클라우드 서비스에 의존하지 않고도 개인용 컴퓨터에서 직접 즐길 수 있습니다.. 현재 가장 유망한 것 중 하나는 Gemini 기술을 기반으로 한 Google의 새로운 LLM인 Gemma 3입니다. 이 LLM은 텍스트와 이미지를 처리하는 능력과 고급 버전의 경우 최대 128 토큰에 달하는 엄청난 컨텍스트 창이 특징입니다. 이 릴리스에 대한 자세한 내용은 다음 기사를 참조하세요. Gemma 3의 프레젠테이션.

Windows 11을 사용하고 실험 또는 로컬 프로덕션을 위해 Gemma 3을 설치하려는 경우, 당신은 올바른 곳에 왔습니다. Ollama, LM Studio와 같은 가장 권장되는 옵션과 Google AI Studio를 통한 클라우드 기반 대안을 포함하여 컴퓨터에서 이를 구동할 수 있는 모든 가능한 방법을 자세히 살펴보겠습니다. 또한, 각 방법의 기술적 요구 사항, 장점 등을 다루겠습니다. 이 강력한 인공지능의 잠재력을 최대한 활용하는 방법.

Gemma 3는 무엇이고 왜 설치해야 하나요?

구글, Gemma 3-4 출시

Gemma 3는 Google이 오픈 소스 라이선스로 출시한 XNUMX세대 LLM 모델입니다.. Llama나 Mistral 같은 기존 솔루션과는 달리, 이 솔루션은 이미지 입력에 대한 직접적인 지원, 훨씬 더 광범위한 컨텍스트, 140개 이상의 언어 지원을 제공합니다. 귀하의 요구 사항에 따라 1B에서 27B 매개변수까지 다양한 버전의 모델 중에서 선택할 수 있습니다.

  • 젬마 3:1B: 기본 작업과 리소스가 제한된 환경에 적합한 가벼운 모델입니다.
  • 젬마 3:4B: 중간 애플리케이션의 성능과 효율성의 균형을 맞춥니다.
  • 젬마 3:12B: 복잡한 분석, 프로그래밍 및 다국어 처리에 권장됩니다.
  • 젬마 3:27B: 강력한 옵션으로, 뛰어난 문맥적 수용력을 바탕으로 집약적이고 다중적 사용을 위해 설계되었습니다.
독점 콘텐츠 - 여기를 클릭하세요  스웨트코인으로 현금화하는 방법?

PC에서 이러한 고급 모델을 실행할 수 있는 가능성 이는 개인정보 보호, 응답 속도, 제3자 의존성 측면에서 게임의 규칙을 바꿉니다. 더 이상 월별 구독료를 내거나 데이터를 포기할 필요가 없습니다. 필요한 것은 약간의 준비와 배우고자 하는 의욕뿐입니다. 이러한 모델의 이점에 대해 자세히 알고 싶으시다면 다음 기사를 확인하세요. 오픈 웨이트 AI 모델.

옵션 1: Ollama로 설치

올라마 다운로드

Ollama는 아마도 Windows 3의 Gemma 11처럼 LLM을 실행하는 가장 쉬운 방법일 것입니다.. 터미널 기반 인터페이스를 사용하면 간단한 명령줄로 모델을 설치하고 실행할 수 있습니다. 게다가 macOS, Linux, Windows와 호환되므로 다양한 환경에서 쉽게 사용할 수 있습니다.

Ollama를 설치하고 Gemma 3를 실행하는 단계:

  1. 공식 웹사이트에 접속하세요: ollama.com.
  2. Windows용 설치 프로그램 다운로드 다른 프로그램과 마찬가지로 실행하면 됩니다.
  3. 명령 프롬프트(CMD) 또는 PowerShell을 열고 다음을 사용하여 설치를 확인합니다.
ollama --version

모든 것이 잘 진행된다면, 이제 사용 가능한 Gemma 3 템플릿을 다운로드할 수 있습니다. 원하는 템플릿에 따라 다음 명령 중 하나를 실행하세요.

ollama run gemma3:1b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run gemma3:27b

다운로드가 완료되면 모델을 쉽게 시작할 수 있습니다.. 이렇게 하려면 다음을 실행하세요.

ollama init gemma3

그 순간부터 LLM과 다음과 같은 방법으로 상호 작용을 시작할 수 있습니다.

ollama query gemma3 "¿Cuál es la capital de Japón?"

멀티모달 기능을 활용하고 싶다면, 쿼리에 이미지를 사용할 수도 있습니다.

ollama query gemma3 --image "ruta-de-la-imagen.jpg"

잘 작동하려면 무엇이 필요합니까? Ollama는 엄격한 최소 요구 사항을 적용하지 않지만, 27B와 같은 대형 모델에는 최소 32GB의 RAM이 필요합니다. 16GB를 사용하면 7B 모델로 문제없이 작업할 수 있으며, GPU를 꼭 사용해야 하는 것은 아니지만 속도 향상에 많은 도움이 됩니다.

독점 콘텐츠 - 여기를 클릭하세요  1C 키보드로 음성 받아쓰기를 하는 방법?

옵션 2: LM Studio 사용

LM스튜디오

LM Studio는 그래픽 인터페이스에서 LLM 모델을 로컬로 설치하고 실행할 수 있는 또 다른 무료 도구입니다.. Windows, macOS, Linux와 호환되며, 가장 큰 장점은 작동에 기술적인 지식이 필요하지 않다는 것입니다.

지침 :

  1. LM Studio를 공식 웹사이트에서 다운로드하세요: lmstudio.ai.
  2. 설치하고 실행하세요.
  3. "발견"이라고 적힌 돋보기 아이콘을 클릭하세요.
  4. 검색 엔진에 "Gemma 3"를 입력하여 사용 가능한 모델을 확인하세요.

설치 전 해당 모델이 귀하의 장비와 호환되는지 확인하세요.. "이 기기에는 너무 클 수 있음"이라는 경고가 표시되더라도 설치할 수는 있지만 최적의 성능은 보장되지 않습니다.

호환 모델을 다운로드한 후:

  • "모델 로드"를 눌러 로드하세요.
  • 또는 새 채팅을 열고 드롭다운 메뉴에서 모델을 선택하세요.

LM Studio의 가장 좋은 점은 오프라인에서 사용자 언어로 일종의 로컬 ChatGPT 역할을 한다는 것입니다.. 원하시면 여러 개의 채팅을 만들고 대화 내용을 저장할 수 있습니다. 또한 "로컬 서버" 옵션을 활성화하면 OpenAI 호환 API를 사용하여 Python 애플리케이션과 통합할 수 있습니다.

옵션 3: Google AI Studio 사용(온라인)

구글 AI 스튜디오

아무것도 설치할 수 없거나 설치하고 싶지 않은 경우 Google AI Studio를 사용하여 클라우드에서 직접 Gemma 3를 사용할 수 있습니다.. 설치는 필요하지 않지만 인터넷 연결과 Google 계정이 필요합니다.

그냥 가야만 해 aistudio.google.com 모델 목록에서 "Gemma 3"을 선택하세요. 그 순간부터 Bard나 ChatGPT의 고급 버전인 것처럼 모델과 채팅을 시작할 수 있으며 이미지 입력도 가능합니다.

NodeShift를 사용한 클라우드 설치(선택 사항)

더 많은 전력을 원하거나 모델을 전문적으로 배포하려는 사람들을 위해, NodeShift와 같은 클라우드 서비스를 사용하는 옵션도 있습니다. 이를 통해 강력한 GPU가 장착된 기계를 임대하고 Gemma 3를 제한 없이 실행하기 위한 이상적인 환경을 구성할 수 있습니다.

독점 콘텐츠 - 여기를 클릭하세요  Nike Run Club 앱으로 달리기 통계를 어떻게 추적합니까?

NodeShift의 기본 단계:

  1. 에서 계정 만들기 앱.노드시프트.com.
  2. 사용자 지정 GPU 노드를 시작합니다(예: RTX 2 4090개).
  3. Ollama나 Transformers를 사용할지에 따라 Ubuntu + Nvidia CUDA 또는 Jupyter Notebook으로 미리 구성된 이미지를 선택하세요.
  4. SSH를 통해 연결하고 명령줄에서 모델을 설치합니다.

이 유형의 설치를 통해 전문적인 구성에 액세스할 수 있습니다.모델 훈련, 성능 평가 등에 이상적입니다. 일반 사용자에게는 필수는 아니지만 심도 있는 실험을 하거나 고급 LLM에 대한 애플리케이션을 구축하려는 사용자에게는 유용합니다.

시스템 요구 사항 및 기술 권장 사항

모든 Gemma 3 모델이 모든 PC에서 실행되는 것은 아닙니다.. 아래에 모델 유형에 따른 일반적인 참고 사항을 남겨드립니다.

  • 모델 1B ~ 7B: 최소 RAM의 8 GB. GPU가 없어도 거의 모든 최신 PC에서 작동합니다.
  • 13B 모델: 추천됩니다 16GB ~ 24GB RAM.
  • 27B 모델: 필요합니다 32GB 이상의 RAM 그리고 전용 GPU가 있으면 더 좋습니다.

RAM이 많을수록 작업 속도가 빨라지고 메모리 부족으로 인한 오류가 방지됩니다.. Ollama와 LM Studio는 리소스를 효율적으로 사용하려고 하지만, 이는 하드웨어에 따라 크게 달라집니다. 게다가 CPU 대신 GPU를 사용하면 응답속도가 상당히 향상됩니다.

Windows 3에 Gemma 11을 설치하는 것은 생각보다 쉽습니다.. Ollama를 사용해 간편함을 추구하든, LM Studio를 사용해 그래픽 인터페이스를 추구하든, Google AI Studio를 사용해 클라우드에서 안전하게 플레이하든 상관없습니다. 중요한 점은 각 방법이 다양한 수준의 경험과 기술 능력에 맞게 적용된다는 것입니다. 이제 모든 옵션과 시작하는 데 필요한 사항을 알았으니, 오늘부터 이 인상적인 로컬 인공지능을 사용해 실험을 시작할 수 있습니다.