이 가이드는 Ollama를 사용하여 Phi-3 모델을 실행하기 위해 로컬 환경을 설정하는 방법을 안내합니다. GitHub Codespaces, VS Code Dev Containers, 또는 로컬 환경을 포함한 몇 가지 방법으로 모델을 실행할 수 있습니다.
GitHub Codespaces를 사용하여 이 템플릿을 가상으로 실행할 수 있습니다. 버튼을 클릭하면 브라우저에서 웹 기반의 VS Code 인스턴스가 열립니다:
관련 옵션으로는 VS Code Dev Containers가 있으며, 이는 Dev Containers 확장을 사용하여 로컬 VS Code에서 프로젝트를 엽니다:
-
Docker Desktop을 시작합니다 (설치되지 않은 경우 설치)
-
프로젝트를 엽니다:
-
프로젝트 파일이 표시되면 (몇 분 정도 걸릴 수 있습니다) VS Code 창에서 터미널 창을 엽니다.
-
배포 단계로 계속 진행합니다.
-
다음 도구가 설치되어 있는지 확인합니다:
-
Ollama에게 phi3:mini 모델을 다운로드하고 실행하도록 요청합니다:
ollama run phi3:mini
모델을 다운로드하는 데 몇 분 정도 걸립니다.
-
출력에 "success"가 표시되면 프롬프트에서 해당 모델로 메시지를 보낼 수 있습니다.
>>> Write a haiku about hungry hippos
-
몇 초 후에 모델에서 응답 스트림을 볼 수 있습니다.
-
언어 모델에 사용되는 다양한 기술에 대해 배우려면 Python 노트북 ollama.ipynb를 열고 각 셀을 실행합니다. 'phi3:mini' 외의 모델을 사용한 경우, 파일 상단의
MODEL_NAME
in the first cell. -
To have a conversation with the phi3:mini model from Python, open the Python file chat.py and run it. You can change the
MODEL_NAME
을 필요에 따라 변경할 수 있으며, 시스템 메시지를 수정하거나 몇 가지 샘플 예제를 추가할 수도 있습니다.
면책 조항: 이 문서는 기계 기반 AI 번역 서비스를 사용하여 번역되었습니다. 정확성을 기하기 위해 노력하고 있지만, 자동 번역에는 오류나 부정확성이 있을 수 있습니다. 원본 문서가 해당 언어로 작성된 권위 있는 자료로 간주되어야 합니다. 중요한 정보의 경우, 전문 인간 번역을 권장합니다. 이 번역 사용으로 인해 발생하는 오해나 오역에 대해 책임을 지지 않습니다.