Skip to content

Latest commit

 

History

History
35 lines (26 loc) · 1.76 KB

LiteLLM_QuickStart.md

File metadata and controls

35 lines (26 loc) · 1.76 KB

LiteLLM을 Phi-3 모델에 사용하면 다양한 애플리케이션에 통합하기에 훌륭한 선택이 될 수 있습니다. LiteLLM은 API 호출을 다양한 모델, 특히 Phi-3와 호환되는 요청으로 변환해주는 미들웨어 역할을 합니다.

Phi-3는 Microsoft에서 개발한 소형 언어 모델(SLM)로, 효율적이며 자원이 제한된 기기에서도 실행할 수 있도록 설계되었습니다. 이 모델은 AVX 지원 CPU와 4GB RAM만으로도 작동할 수 있어, GPU 없이 로컬 추론을 실행하기에 좋은 옵션입니다.

다음은 Phi-3에 LiteLLM을 사용하기 위한 몇 가지 단계입니다:

  1. LiteLLM 설치: pip을 사용하여 LiteLLM을 설치할 수 있습니다:

    pip install litellm
  2. 환경 변수 설정: API 키 및 기타 필요한 환경 변수를 설정합니다.

    import os
    os.environ["OPENAI_API_KEY"] = "your-api-key"
  3. API 호출: LiteLLM을 사용하여 Phi-3 모델에 API 호출을 합니다.

    from litellm import completion
    
    response = completion(
        model="phi-3",
        messages=[{"role": "user", "content": "Hello, how are you?"}]
    )
    print(response)
  4. 통합: LiteLLM을 Nextcloud Assistant와 같은 다양한 플랫폼에 통합하여, 텍스트 생성 및 기타 작업에 Phi-3를 사용할 수 있습니다.

LLMLite 전체 코드 샘플 LLMLite 코드 샘플 노트북

면책 조항: 이 번역은 AI 모델에 의해 원본에서 번역되었으며 완벽하지 않을 수 있습니다. 출력을 검토하시고 필요한 수정 사항을 반영해 주시기 바랍니다.