로컬LLM 썸네일형 리스트형 로컬(내 PC)에서 LLM 실행하기 - Ollama + LLM 모델 설치 내 PC에서 LLM을 실행할 수는 없을까? 당연히 가능하다. 그리고 생각보다 빠르다!! Ollama 이라는 게 있는데 제미나이가 아래와 같이 설명해준다 ㅎ Ollama: 로컬에서 대규모 언어 모델 사용하기 Ollama는 최근 주목받는 흥미로운 프로젝트입니다. 이 프로젝트는 Llama 2, Mistral, Gemma 등 대규모 언어 모델(LLM)을 로컬에서 실행할 수 있는 프레임워크를 제공합니다. Ollama를 사용하면 다음과 같은 이점을 얻을 수 있습니다. 비용 절감: 클라우드 서비스에서 LLM을 실행하는 것은 비용이 많이 들 수 있습니다. Ollama를 사용하면 로컬 머신에서 모델을 실행하여 비용을 절감할 수 있습니다.개인정보 보호 강화: Ollama를 사용하면 모델을 로컬에서 실행하므로 데이터를 클라.. 더보기 이전 1 다음