만두얏의 세상살이~ mandooyat's second life~

만두얏의 세상살이~ mandooyat's second life~

  • show all (479)
    • Recommendations (18)
    • tip (43)
      • computer (33)
      • common (4)
      • english (1)
      • trip (5)
      • ETC (0)
    • review (97)
      • electron (42)
      • food (31)
      • android (2)
      • book (3)
    • interest (81)
      • tv & movie (34)
      • music (7)
      • game (4)
      • picture (27)
      • linux (4)
      • ani (3)
    • wish list (2)
    • electron goods (18)
      • news (3)
    • homework (8)
    • scrap (10)
    • trip (55)
      • asia (0)
      • jejudo (3)
      • japan (1)
      • busan (1)
      • philippines (13)
      • canada (22)
      • america (12)
    • moving picture (4)
    • warehouse (6)
    • think (42)
      • idea (5)
    • dairy (84)
    • ETC (5)
  • home
  • tag
  • guestbook
  • 노트북 추천
  • PC사양 분석
  • 만두얏 홈페이지
  • 네온비
  •  JS 마음의소리
  • ::살맛나는이야기::정석
  • ★야마꼬 카툰★
  • 김치샐러드
  • 꼬마비 - 꼬마 도깨비
  • 포그니 홈페이지
  • Tell Me Where Do You Go...
  • 동영상홈피
  • smilebrush 스마일브러시
  • DOROTHIADLE LIFE
RSS 피드
로그인
로그아웃 글쓰기 관리

만두얏의 세상살이~ mandooyat's second life~

컨텐츠 검색

태그

만두얏 여행 일로일로 맛집 리뷰 생각 노트북추천 안드로이드 영화 숭실대 메인 사진 UMPC 필리핀 동영상 미국 어학연수 일기 캐나다 몬트리올

최근글

댓글

공지사항

  • 만두얏의 새상살이란???
  • 좀더 자신있는 나로!^^
  • 저는 사랑스럽습니다~♡

아카이브

로컬LLM(1)

  • 로컬(내 PC)에서 LLM 실행하기 - Ollama + LLM 모델 설치

    내 PC에서 LLM을 실행할 수는 없을까? 당연히 가능하다. 그리고 생각보다 빠르다!! Ollama 이라는 게 있는데 제미나이가 아래와 같이 설명해준다 ㅎ Ollama: 로컬에서 대규모 언어 모델 사용하기 Ollama는 최근 주목받는 흥미로운 프로젝트입니다. 이 프로젝트는 Llama 2, Mistral, Gemma 등 대규모 언어 모델(LLM)을 로컬에서 실행할 수 있는 프레임워크를 제공합니다. Ollama를 사용하면 다음과 같은 이점을 얻을 수 있습니다. 비용 절감: 클라우드 서비스에서 LLM을 실행하는 것은 비용이 많이 들 수 있습니다. Ollama를 사용하면 로컬 머신에서 모델을 실행하여 비용을 절감할 수 있습니다.개인정보 보호 강화: Ollama를 사용하면 모델을 로컬에서 실행하므로 데이터를 클라..

    2024.03.24
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바