728x90
해당 글은 window에서 ollama를 사용해 보려고 하다가 오류를 반복한 끝에 실행하는 방법을 정리해서 작성한 것이다. (더 좋은 방법이 존재할 수 있음), 단편적으로 다른 글들을 보고 따라하다가는 오류가 많이 발생할 수 있으니 주위!
- 오류 발생을 격다가 오류 계속 발생할꺼 같으니 가상환경 만들어서 하자해서 가상환경을 별도로 만들어서 진행
- ollama 홈페이지에서 window 버전 다운
- 다운 후 실행하면 자동 실행됨(다음날 사용시 다시 실행시켜주어야함)
- 해당 이미지처럼 모델 부분 클릭
- 위 이미지에 명령어를 cmd창에 입력
- 자동으로 run llama3.2버전이 실행됨
- 위와같이 자동으로 잡아줘서 동작하고 내가 원하는 커멘드를 집어 넣으면 해당 내용에 대한 답변을 진행해줌
- 이후 아래 코드를 사용해서 작동하면 아래와 같음
- 코드를 이용하기 전 ollama pull openchat을 먼저 해주어야함
# ollama01.py import ollama response = ollama.chat(model='openchat', messages=[ { 'role': 'user', 'content': '하늘은 왜 푸른지 설명해줘.', }, ]) print(response['message']['content']) |
- 아래 코드 사용전에 cmd창에서 !pip install requests 먼저 진행
- 이후 동일하게 실행해주면 됨
# ollama02.py import requests def query_ollama(model_name, prompt): url = "http://localhost:11434/api/generate" headers = {"Content-Type": "application/json"} data = { "model": model_name, "prompt": prompt, "stream": False } response = requests.post(url, headers=headers, json=data) response.raise_for_status() response_data = response.json() print(response_data) # return response_data['response'] if __name__ == "__main__": model = "openchat" prompt = "하늘은 왜 푸르게 보일까?" result = query_ollama(model, prompt) # print(result) |
728x90
'AI' 카테고리의 다른 글
# 24.10.16_ 아키텍처 설계 사례 분석 : Netfilx (7) | 2024.10.16 |
---|---|
# 24.10.15_ 사전학습 모델 + GPT + BERT모델 (6) | 2024.10.15 |
# 24.10.14_ Attention 모델 실습 + Transformer 아키텍처 정리 및 실습 (0) | 2024.10.14 |
# 24.10.11_언어모델의 이해 + Seq2Seq모델 + Attention 모델 (4) | 2024.10.11 |
# 24.10.10_CBOW 임베딩 실습 + Skip-gram 임베딩 (2) | 2024.10.10 |