본문 바로가기

LLM5

9. AI 자동 매매 시스템 개발 과정: 모델 병합 📝 이 글에서는 허깅페이스의 AutoTrain을 활용한 AI 자동 매매 시스템 개발 과정을 소개합니다.🔄 학습 완료된 모델을 가지고 ollama에 올리는 작업과 모델 병합 과정에서 발생하는 이슈를 해결해봅니다.🔍 허깅 페이스에서 학습 완료한 어댑터 모델을 다운로드허깅페이스에서 학습이 완료된 어댑터 모델을 다운로드하는 과정은 매우 중요합니다. 이 과정에서는 허깅페이스 API를 활용하여 학습된 어댑터 모델을 로컬 환경으로 가져오는 방법을 알아보겠습니다.💡 어댑터 모델이란?어댑터 모델은 대규모 언어 모델(LLM)을 특정 작업에 맞게 미세 조정한 경량화된 모델입니다. 전체 모델을 재학습하는 대신, 기본 모델의 일부 레이어만 조정하여 특정 도메인(예: 금융 데이터 분석)에 특화된 성능을 발휘할 수 있도록 .. 2025. 4. 10.
5. 추론 결과 가공 Ollama API 응답 결과 가공하기: 효과적인 프롬프트 결과 파싱 기법들어가며로컬 LLM을 구축하고 API를 통해 상호작용하는 방법을 알아보았다면, 이제 API 응답 결과를 어떻게 효과적으로 가공하고 활용할지 고민해볼 차례입니다. 특히 문서 요약, 키워드 추출과 같은 응용 분야에서는 AI 모델의 응답을 정확하게 파싱하고 구조화된 형태로 변환하는 것이 매우 중요합니다.이 글에서는 Ollama API를 통해 받은 응답 데이터를 처리하는 다양한 방법과 각 방식의 장단점을 살펴보겠습니다.프롬프트 응답 파싱의 중요성LLM은 기본적으로 텍스트 형태의 응답을 생성합니다. 이 텍스트를 그대로 사용하는 것은 간단하지만, 자동화된 시스템에서는 응답에서 특정 정보를 추출하고 구조화된 형태로 변환해야 하는 경우가 많습니다.. 2025. 3. 22.
4. 로컬 LLM 구축하기 로컬 LLM 구축하기: Ubuntu 24.04에서 Ollama로 추론 서버 만들기들어가며인공지능 기술의 발전으로 이제는 누구나 강력한 언어 모델(LLM)을 자신의 컴퓨터에서 실행할 수 있게 되었습니다. 특히 주식, 암호화폐 트레이딩과 같은 민감한 재무 데이터를 다룰 때는 데이터의 프라이버시가 중요하기 때문에 로컬에서 실행되는 LLM의 가치가 더욱 빛납니다.이 글에서는 Ubuntu 24.04 환경에서 Ollama를 설치하고, 고성능 모델(DeepSeek-R1-Distill-Qwen-32B)을 설정하는 전체 과정을 상세히 알아보겠습니다. 이 가이드를 따라하면 클라우드 API에 의존하지 않고도 강력한 AI 서버를 구축할 수 있습니다.Ollama란 무엇인가?Ollama는 로컬 환경에서 대규모 언어 모델(LLM).. 2025. 3. 13.
2. 사용 하려는 AI 모델 선택 과정 AI 모델 선택 가이드: 라마 3 vs 딥시크 r1 비교 분석📋 들어가며AI 모델을 선택할 때는 여러 요소를 고려해야 합니다. 이 글에서는 최근 진행한 AI 모델 선택 과정과 각 모델의 특징, 그리고 최종 결정에 이르기까지의 분석 내용을 공유하고자 합니다.🔍 초기 선택지: API 기반 모델처음에는 API 기반 서비스 중에서 선택하려 했습니다.모델장점단점OpenAI API• 안정적인 성능• 다양한 모델 옵션• 풍부한 문서화• 상대적으로 높은 비용• 데이터 프라이버시 우려라마 3 API• 메타의 최신 모델• 경쟁력 있는 성능• 상대적으로 저렴한 비용• OpenAI에 비해 제한된 기능🆕 새로운 변수: 딥시크(DeepSeek) r1의 등장선택 과정 중에 딥시크 r1이라는 새로운 오픈소스 모델이 등장했습니다.. 2025. 3. 5.
반응형