로그인

검색

OBG
조회 수 11 추천 수 0 댓글 0
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄

🛠️ LM Studio 스킬 세팅 완전 가이드

전제 조건: LM Studio 0.3.17 이상 버전 필요 (MCP 지원 시작) LM Studio 0.3.17부터 MCP Host 기능이 추가되어, mcp.json 파일을 편집하거나 "Add to LM Studio" 버튼으로 MCP 서버를 연결할 수 있습니다. LM Studio


✅ 사전 준비 (공통)

Node.js(v18+)와 Python(3.10+)이 설치되어 있어야 합니다.

 

# Node.js 설치 확인
node --version

# Python 설치 확인
python --version

# uvx 설치 (MCP 서버 실행에 필요)
pip install uv

📁 mcp.json 파일 여는 법

LM Studio 우측 사이드바 → Program 탭Install → Edit mcp.json 클릭 LM Studio하면 내장 에디터로 열립니다.


🌐 스킬 1. DuckDuckGo 검색 플러그인

LM Studio Hub에 올라온 전용 플러그인이 가장 쉽습니다.

방법 A — Hub에서 원클릭 설치 (가장 쉬움)

브라우저에서 아래 주소 접속 → "Run in LM Studio" 클릭:

https://lmstudio.ai/variablechange/duck-duck-go-search

Hub 페이지에서 "Run in LM Studio" 버튼을 누르면 바로 사용 시작 가능합니다. LM Studio

방법 B — mcp.json에 수동 추가

{
  "mcpServers": {
    "duckduckgo-search": {
      "command": "uvx",
      "args": ["mcp-duckduckgo"]
    }
  }
}

처음 실행 시 자동으로 패키지가 설치됩니다.


🔗 스킬 2. 웹페이지 방문(fetch) 플러그인

검색 결과 URL을 직접 열어서 내용을 읽는 도구입니다. mcp.json에 추가:

"fetch": {
  "command": "uvx",
  "args": ["mcp-server-fetch"]
}

덕덕고와 함께 쓰면 검색 → 방문 → 요약이 자동으로 이어집니다.


📅 스킬 3. 시스템 날짜 도구

방법 A — 시스템 프롬프트에 날짜 주입 (가장 간단)

LM Studio Chat 화면 → 우측 System Prompt 영역에 아래 내용 추가:

 

오늘 날짜와 시간: {{현재 날짜를 여기에 복사해서 매번 붙여넣기}}

 

실용적인 방법은 매 대화 시작 시 아래처럼 입력:

 

오늘은 2026년 4월 15일이야. 이 정보를 기억하고 답변해줘.

 

방법 B — MCP datetime 서버 (자동화)

"datetime": {
  "command": "uvx",
  "args": ["mcp-server-time", "--local-timezone=Asia/Seoul"]
}

설치:

pip install mcp-server-time

🧠 스킬 4. 메모리(기억) 스킬

LM Studio에 특화된 장기 메모리 MCP입니다.

설치:

git clone https://github.com/Rotoslider/long-term-memory-mcp
cd long-term-memory-mcp
pip install -r requirements.txt

mcp.json에 추가:

"long_term_memory": {
  "command": "python",
  "args": ["C:/경로/long-term-memory-mcp/LongTermMemoryMCP.py"]
}

이 메모리 MCP는 SQLite와 ChromaDB를 결합한 방식으로, 채팅을 새로 시작하거나 모델을 바꿔도 기억이 유지됩니다. remember 툴은 새 정보를 저장하고, search_memories는 과거 기억을 자동으로 불러옵니다. GitHub

시스템 프롬프트에 아래 내용 추가 필수:

당신은 메모리 도구를 가지고 있습니다.
- 사용자가 새로운 정보를 말하면 → remember 툴로 저장
- 과거 정보가 필요하면 → search_memories 툴로 검색

👥 스킬 5. 멀티에이전트 (리더·리서처·글쓰기)

이 기능은 LM Studio를 백엔드 서버로 쓰고, CrewAI Python 스크립트로 구현합니다.

① LM Studio에서 로컬 서버 켜기

좌측 메뉴 </> (Developer) 탭 → Start Server 클릭 (기본 포트: http://localhost:1234)

② CrewAI 설치

pip install crewai crewai-tools duckduckgo-search

③ 멀티에이전트 스크립트 작성 (crew_qwen.py)

from crewai import Agent, Task, Crew, Process
from crewai_tools import tool
from duckduckgo_search import DDGS
from openai import OpenAI

# LM Studio 로컬 서버 연결
client = OpenAI(base_url="http://localhost:1234/v1", api_key="lm-studio")

# 덕덕고 검색 툴
@tool("web_search")
def web_search(query: str) -> str:
    """인터넷에서 최신 정보를 검색합니다"""
    with DDGS() as ddgs:
        results = list(ddgs.text(query, max_results=5))
    return str(results)

# 에이전트 3명 정의
leader = Agent(
    role="리더",
    goal="팀 전체를 조율하고 최종 답변을 검토한다",
    backstory="경험 많은 프로젝트 매니저",
    llm="openai/qwen3",  # LM Studio 모델명
)

researcher = Agent(
    role="리서처",
    goal="웹 검색으로 정확한 최신 정보를 수집한다",
    backstory="전문 정보 분석가",
    tools=[web_search],
    llm="openai/qwen3",
)

writer = Agent(
    role="글쓰기 전문가",
    goal="수집된 정보를 명확하고 읽기 쉬운 글로 작성한다",
    backstory="10년 경력 테크 라이터",
    llm="openai/qwen3",
)

# 작업 정의
task1 = Task(description="질문에 대한 정보를 웹 검색으로 수집", agent=researcher)
task2 = Task(description="수집된 정보로 답변 초안 작성", agent=writer)
task3 = Task(description="초안을 검토하고 최종 답변 완성", agent=leader)

# 크루 실행
crew = Crew(
    agents=[leader, researcher, writer],
    tasks=[task1, task2, task3],
    process=Process.sequential,  # 순차 실행
    verbose=True
)

result = crew.kickoff(inputs={"question": "2026년 AI 트렌드는?"})
print(result)

④ 실행

python crew_qwen.py

CrewAI는 리서처, 라이터, 에디터처럼 각자 역할을 가진 전문화된 에이전트들이 협력해 복잡한 작업을 처리하는 구조로, LM Studio 로컬 서버를 백엔드로 쉽게 연결할 수 있습니다. Substack


📋 최종 mcp.json 전체 예시

{
  "mcpServers": {
    "duckduckgo-search": {
      "command": "uvx",
      "args": ["mcp-duckduckgo"]
    },
    "fetch": {
      "command": "uvx",
      "args": ["mcp-server-fetch"]
    },
    "datetime": {
      "command": "uvx",
      "args": ["mcp-server-time", "--local-timezone=Asia/Seoul"]
    },
    "long_term_memory": {
      "command": "python",
      "args": ["C:/경로/LongTermMemoryMCP.py"]
    }
  }
}

⚠️ 신뢰할 수 없는 출처의 MCP는 절대 설치하지 마세요. 일부 MCP는 로컬 파일 접근, 네트워크 연결, 코드 실행 권한을 가질 수 있습니다. LM Studio

?

  1. Programming 게시판 관련

  2. LM Studio 스킬 세팅 완전 가이드

  3. 반복적인 SQL 업무를 자동화하는 AI 에이전트 '곰곰이'

  4. Claude Code로 코드 한 줄 없이 마케팅팀을 만드는 법

  5. Claude Code에서 MCP 서버 설정하는 법 (글로벌 vs 프로젝트별 정리)

  6. Claude Code 공식 플러그인 Ralph Wiggum 사용법 가이드

  7. LLM-Wiki - LLM을 활용하여 개인 지식저장소 구축 하기

  8. Ollama가 MLX로 갈아탔다: 애플 실리콘에서 로컬 LLM의 새로운 속도 기준

  9. Claude Code 유출 관련

  10. Claude Code 토큰 줄이기

  11. Claude Code 플러그인 설치

  12. Harness — Claude Code 에이전트 팀 & 스킬 아키텍트 플러그인

  13. AI 회사들의 해킹되었다고 알려진 시스템 프롬프트들 모음

  14. Codex for Software Engineers (OpenAI 공식)

  15. Run LLM Locally for Coding: Step-by-Step Guide for Developers (2026)

  16. [OpenAI] 엔지니어링 활용: 에이전트 우선 환경에서 Codex를 활용하기

  17. everything is a ralph loop

  18. Claude Code 창시자가 공개한 실전 사용 팁

  19. Claude Skills 구축을 위한 완벽 가이드

  20. Claude Code - Ollama Integration

  21. 앤트로픽 해커톤 우승자의 클로드 코드 구성(configuration) 전체 컬렉션

Board Pagination Prev 1 2 3 4 5 6 7 8 9 10 ... 18 Next
/ 18