🛠️ LM Studio 스킬 세팅 완전 가이드
전제 조건: LM Studio 0.3.17 이상 버전 필요 (MCP 지원 시작) LM Studio 0.3.17부터 MCP Host 기능이 추가되어,
mcp.json파일을 편집하거나 "Add to LM Studio" 버튼으로 MCP 서버를 연결할 수 있습니다. LM Studio
✅ 사전 준비 (공통)
Node.js(v18+)와 Python(3.10+)이 설치되어 있어야 합니다.
# Node.js 설치 확인
node --version
# Python 설치 확인
python --version
# uvx 설치 (MCP 서버 실행에 필요)
pip install uv
📁 mcp.json 파일 여는 법
LM Studio 우측 사이드바 → Program 탭 → Install → Edit mcp.json 클릭 LM Studio하면 내장 에디터로 열립니다.
🌐 스킬 1. DuckDuckGo 검색 플러그인
LM Studio Hub에 올라온 전용 플러그인이 가장 쉽습니다.
방법 A — Hub에서 원클릭 설치 (가장 쉬움)
브라우저에서 아래 주소 접속 → "Run in LM Studio" 클릭:
https://lmstudio.ai/variablechange/duck-duck-go-search
Hub 페이지에서 "Run in LM Studio" 버튼을 누르면 바로 사용 시작 가능합니다. LM Studio
방법 B — mcp.json에 수동 추가
{
"mcpServers": {
"duckduckgo-search": {
"command": "uvx",
"args": ["mcp-duckduckgo"]
}
}
}
처음 실행 시 자동으로 패키지가 설치됩니다.
🔗 스킬 2. 웹페이지 방문(fetch) 플러그인
검색 결과 URL을 직접 열어서 내용을 읽는 도구입니다. mcp.json에 추가:
"fetch": {
"command": "uvx",
"args": ["mcp-server-fetch"]
}
덕덕고와 함께 쓰면 검색 → 방문 → 요약이 자동으로 이어집니다.
📅 스킬 3. 시스템 날짜 도구
방법 A — 시스템 프롬프트에 날짜 주입 (가장 간단)
LM Studio Chat 화면 → 우측 System Prompt 영역에 아래 내용 추가:
오늘 날짜와 시간: {{현재 날짜를 여기에 복사해서 매번 붙여넣기}}
실용적인 방법은 매 대화 시작 시 아래처럼 입력:
오늘은 2026년 4월 15일이야. 이 정보를 기억하고 답변해줘.
방법 B — MCP datetime 서버 (자동화)
"datetime": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Seoul"]
}
설치:
pip install mcp-server-time
🧠 스킬 4. 메모리(기억) 스킬
LM Studio에 특화된 장기 메모리 MCP입니다.
설치:
git clone https://github.com/Rotoslider/long-term-memory-mcp
cd long-term-memory-mcp
pip install -r requirements.txt
mcp.json에 추가:
"long_term_memory": {
"command": "python",
"args": ["C:/경로/long-term-memory-mcp/LongTermMemoryMCP.py"]
}
이 메모리 MCP는 SQLite와 ChromaDB를 결합한 방식으로, 채팅을 새로 시작하거나 모델을 바꿔도 기억이 유지됩니다. remember 툴은 새 정보를 저장하고, search_memories는 과거 기억을 자동으로 불러옵니다. GitHub
시스템 프롬프트에 아래 내용 추가 필수:
당신은 메모리 도구를 가지고 있습니다.
- 사용자가 새로운 정보를 말하면 → remember 툴로 저장
- 과거 정보가 필요하면 → search_memories 툴로 검색
👥 스킬 5. 멀티에이전트 (리더·리서처·글쓰기)
이 기능은 LM Studio를 백엔드 서버로 쓰고, CrewAI Python 스크립트로 구현합니다.
① LM Studio에서 로컬 서버 켜기
좌측 메뉴 </> (Developer) 탭 → Start Server 클릭 (기본 포트: http://localhost:1234)
② CrewAI 설치
pip install crewai crewai-tools duckduckgo-search
③ 멀티에이전트 스크립트 작성 (crew_qwen.py)
from crewai import Agent, Task, Crew, Process
from crewai_tools import tool
from duckduckgo_search import DDGS
from openai import OpenAI
# LM Studio 로컬 서버 연결
client = OpenAI(base_url="http://localhost:1234/v1", api_key="lm-studio")
# 덕덕고 검색 툴
@tool("web_search")
def web_search(query: str) -> str:
"""인터넷에서 최신 정보를 검색합니다"""
with DDGS() as ddgs:
results = list(ddgs.text(query, max_results=5))
return str(results)
# 에이전트 3명 정의
leader = Agent(
role="리더",
goal="팀 전체를 조율하고 최종 답변을 검토한다",
backstory="경험 많은 프로젝트 매니저",
llm="openai/qwen3", # LM Studio 모델명
)
researcher = Agent(
role="리서처",
goal="웹 검색으로 정확한 최신 정보를 수집한다",
backstory="전문 정보 분석가",
tools=[web_search],
llm="openai/qwen3",
)
writer = Agent(
role="글쓰기 전문가",
goal="수집된 정보를 명확하고 읽기 쉬운 글로 작성한다",
backstory="10년 경력 테크 라이터",
llm="openai/qwen3",
)
# 작업 정의
task1 = Task(description="질문에 대한 정보를 웹 검색으로 수집", agent=researcher)
task2 = Task(description="수집된 정보로 답변 초안 작성", agent=writer)
task3 = Task(description="초안을 검토하고 최종 답변 완성", agent=leader)
# 크루 실행
crew = Crew(
agents=[leader, researcher, writer],
tasks=[task1, task2, task3],
process=Process.sequential, # 순차 실행
verbose=True
)
result = crew.kickoff(inputs={"question": "2026년 AI 트렌드는?"})
print(result)
④ 실행
python crew_qwen.py
CrewAI는 리서처, 라이터, 에디터처럼 각자 역할을 가진 전문화된 에이전트들이 협력해 복잡한 작업을 처리하는 구조로, LM Studio 로컬 서버를 백엔드로 쉽게 연결할 수 있습니다. Substack
📋 최종 mcp.json 전체 예시
{
"mcpServers": {
"duckduckgo-search": {
"command": "uvx",
"args": ["mcp-duckduckgo"]
},
"fetch": {
"command": "uvx",
"args": ["mcp-server-fetch"]
},
"datetime": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Seoul"]
},
"long_term_memory": {
"command": "python",
"args": ["C:/경로/LongTermMemoryMCP.py"]
}
}
}
⚠️ 신뢰할 수 없는 출처의 MCP는 절대 설치하지 마세요. 일부 MCP는 로컬 파일 접근, 네트워크 연결, 코드 실행 권한을 가질 수 있습니다. LM Studio