https://instavm.io/blog/building-my-offline-ai-workspace
Gemini 요약
핵심 아이디어
-
로컬 LLM 실행: Ollama를 사용하여 대규모 언어 모델(LLM)을 로컬에서 실행합니다.
-
격리된 코드 실행 환경: Apple의 'Container' 기술을 사용하여 코드를 가상 머신(VM) 내에서 실행하여 호스트 시스템에 영향을 주지 않도록 합니다.
-
통합 시스템: 프론트엔드 UI로는
assistant-ui
를 사용하고, 브라우저 자동화를 위해 Playwright를 통합합니다.
개발 과정 및 특징
-
웹 버전으로 전환: 처음에는 Mac 앱을 만들려고 했지만 기술적인 어려움으로 인해 로컬 웹 버전으로 방향을 전환했습니다.
-
다양한 AI 도구와 연동: Jupyter 서버를 VM에 배포하고 MCP(Model Context Protocol)를 통해 노출시켜 다양한 AI 도구와 연동할 수 있도록 했습니다.
-
다양한 작업 수행 가능: CSV 파일에서 차트 생성, 비디오 및 이미지 편집, GitHub에서 도구 설치, 웹 페이지 요약 등 다양한 작업을 로컬에서 수행할 수 있습니다.
결론
이 프로젝트는 단순한 실험을 넘어 컴퓨팅 및 에이전시를 사용자의 기기로 되돌리는 철학적 변화를 의미하며, 개인 정보 보호를 지키면서 일상적인 작업을 수행할 수 있는 로컬 도구의 중요성을 강조합니다.
이 프로젝트의 결과물인 coderunner-ui
는 GitHub에 공개되어 다른 사람들도 사용하고 기여할 수 있도록 했습니다.