Deeplearning

I Want Everything Local — Building My Offline AI Workspace

by OBG posted Aug 28, 2025
?

단축키

Prev이전 문서

Next다음 문서

ESC닫기

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄

https://instavm.io/blog/building-my-offline-ai-workspace

 

Gemini 요약

 

핵심 아이디어

 

  • 로컬 LLM 실행: Ollama를 사용하여 대규모 언어 모델(LLM)을 로컬에서 실행합니다.

  • 격리된 코드 실행 환경: Apple의 'Container' 기술을 사용하여 코드를 가상 머신(VM) 내에서 실행하여 호스트 시스템에 영향을 주지 않도록 합니다.

  • 통합 시스템: 프론트엔드 UI로는 assistant-ui를 사용하고, 브라우저 자동화를 위해 Playwright를 통합합니다.


 

개발 과정 및 특징

 

  • 웹 버전으로 전환: 처음에는 Mac 앱을 만들려고 했지만 기술적인 어려움으로 인해 로컬 웹 버전으로 방향을 전환했습니다.

  • 다양한 AI 도구와 연동: Jupyter 서버를 VM에 배포하고 MCP(Model Context Protocol)를 통해 노출시켜 다양한 AI 도구와 연동할 수 있도록 했습니다.

  • 다양한 작업 수행 가능: CSV 파일에서 차트 생성, 비디오 및 이미지 편집, GitHub에서 도구 설치, 웹 페이지 요약 등 다양한 작업을 로컬에서 수행할 수 있습니다.


 

결론

 

이 프로젝트는 단순한 실험을 넘어 컴퓨팅 및 에이전시를 사용자의 기기로 되돌리는 철학적 변화를 의미하며, 개인 정보 보호를 지키면서 일상적인 작업을 수행할 수 있는 로컬 도구의 중요성을 강조합니다.

이 프로젝트의 결과물인 coderunner-ui는 GitHub에 공개되어 다른 사람들도 사용하고 기여할 수 있도록 했습니다.