- 
	
	
	Programming 게시판 관련 
- 
	
	
	Claude Skills는 굉장하다, MCP보다 더 큰 혁신일지도 
- 
	
	
	macOS에서 로컬 LLM 실험하기 
- 
	
	
	나노바나나 공식 출시! 구글 제미나이에서 직접 사용하는 방법 
- 
	
	
	구글 개발자가 말하는 나노바나나의 진짜 실체 
- 
	
	
	llama.cpp gpt-oss-120b 5090으로 돌려본 후기 
- 
	
	
	Build a Small Language Model (SLM) From Scratch 
- 
	
	
	OpenAI의 새로운 오픈소스 모델은 사실상 Phi-5임 
- 
	
	
	ChatGPT가 7억 명을 서비스할 수 있는데, 나는 왜 GPT-4 하나도 로컬에서 못 돌릴까? 
- 
	
	
	OpenAI의 gpt‑oss‑120b, gpt‑oss‑20b: 개인 컴퓨터에서 ChatGPT 사용? 
- 
	
	
	AI가 만든 코드, 결국엔 모두 레거시가 된다? 
- 
	
	
	알리바바, 딥시크·오픈AI 넘는 추론 모델 출시..."오픈 소스 최강 입증" (QwQ-32B) 
- 
	
	
	AI-hub 공공데이터를 활용하여 한국어-영어 번역 LLM 만들기 
- 
	
	
	얼렁뚱땅 LLM을 만들어보자 
- 
	
	
	Comparing Replit and Cursor for AI-Powered Coding 
- 
	
	
	Anthropic, LLM의 내부를 이해하는데 있어 상당한 진전을 보임 
- 
	
	
	llama3 implemented from scratch 
- 
	
	
	[VESSL AI] 뉴욕주민의 프로젝트플루토 — LLM, LLMOps를 활용한 금융 미디어의 혁신 
- 
	
	
	PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware 
- 
	
	
	The difference between quantization methods for the same bits 
- 
	
	
	Mixture of Experts - Part 2 
