| 공지 | Tool/etc | Programming 게시판 관련
		2 | MoA | 2014.11.01 | 21742 | 
		
	
		| 29 | LLM | Claude Skills는 굉장하다, MCP보다 더 큰 혁신일지도 | OBG | 2025.10.29 | 132 | 
		| 28 | LLM | macOS에서 로컬 LLM 실험하기 | OBG | 2025.09.15 | 1428 | 
		| 27 | LLM | 나노바나나 공식 출시! 구글 제미나이에서 직접 사용하는 방법 | OBG | 2025.09.07 | 1316 | 
		| 26 | LLM | 구글 개발자가 말하는 나노바나나의 진짜 실체 | OBG | 2025.09.07 | 1244 | 
		| 25 | LLM | llama.cpp gpt-oss-120b 5090으로 돌려본 후기 | OBG | 2025.09.07 | 1344 | 
		| 24 | LLM | Build a Small Language Model (SLM) From Scratch | OBG | 2025.08.16 | 1759 | 
		| 23 | LLM | OpenAI의 새로운 오픈소스 모델은 사실상 Phi-5임 | OBG | 2025.08.12 | 1729 | 
		| 22 | LLM | ChatGPT가 7억 명을 서비스할 수 있는데, 나는 왜 GPT-4 하나도 로컬에서 못 돌릴까? | OBG | 2025.08.12 | 2052 | 
		| 21 | LLM | OpenAI의 gpt‑oss‑120b, gpt‑oss‑20b: 개인 컴퓨터에서 ChatGPT 사용? | OBG | 2025.08.12 | 1912 | 
		| 20 | LLM | AI가 만든 코드, 결국엔 모두 레거시가 된다? | OBG | 2025.08.12 | 1912 | 
		| 19 | LLM | 알리바바, 딥시크·오픈AI 넘는 추론 모델 출시..."오픈 소스 최강 입증" (QwQ-32B) | OBG | 2025.03.10 | 2581 | 
		| 18 | LLM | AI-hub 공공데이터를 활용하여 한국어-영어 번역 LLM 만들기 | OBG | 2025.01.14 | 2816 | 
		| 17 | LLM | 얼렁뚱땅 LLM을 만들어보자 | OBG | 2025.01.10 | 2906 | 
		| 16 | LLM | Comparing Replit and Cursor for AI-Powered Coding | OBG | 2024.09.21 | 3967 | 
		| 15 | LLM | Anthropic, LLM의 내부를 이해하는데 있어 상당한 진전을 보임 | OBG | 2024.06.03 | 3499 | 
		| 14 | LLM | llama3 implemented from scratch | OBG | 2024.05.24 | 2711 | 
		| 13 | LLM | [VESSL AI] 뉴욕주민의 프로젝트플루토 — LLM, LLMOps를 활용한 금융 미디어의 혁신 | OBG | 2024.04.21 | 3795 | 
		| 12 | LLM | PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware | OBG | 2024.04.15 | 2898 | 
		| 11 | LLM | The difference between quantization methods for the same bits | OBG | 2024.04.14 | 3776 | 
		| 10 | LLM | Mixture of Experts - Part 2 | OBG | 2024.04.14 | 3157 |