|
공지 | Tool/etc |
Programming 게시판 관련
2
|
MoA | 2014.11.01 | 21194 |
|
28 | LLM |
macOS에서 로컬 LLM 실험하기
|
OBG | 2025.09.15 | 1376 |
|
27 | LLM |
나노바나나 공식 출시! 구글 제미나이에서 직접 사용하는 방법
|
OBG | 2025.09.07 | 1262 |
|
26 | LLM |
구글 개발자가 말하는 나노바나나의 진짜 실체
|
OBG | 2025.09.07 | 1197 |
|
25 | LLM |
llama.cpp gpt-oss-120b 5090으로 돌려본 후기
|
OBG | 2025.09.07 | 1280 |
|
24 | LLM |
Build a Small Language Model (SLM) From Scratch
|
OBG | 2025.08.16 | 1683 |
|
23 | LLM |
OpenAI의 새로운 오픈소스 모델은 사실상 Phi-5임
|
OBG | 2025.08.12 | 1662 |
|
22 | LLM |
ChatGPT가 7억 명을 서비스할 수 있는데, 나는 왜 GPT-4 하나도 로컬에서 못 돌릴까?
|
OBG | 2025.08.12 | 1998 |
|
21 | LLM |
OpenAI의 gpt‑oss‑120b, gpt‑oss‑20b: 개인 컴퓨터에서 ChatGPT 사용?
|
OBG | 2025.08.12 | 1821 |
|
20 | LLM |
AI가 만든 코드, 결국엔 모두 레거시가 된다?
|
OBG | 2025.08.12 | 1856 |
|
19 | LLM |
알리바바, 딥시크·오픈AI 넘는 추론 모델 출시..."오픈 소스 최강 입증" (QwQ-32B)
|
OBG | 2025.03.10 | 2419 |
|
18 | LLM |
AI-hub 공공데이터를 활용하여 한국어-영어 번역 LLM 만들기
|
OBG | 2025.01.14 | 2743 |
|
17 | LLM |
얼렁뚱땅 LLM을 만들어보자
|
OBG | 2025.01.10 | 2801 |
|
16 | LLM |
Comparing Replit and Cursor for AI-Powered Coding
|
OBG | 2024.09.21 | 3835 |
|
15 | LLM |
Anthropic, LLM의 내부를 이해하는데 있어 상당한 진전을 보임
|
OBG | 2024.06.03 | 3209 |
|
14 | LLM |
llama3 implemented from scratch
|
OBG | 2024.05.24 | 2610 |
|
13 | LLM |
[VESSL AI] 뉴욕주민의 프로젝트플루토 — LLM, LLMOps를 활용한 금융 미디어의 혁신
|
OBG | 2024.04.21 | 3596 |
|
12 | LLM |
PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware
|
OBG | 2024.04.15 | 2812 |
|
11 | LLM |
The difference between quantization methods for the same bits
|
OBG | 2024.04.14 | 3719 |
|
10 | LLM |
Mixture of Experts - Part 2
|
OBG | 2024.04.14 | 2998 |
|
9 | LLM |
ChatGPT의 강력한 경쟁 언어모델 등장!, Mixtral 8x7B
|
OBG | 2024.04.14 | 3448 |