-
Programming 게시판 관련
-
OpenAI의 새로운 오픈소스 모델은 사실상 Phi-5임
-
ChatGPT가 7억 명을 서비스할 수 있는데, 나는 왜 GPT-4 하나도 로컬에서 못 돌릴까?
-
OpenAI의 gpt‑oss‑120b, gpt‑oss‑20b: 개인 컴퓨터에서 ChatGPT 사용?
-
AI가 만든 코드, 결국엔 모두 레거시가 된다?
-
알리바바, 딥시크·오픈AI 넘는 추론 모델 출시..."오픈 소스 최강 입증" (QwQ-32B)
-
AI-hub 공공데이터를 활용하여 한국어-영어 번역 LLM 만들기
-
얼렁뚱땅 LLM을 만들어보자
-
Comparing Replit and Cursor for AI-Powered Coding
-
Anthropic, LLM의 내부를 이해하는데 있어 상당한 진전을 보임
-
llama3 implemented from scratch
-
[VESSL AI] 뉴욕주민의 프로젝트플루토 — LLM, LLMOps를 활용한 금융 미디어의 혁신
-
PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware
-
The difference between quantization methods for the same bits
-
Mixture of Experts - Part 2
-
ChatGPT의 강력한 경쟁 언어모델 등장!, Mixtral 8x7B
-
Real-Time Stock News Sentiment Prediction with Python
-
Getting Started with Sentiment Analysis using Python
-
How LLMs Work ? Explained in 9 Steps — Transformer Architecture
-
만능 프롬프트
-
A Beginner's Guide to Prompt Engineering with GitHub Copilot