GeekNews 요약
https://news.hada.io/topic?id=14942
Claude Research 페이지
https://www.anthropic.com/research/mapping-mind-language-model
Paper
https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html
GeekNews 요약
https://news.hada.io/topic?id=14942
Claude Research 페이지
https://www.anthropic.com/research/mapping-mind-language-model
Paper
https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html
Programming 게시판 관련
Comparing Replit and Cursor for AI-Powered Coding
Anthropic, LLM의 내부를 이해하는데 있어 상당한 진전을 보임
llama3 implemented from scratch
[VESSL AI] 뉴욕주민의 프로젝트플루토 — LLM, LLMOps를 활용한 금융 미디어의 혁신
PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware
The difference between quantization methods for the same bits
Mixture of Experts - Part 2
ChatGPT의 강력한 경쟁 언어모델 등장!, Mixtral 8x7B
Real-Time Stock News Sentiment Prediction with Python
Getting Started with Sentiment Analysis using Python
How LLMs Work ? Explained in 9 Steps — Transformer Architecture
만능 프롬프트
A Beginner's Guide to Prompt Engineering with GitHub Copilot
[12월 1주] 떠오르는 '미스트랄 7B'...'라마 2' 이어 한국어 모델 세대교체 주도
[번역]거대언어모델(LLM) 가이드
LLM 출력 속도 24배 높여주는 라이브러리 등장했다