로그인

검색

OBG
조회 수 1971 추천 수 0 댓글 0
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄

1 https://zzaebok.github.io/machine_learning/nlp/llm-tokenizer/

2 https://zzaebok.github.io/machine_learning/nlp/llm-pretrain/

3 https://zzaebok.github.io/machine_learning/nlp/llm-finetune/ 

?

  1. Programming 게시판 관련

  2. 나노바나나 공식 출시! 구글 제미나이에서 직접 사용하는 방법

  3. 구글 개발자가 말하는 나노바나나의 진짜 실체

  4. llama.cpp gpt-oss-120b 5090으로 돌려본 후기

  5. Build a Small Language Model (SLM) From Scratch

  6. OpenAI의 새로운 오픈소스 모델은 사실상 Phi-5임

  7. ChatGPT가 7억 명을 서비스할 수 있는데, 나는 왜 GPT-4 하나도 로컬에서 못 돌릴까?

  8. OpenAI의 gpt‑oss‑120b, gpt‑oss‑20b: 개인 컴퓨터에서 ChatGPT 사용?

  9. AI가 만든 코드, 결국엔 모두 레거시가 된다?

  10. 알리바바, 딥시크·오픈AI 넘는 추론 모델 출시..."오픈 소스 최강 입증" (QwQ-32B)

  11. AI-hub 공공데이터를 활용하여 한국어-영어 번역 LLM 만들기

  12. 얼렁뚱땅 LLM을 만들어보자

  13. Comparing Replit and Cursor for AI-Powered Coding

  14. Anthropic, LLM의 내부를 이해하는데 있어 상당한 진전을 보임

  15. llama3 implemented from scratch

  16. [VESSL AI] 뉴욕주민의 프로젝트플루토 — LLM, LLMOps를 활용한 금융 미디어의 혁신

  17. PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware

  18. The difference between quantization methods for the same bits

  19. Mixture of Experts - Part 2

  20. ChatGPT의 강력한 경쟁 언어모델 등장!, Mixtral 8x7B

  21. Real-Time Stock News Sentiment Prediction with Python

Board Pagination Prev 1 2 Next
/ 2