로그인

검색

OBG
조회 수 67 추천 수 0 댓글 0
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄

GeekNews 요약

https://news.hada.io/topic?id=14942

 

Claude Research 페이지

https://www.anthropic.com/research/mapping-mind-language-model

 

Paper

https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html

?

  1. Programming 게시판 관련

  2. Mixture of Experts - Part 2

  3. llama3 implemented from scratch

  4. A Beginner's Guide to Prompt Engineering with GitHub Copilot

  5. PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware

  6. ChatGPT의 강력한 경쟁 언어모델 등장!, Mixtral 8x7B

  7. Real-Time Stock News Sentiment Prediction with Python

  8. [12월 1주] 떠오르는 '미스트랄 7B'...'라마 2' 이어 한국어 모델 세대교체 주도

  9. Anthropic, LLM의 내부를 이해하는데 있어 상당한 진전을 보임

  10. The difference between quantization methods for the same bits

  11. How LLMs Work ? Explained in 9 Steps — Transformer Architecture

  12. [VESSL AI] 뉴욕주민의 프로젝트플루토 — LLM, LLMOps를 활용한 금융 미디어의 혁신

  13. 만능 프롬프트

  14. Getting Started with Sentiment Analysis using Python

  15. LLM 출력 속도 24배 높여주는 라이브러리 등장했다

  16. [번역]거대언어모델(LLM) 가이드

Board Pagination Prev 1 Next
/ 1