LLM

The difference between quantization methods for the same bits

by OBG posted Apr 14, 2024
?

단축키

Prev이전 문서

Next다음 문서

ESC닫기

가 크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄

https://www.reddit.com/r/LocalLLaMA/comments/159nrh5/the_difference_between_quantization_methods_for/

Who's OBG

profile
Prev PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware 2024.04.15by OBG Mixture of Experts - Part 2 Next Mixture of Experts - Part 2 2024.04.14by OBG
위로 아래로 게시글 수정 내역 댓글로 가기 인쇄

Articles

  • The difference between quantization methods for the same bits OBG2024.04.14 11:56
  • Mixture of Experts - Part 2 OBG2024.04.14 02:10
  • ChatGPT의 강력한 경쟁 언어모델 등장!, Mixtral 8x7B OBG2024.04.14 01:21
  • Real-Time Stock News Sentiment Prediction with Python OBG2024.04.11 23:47
  • Getting Started with Sentiment Analysis using Python OBG2024.04.11 23:45
  • How LLMs Work ? Explained in 9 Steps — Transformer Architecture OBG2024.04.11 23:44
  • 만능 프롬프트 OBG2024.04.07 18:33
  • A Beginner's Guide to Prompt Engineering with GitHub Copilot OBG2024.04.04 15:24
  • [12월 1주] 떠오르는 '미스트랄 7B'...'라마 2' 이어 한국어 모델... OBG2024.03.05 13:57
  • [번역]거대언어모델(LLM) 가이드 OBG2023.07.20 14:13
  • LLM 출력 속도 24배 높여주는 라이브러리 등장했다 OBG2023.06.30 12:41
1 2