로그인

검색

Deeplearning
2023.03.09 14:40

LLaMA: INT8 edition

OBG
조회 수 14370 추천 수 0 댓글 0
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄

https://github.com/tloen/llama-int8

https://github.com/facebookresearch/llama/issues/79#issuecomment-1454687232

 

This is a fork of the LLaMA code that runs LLaMA-13B comfortably within 24 GiB of RAM

 

https://github.com/go-noah/llama

LLaMA 7B example

?

  1. Programming 게시판 관련

  2. PyTorch 딥러닝 챗봇

  3. Debugging Node.js Memory Leaks: How to Detect, Solve or Avoid Them in Applications

  4. LLM 출력 속도 24배 높여주는 라이브러리 등장했다

  5. [한빛미디어] 머신러닝·딥러닝 도서 선택 가이드

  6. Numpy의 axis 변경

  7. Design a Basic Search Engine (Google or Bing) | System Design Interview Prep

  8. SSH-Tunneling을 통한 MySQL 서버 연결

  9. Reinforcement Learning for Dynamic Pricing Suggestion

  10. 추천 시스템

  11. 잡담) AWS에 서버 띄워 놓으니 벼라별 리퀘스트가 다 날아 오네요

  12. PM2를 활용한 Node.js 무중단 서비스하기

  13. LLaMA: INT8 edition

  14. Caching In Node.js Applications

  15. 개발에 도움되는 사이트 (초보 개발자 꿀팁)

  16. FastAPI 톺아보기 - 부제: python 백엔드 봄은 온다

  17. 수신 기한이 지난 데이터를 MySQL에서 삭제할 때의 이야기

  18. How To Set Up Multi-Factor Authentication for SSH on Ubuntu 20.04

  19. Caching in Node.js to optimize app performance

  20. defer, async 스크립트

  21. 쿠버네티스 클러스터

Board Pagination Prev 1 2 3 4 5 6 7 8 9 10 ... 17 Next
/ 17