구독자 3391명
알림수신 166명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
496
정보
GPTQ보다 빠른 awq 양자화
[5]
1115
6
495
정보
TinyLlama 1.1B 프로젝트 진행 중...
[4]
826
5
494
정보
4090 기준 우바부가 exllama v2 70b 2.55비트 양자화 모델 추론속도
[9]
1066
8
493
정보
OmniQuant: 대규모 언어 모델을 위해 전방향으로 보정된 양자화
[3]
877
13
492
정보
exllama의 가속화 [exllama_v2]!
[5]
832
7
491
정보
1.5B가 7B 모델과 성능벤치가 비슷하다..?
[2]
635
6
490
정보
llama2.mojo가 llama2.c 보다 빠르다네
[14]
606
9
489
정보
메두사: 다중 디코딩 헤드를 사용한 LLM 생성 가속 기술
[5]
1031
11
488
정보
새로 나온 기초모델 Persimmon-8B
[5]
633
7
487
정보
NVIDIA TensorRT-LLM 대규모 언어 모델을 크게 향상
[5]
642
4
486
정보
Llama.cpp, draft model 지원
[5]
360
6
485
정보
샘플 문장 딱 한개만 학습시키는 방법
[7]
743
5
484
정보
Falcon180B 출시
[21]
1244
12
483
정보
AI를 둘러싼 메타 내부의 드라마: 컴퓨팅 파워 갈등과 라마3에 대한 루머
[4]
630
9
482
정보
텍스트 추출이 너무 귀찮아서 만든 프로그램입니다.
[6]
1185
12
481
정보
128k 컨텍스트 llama 2, YaRN 보간(NTK 인식 보간 후속) 및 Flash Attention 2를 사용한 미세 조정
[8]
503
8
480
정보
LMoE: airoboros의 MoE 구현
[4]
506
5
479
정보
LM-Infinite: 대규모 언어 모델을 위한 간단한 즉석 길이 일반화
[2]
983
11
478
정보
llama moe 프로젝트가 있네요
[2]
704
6
477
정보
Code Llama 기반 WizardCoder 34B 공개
[2]
714
6