https://huggingface.co/ISTA-DASLab/Meta-Llama-3-70B-Instruct-AQLM-2Bit-1x16

https://huggingface.co/ISTA-DASLab/Meta-Llama-3-8B-Instruct-AQLM-2Bit-1x16

mmlu 80 -> 76이면 인상적인듯. 

21gb라니 단일 gpu시대가 오나?

참고로 저번에 양자화 시도해봤는데 AQLM은 GPTQ에 비해서 엄청 오래걸리는것 같드라