뉴스
구독자 3391명 알림수신 166명
제한없는 언어모델을 위한 채널
전체글 개념글
최근 최근 방문 채널
    최근 방문 채널
      번호 제목
      작성자 작성일 조회수 추천
      496 정보 GPTQ보다 빠른 awq 양자화 [5]
      1115 6
      495 정보 TinyLlama 1.1B 프로젝트 진행 중... [4]
      826 5
      494 정보 4090 기준 우바부가 exllama v2 70b 2.55비트 양자화 모델 추론속도 [9]
      1066 8
      493 정보 OmniQuant: 대규모 언어 모델을 위해 전방향으로 보정된 양자화 [3]
      877 13
      492 정보 exllama의 가속화 [exllama_v2]! [5]
      832 7
      491 정보 1.5B가 7B 모델과 성능벤치가 비슷하다..? [2]
      635 6
      490 정보 llama2.mojo가 llama2.c 보다 빠르다네 [14]
      606 9
      489 정보 메두사: 다중 디코딩 헤드를 사용한 LLM 생성 가속 기술 [5]
      1031 11
      488 정보 새로 나온 기초모델 Persimmon-8B [5]
      633 7
      487 정보 NVIDIA TensorRT-LLM 대규모 언어 모델을 크게 향상 [5]
      642 4
      486 정보 Llama.cpp, draft model 지원 [5]
      360 6
      485 정보 샘플 문장 딱 한개만 학습시키는 방법 [7]
      743 5
      484 정보 Falcon180B 출시 [21]
      1244 12
      483 정보 AI를 둘러싼 메타 내부의 드라마: 컴퓨팅 파워 갈등과 라마3에 대한 루머 [4]
      630 9
      482 정보 텍스트 추출이 너무 귀찮아서 만든 프로그램입니다. [6]
      1185 12
      481 정보 128k 컨텍스트 llama 2, YaRN 보간(NTK 인식 보간 후속) 및 Flash Attention 2를 사용한 미세 조정 [8]
      503 8
      480 정보 LMoE: airoboros의 MoE 구현 [4]
      506 5
      479 정보 LM-Infinite: 대규모 언어 모델을 위한 간단한 즉석 길이 일반화 [2]
      983 11
      478 정보 llama moe 프로젝트가 있네요 [2]
      704 6
      477 정보 Code Llama 기반 WizardCoder 34B 공개 [2]
      714 6
      전체글 개념글
      Keyword search form input