구독자 3403명
알림수신 168명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
4023
일반
히틀러 데이터셋(QA)
[5]
639
3
4022
일반
지금 허깅페이스 터졌나요?
[7]
598
0
4021
질문
command-r-plus:104b-q2_K 모델을 돌려보는중에..
[7]
479
2
4020
질문
Llama 3 70B 로컬에서 돌려보신분 계신가요?
[7]
956
1
4019
일반
우바부가에서 meta-llama/Llama-2-7b-chat-hf 모델 다운로드 받는법
[4]
359
0
4018
질문
nomic embedding 사용해보신 분?
[3]
269
0
4017
질문
양자화 모델 이름뒤의 K, M, S 같은건 뭔가요?
[2]
681
0
4016
스터디
감쇠병합 - 모델의 레이어를 자기복제해서 추론능력을 향상시키는 방법 (feat. 3blue1brown)
[5]
1083
19
4015
일반
llama3 70b에서 pruning된 llama3 42b
[3]
869
6
4014
일반
형님들 안녕하세요 llm 뉴비입니다
[4]
513
0
4013
일반
llama3 8b 아이폰에서 로컬로 돌리는거 신기하네요
[4]
912
4
4012
일반
허깅페이스 15T 데이터셋 공개ㄷㄷ
[20]
1436
12
4011
질문
내가 원하는 분야로 세분화한 MOE는 만들 수 없을까?
[12]
603
0
4010
일반
님들 70B 정도 되는 모델 로컬에서 돌릴려면 4090 몇개 정도 있으면 될까요?
[7]
948
0
4009
일반
llama-70B 이새끼 뭐임? ㄷㄷㄷ
[6]
1352
7
4008
일반
Oobabooga, 자신만의 벤치마크 발표
[4]
625
8
4007
일반
chat 모델에 completion(raw) 데이터를 어떻게 학습 할 수 있을까?
[16]
1378
28
4006
질문
eos토큰이랑 <s>토큰 없이 fine tuning하면
[1]
387
3
4005
질문
axolotl로 커스텀 데이터셋 활용해서 finetuning 시도하는데 계속 에러가 발생합니다.
[3]
430
1