구독자 3401명
알림수신 168명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
3952
학습
3달 간 LLM qlora 7b ~ 13b 사이 모델 fine tuning 한 결과
[12]
1736
20
3951
질문
챗gpt 같은 애들이 답변 출력 할 때
[9]
693
0
3950
일반
m1 ultra 128gb 이거 쓸모가 많을까요??
[20]
867
1
3949
일반
파인튜닝 공부 관련 질문 및 조언 부탁드립니다
[8]
535
1
3948
일반
Winograd
495
4
3947
일반
chain of thought전용 모델을 만들면 어떨까?
[8]
431
1
3946
질문
아렛글 수정이 안되 스샷 첨부해 다시 올려요
[4]
245
-2
3945
일반
컴파일이 가능한 Natural-C (상상의 나래)
[4]
356
0
3944
질문
우바부가 모델이 vram이 아닌 ram으로만 로딩이 되네요
[3]
359
0
3943
일반
챈섭 오픈 Mixtral-8x22B-v0.1 (종료)
[11]
686
11
3942
일반
M1 Max 를 쓰다 보니 드는 생각
[5]
675
4
3941
일반
Mixtral 8x22B v0.1 M1 Max 속도 벤치마크
[6]
794
8
3940
질문
webui ModuleNotFoundError 질문
[3]
198
0
3939
일반
용어집 1차 업데이트 완료
[9]
1412
14
3938
질문
Mistral-7B 파인 튜닝시 loss 발산의 이유는 ?
[7]
438
1
3937
질문
generate config
[6]
367
1
3936
일반
Silicon 유저는 오늘도 운다
[8]
631
1
3935
질문
파인튜닝 공부에 대해 질문드립니다
[4]
488
0
3934
일반
GPT4 지금 심각하게 성능이 바보되었네요
[11]
1179
9