구독자 3337명
알림수신 164명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
4153
일반
A100 40GB로 llama3 70B 구동은 되는지?
[3]
560
2
4152
일반
ms가 500b 모델을 학습중이라고 합니다
[2]
416
3
4151
질문
베이스라인 모델 선정 방법
300
0
4150
일반
판매자 정보 실수 - 4060ti 16gb dual 또는 3way 를 위한 핫딜 정보
[11]
626
5
4149
질문
vllm 활용 추론 관련해서 질문드립니다.
[10]
421
0
4148
질문
3090(24gb) 대신 4060ti 16gb 2개 사용하는건 추천 안 하시나요?
[6]
450
0
4147
일반
런팟 NFS 마운트 안되나요?
149
0
4146
정보
gpt2-chatbot돌아옴
[15]
1527
11
4145
질문
gpu 4개를 공냉으로 구성하면 IDC입고 필수일까요?
[10]
516
0
4144
일반
rag를 사용할때 로컬모델의 경우 모르는것을 모른다고 잘 하던가요?
[7]
530
2
4143
질문
exllamav2로 양자화 한 exl2 모델에 대해 질문 있습니다
[4]
311
0
4142
일반
Langchain, Rag 질문 있습니다
[1]
309
0
4141
질문
학습시 eos 토큰이 잘 안나오는 이유
[22]
532
1
4140
일반
커맨드 R 플러스 로컬에서?
[6]
493
1
4139
일반
llama3 70b aqlm 2bit
[5]
519
5
4138
질문
한국어 모델 추천
[12]
947
3
4137
질문
개인취미용 서버구축질문
[3]
494
0
4136
일반
14b =/= 220 x 8 MoE
[11]
882
0
4135
질문
(스압) AutoRAG QA 데이터 생성 중에 이런 오류 겪으신 분 계실까요?
[4]
450
0
4134
질문
4060 12GB x2 vs 3090 24GB vs 4090 24GB
[13]
737
1
사용하고 계신 브라우저가 시간대 설정을 지원하지 않으므로 GMT 시간대가 적용됩니다.