구독자 3337명
알림수신 164명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
4033
일반
우바부가에서 meta-llama/Llama-2-7b-chat-hf 모델 다운로드 받는법
[4]
340
0
4032
질문
nomic embedding 사용해보신 분?
[3]
259
0
4031
질문
양자화 모델 이름뒤의 K, M, S 같은건 뭔가요?
[2]
634
0
4030
스터디
감쇠병합 - 모델의 레이어를 자기복제해서 추론능력을 향상시키는 방법 (feat. 3blue1brown)
[5]
996
19
4029
일반
llama3 70b에서 pruning된 llama3 42b
[3]
864
6
4028
일반
형님들 안녕하세요 llm 뉴비입니다
[4]
509
0
4027
일반
llama3 8b 아이폰에서 로컬로 돌리는거 신기하네요
[4]
879
4
4026
일반
허깅페이스 15T 데이터셋 공개ㄷㄷ
[20]
1388
12
4025
질문
내가 원하는 분야로 세분화한 MOE는 만들 수 없을까?
[12]
589
0
4024
일반
님들 70B 정도 되는 모델 로컬에서 돌릴려면 4090 몇개 정도 있으면 될까요?
[7]
909
0
4023
일반
llama-70B 이새끼 뭐임? ㄷㄷㄷ
[6]
1331
7
4022
일반
Oobabooga, 자신만의 벤치마크 발표
[4]
616
8
4021
일반
chat 모델에 completion(raw) 데이터를 어떻게 학습 할 수 있을까?
[16]
1295
28
4020
질문
eos토큰이랑 <s>토큰 없이 fine tuning하면
[1]
361
3
4019
일반
전문적인 건 하나도 모르는데 라마 3 돌려보고 싶음
[4]
711
0
4018
질문
axolotl로 커스텀 데이터셋 활용해서 finetuning 시도하는데 계속 에러가 발생합니다.
[3]
388
1
4017
일반
llama3 70b instruct하고 claude3 opus 같은질문에 대한 답변 비교
[1]
594
5
4016
일반
llama3 학습을 위해 llama2를 이용해서 데이타셋 정제를 한거 같네요
[5]
716
6
4015
일반
효율적인 무한 컨텍스트 변환기(비공식)
[4]
931
12