구독자 3392명
알림수신 166명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
556
정보
RWKV-6 실험결과 5.2버전보다 1.26배 성능향상?
318
2
555
정보
Microsoft 가 Phi-2 모델 발표
[5]
867
10
554
정보
rwkv-5 7B 49% 학습 벤치 결과
[5]
424
5
553
정보
[뉴뉴비] wsl설치 + 우바부가(text-generation-webui) 설치 + 모델 다운로드 및 사용 방법
[11]
1698
12
552
정보
엔비디아 데이터센터용 신규모델
[4]
481
1
551
정보
GPT Store
388
1
550
정보
프롬포트 망각 현상을 없애는 기법
496
4
549
정보
rwkv5 3B 학습이 71% 완료 되었습니다.
[3]
409
6
548
정보
트위터(x)의 LLM "Grok" 스샷 공개 + 트위터 일부 유료 유저에게 공개
[3]
455
1
547
정보
3단 콤보모델 등장 - HelixNet
[1]
374
8
546
정보
일론머스크 : 오늘 x.ai 첫 LLM 출시한다
[3]
540
3
545
정보
mistral 7b 컨텍스트 128k 출시(gpt4의 16배 길이)
[4]
594
7
544
정보
챈 제작 데이타셋 공동 작업에 참고할만한 도구
257
8
543
정보
우바부가 원클릭 인스톨 안되는 사람들
[3]
300
4
542
정보
gpt3.5가 20B가 아닐수도 있다는 레딧 글
[10]
772
2
541
정보
속보) 엔당 새 드라이버에서 메모리 정책 변경
[7]
634
6
540
정보
KT 자체 모델 믿:음 7B 공개
[11]
1107
7
539
정보
RedPajama-Data-v2 출시 - 30조개의 토큰...?
[2]
423
8
538
정보
gpt-3.5-turbo의 파라미터는 고작 20B??
[31]
1195
14
537
정보
RWKV-5 7B 학습 왜 잘됨?
[1]
480
3