구독자 3391명
알림수신 166명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
536
정보
RWKV-5 1.5B가 학습 완료되었습니다.
[1]
371
5
535
정보
Agentlm-70b 모델 Agent 기능 gpt 3.5와 비슷하다 주장.
[2]
355
2
534
정보
vllm은 버려라
[7]
967
0
533
정보
다양한 LLM 포맷의 perplexity, VRAM, 속도,, model size, 로딩시간 비교
[3]
709
3
532
정보
디코딩 중 트랜스포머가 사용하는 VRAM 사용량
[8]
669
8
531
정보
fuyu-8b 모델 멅티모달 이미지+텍스트 질문에 텍스트 답변 제공.
[2]
381
5
530
정보
아마존 미세조정한 MistralLite 모델 긴 문맥 및 검색 응답에서 더 나은 성능
[1]
474
4
529
정보
라마+SD=오픈소스 달리3?
[2]
708
3
528
정보
(해결됨)지금 최신버전 transformer로 라마 학습하실 분 주의
[5]
1149
17
527
정보
컨퍼런스 워크샵
[5]
516
0
526
정보
In-Context Pretraining: Language Modeling Beyond Document Boundaries
[6]
547
5
525
정보
프로메테우스 - GPT4 의 평가능력을 대체할 수 있는 오픈소스 LLM
[2]
1165
18
524
정보
RWKV-5 14% 학습 벤치마크
[6]
519
3
523
정보
AI가 잊게 만드는 방법
[1]
539
6
522
정보
AI로 좋은 퀄리티의 데이터셋을 감별하자
[7]
814
10
521
정보
Naver에서 귀중한 자료를 줬습니다.
[15]
1774
21
520
정보
강화학습에 LLM을 사용한 두 논문 소개
[3]
951
23
519
정보
[NIA] 2024년 초거대AI 데이터 후보과제 발굴 수요조사
337
4
518
정보
양자화 없이 대형 모델을 M1/M2,소비자용 GPU에서 파인튜닝
[2]
570
4
517
정보
하드웨어 선택에 아마도 도움이 될 글
[1]
501
2