구독자 3391명
알림수신 166명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
676
정보
새로 공개된 미스트랄 8x22B의 성능은 오픈 모델 중 가장 강력합니다.
[15]
1528
10
675
정보
미스트랄 신규 모델 출시
[7]
783
4
674
정보
geeks news에 따르면 다음주에 llama3 소형 모델 2개 출시 예정
[3]
573
7
673
정보
안녕하세요 tts 프로그램 공유해드립니다
[3]
635
8
672
정보
Gemma 1.1 Instruct 출시
536
8
671
정보
Qwen 1.5 32B 출시
[4]
605
4
670
정보
Cohere 가 발표한 오픈 웨이트 다국어 대응 모델 CommandR
[13]
822
7
669
정보
pc 브라우저에서 arxiv pdf 논문 읽을 때 팁
[4]
817
12
668
정보
moe 풍년이네요
[2]
1423
12
667
정보
137B 언어모델: DBRX
[2]
780
8
666
정보
허깅에 약 만 개의 일어 웹소설 및 영문번역 데이터셋 공개됨.
[6]
642
6
665
정보
영한/한영 번역기 도다리, epub번역 기능을 추가했습니다.
[7]
812
28
664
정보
Mistral 7B v0.2 가 나왔습니다
[10]
1605
16
663
정보
최적의 모델 병합을 자동적으로 탐색하는 알고리즘
[1]
967
17
662
정보
DenseFormer - 레이어 갯수가 트랜스포머 모델이 더 레이어가 많은 트랜스포머를 능가하게 만들기
[6]
1105
17
661
정보
BitNet 구현 코드(논문 기준)
[3]
685
6
660
정보
a6000 vs 4090 dual axolotl lora 파인튜닝 성능 비교
[3]
1170
11
659
정보
사용하기 편리한 영한-한영 번역기 소개드립니다.
[67]
2063
27
658
정보
Gpt4는 1800b 파라메터 moe 모델이었음
[15]
1501
11
657
정보
RWKV-5가 1.7T 갯수의 토큰을 사용하여 llama2의 성능을 능가함
[1]
614
8
사용하고 계신 브라우저가 시간대 설정을 지원하지 않으므로 GMT 시간대가 적용됩니다.