구독자 3392명
알림수신 166명
제한없는 언어모델을 위한 채널
최근
최근 방문 채널
최근 방문 채널
번호
제목
작성일
조회수
추천
616
정보
gemini pro(bard)가 gpt-4 성능에 근접했다는 소식입니다
[3]
1179
13
615
정보
일→한 번역기 윈도우 앱 데모 만들었다
[23]
974
15
614
정보
데이타셋 클리닝을 위해 활용하는 편집자 모델 '카렌'
[2]
443
6
613
정보
Stability AI에서 Stable LM2 1.6B를 공개했습니다
[1]
686
4
612
정보
독자적인 방식의 토크나이저를 탈-Python화 시키기
[11]
1077
21
611
정보
orion-14B: 한국어를 포함한 다국어 언어 모델
[8]
973
7
610
정보
네이티브 환경에서 허깅페이스 Tokenizer 활용하기
[7]
734
10
609
정보
<중요>peft 업데이트 이후 fine-tuning에러 사항 공유 및 해결방법 공유
[5]
589
8
608
정보
구글 답변의 신뢰도 향상(할루시네이션 제거)를 위한 기술 개발중
499
8
607
정보
구글 딥마인드팀 수학 올림피아드 금메달 수준의 AlphaGeometry 발표
[5]
878
13
606
정보
언어모델이 이야기를 잘 쓰게 만드는 프롬프팅 방법
[4]
1631
15
605
정보
강화학습에 상당히 부정적인 글도 있네요.
[5]
887
2
604
정보
axolotl 레이어 얼리는 문제관련 버그 해결 방법 공유
[8]
727
14
603
정보
내 로컬 컴퓨터에 copilot 같은 코딩 조수를 깔아보자 (feat. ollama + continue.dev)
[9]
2099
14
602
정보
엔비디아 48Gb VRAM 14080 CUDA 탑재한 5880 발표
[9]
894
7
601
정보
i9-10940x(28스레드, 3.3GHz)로 여러 모델 돌려봄
[1]
512
5
600
정보
Microsoft PHI-2 모델의 라이센스가 MIT라이센스로 바뀌었다고 합니다
[6]
751
8
599
정보
기존 토큰과 확장된 토큰에 대해서 특정 레이어의 특정 토큰들만 얼리거나 학습률을 차등화하기
[8]
924
7
598
정보
[수정] 영어외의 외국어 모델에서 토큰확장은 추천하지 않는다
[14]
755
4
597
정보
GPT4 와 Mistral-7B 를 이용해서 쓸만한 텍스트 엠베딩 모델 만들기
[10]
2249
17
사용하고 계신 브라우저가 시간대 설정을 지원하지 않으므로 GMT 시간대가 적용됩니다.