뉴스
구독자 3391명 알림수신 166명
제한없는 언어모델을 위한 채널
전체글 개념글
최근 최근 방문 채널
    최근 방문 채널
      번호 제목
      작성자 작성일 조회수 추천
      676 정보 새로 공개된 미스트랄 8x22B의 성능은 오픈 모델 중 가장 강력합니다. [15]
      1528 10
      675 정보 미스트랄 신규 모델 출시 [7]
      783 4
      674 정보 geeks news에 따르면 다음주에 llama3 소형 모델 2개 출시 예정 [3]
      573 7
      673 정보 안녕하세요 tts 프로그램 공유해드립니다 [3]
      635 8
      672 정보 Gemma 1.1 Instruct 출시
      536 8
      671 정보 Qwen 1.5 32B 출시 [4]
      605 4
      670 정보 Cohere 가 발표한 오픈 웨이트 다국어 대응 모델 CommandR [13]
      822 7
      669 정보 pc 브라우저에서 arxiv pdf 논문 읽을 때 팁 [4]
      817 12
      668 정보 moe 풍년이네요 [2]
      1423 12
      667 정보 137B 언어모델: DBRX [2]
      780 8
      666 정보 허깅에 약 만 개의 일어 웹소설 및 영문번역 데이터셋 공개됨. [6]
      642 6
      665 정보 영한/한영 번역기 도다리, epub번역 기능을 추가했습니다. [7]
      812 28
      664 정보 Mistral 7B v0.2 가 나왔습니다 [10]
      1605 16
      663 정보 최적의 모델 병합을 자동적으로 탐색하는 알고리즘 [1]
      967 17
      662 정보 DenseFormer - 레이어 갯수가 트랜스포머 모델이 더 레이어가 많은 트랜스포머를 능가하게 만들기 [6]
      1105 17
      661 정보 BitNet 구현 코드(논문 기준) [3]
      685 6
      660 정보 a6000 vs 4090 dual axolotl lora 파인튜닝 성능 비교 [3]
      1170 11
      659 정보 사용하기 편리한 영한-한영 번역기 소개드립니다. [67]
      2063 27
      658 정보 Gpt4는 1800b 파라메터 moe 모델이었음 [15]
      1501 11
      657 정보 RWKV-5가 1.7T 갯수의 토큰을 사용하여 llama2의 성능을 능가함 [1]
      614 8
      전체글 개념글
      Keyword search form input

      사용하고 계신 브라우저가 시간대 설정을 지원하지 않으므로 GMT 시간대가 적용됩니다.