뉴스
구독자 3391명 알림수신 166명
제한없는 언어모델을 위한 채널
전체글 개념글
최근 최근 방문 채널
    최근 방문 채널
      번호 제목
      작성자 작성일 조회수 추천
      536 정보 RWKV-5 1.5B가 학습 완료되었습니다. [1]
      371 5
      535 정보 Agentlm-70b 모델 Agent 기능 gpt 3.5와 비슷하다 주장. [2]
      355 2
      534 정보 vllm은 버려라 [7]
      967 0
      533 정보 다양한 LLM 포맷의 perplexity, VRAM, 속도,, model size, 로딩시간 비교 [3]
      709 3
      532 정보 디코딩 중 트랜스포머가 사용하는 VRAM 사용량 [8]
      669 8
      531 정보 fuyu-8b 모델 멅티모달 이미지+텍스트 질문에 텍스트 답변 제공. [2]
      381 5
      530 정보 아마존 미세조정한 MistralLite 모델 긴 문맥 및 검색 응답에서 더 나은 성능 [1]
      474 4
      529 정보 라마+SD=오픈소스 달리3? [2]
      708 3
      528 정보 (해결됨)지금 최신버전 transformer로 라마 학습하실 분 주의 [5]
      1149 17
      527 정보 컨퍼런스 워크샵 [5]
      516 0
      526 정보 In-Context Pretraining: Language Modeling Beyond Document Boundaries [6]
      547 5
      525 정보 프로메테우스 - GPT4 의 평가능력을 대체할 수 있는 오픈소스 LLM [2]
      1165 18
      524 정보 RWKV-5 14% 학습 벤치마크 [6]
      519 3
      523 정보 AI가 잊게 만드는 방법 [1]
      539 6
      522 정보 AI로 좋은 퀄리티의 데이터셋을 감별하자 [7]
      814 10
      521 정보 Naver에서 귀중한 자료를 줬습니다. [15]
      1774 21
      520 정보 강화학습에 LLM을 사용한 두 논문 소개 [3]
      951 23
      519 정보 [NIA] 2024년 초거대AI 데이터 후보과제 발굴 수요조사
      337 4
      518 정보 양자화 없이 대형 모델을 M1/M2,소비자용 GPU에서 파인튜닝 [2]
      570 4
      517 정보 하드웨어 선택에 아마도 도움이 될 글 [1]
      501 2
      전체글 개념글
      Keyword search form input