서버가 여러대 일때(ex 4090*4가 꽂힌 서버 4대) 이를 하나로 묶어서 llama같은 LLM을 로드하고 train or inference할 수 있는 방법이 있을까요?
혹시 있다면 관련 library추천이 가능할까요??
서버가 여러대 일때(ex 4090*4가 꽂힌 서버 4대) 이를 하나로 묶어서 llama같은 LLM을 로드하고 train or inference할 수 있는 방법이 있을까요?
혹시 있다면 관련 library추천이 가능할까요??
사용하고 계신 브라우저가 시간대 설정을 지원하지 않으므로 GMT 시간대가 적용됩니다.