서버가 여러대 일때(ex 4090*4가 꽂힌 서버 4대) 이를 하나로 묶어서 llama같은 LLM을 로드하고 train or inference할 수 있는 방법이 있을까요?


혹시 있다면 관련 library추천이 가능할까요??