https://github.com/tloen/alpaca-lora


이젠 너무 당연하지만 윈도우에서 돌리려면

conda env 만들고 파이토치 설치하고 requirements 설치하고 bitsandbytes 원도우용 바이너리 넣어주고 bitsandbytes에 파이썬 코드만 수정하면 됨

https://arca.live/b/characterai/71515797

에서 해당 부분만 수행하면 됨


데이터셋은 이렇게 준비해준다.


알파카는 이렇게 이루어진 데이터셋 51,942개를 이용했다고 한다.


8비트 상태에서 vram사용량은 다음과 같다.


3090으로 거뜬히 학습이 가능하다.


8비트로 로드해서 브램의 사용량을 절반정도로 줄여서 이 정도라고 한다.

https://github.com/oobabooga/text-generation-webui/wiki/Using-LoRAs#training-a-lora


다들 익숙하듯이 양자화에 bitsandbytes를 쓰기 때문에 원도우에서는 DLL파일을 넣고 수정하는 절차가 필요하다.


기본적으로 설정된 학습의 파라미터는 다음과 같다.



3090로컬 환경에서 해당 파라미터로 학습을 돌리면 걸리는 시간은 다음과 같다.


학습만 16시간정도가 걸린다.


학습이 끝나면 나오는 결과물은

https://huggingface.co/tloen/alpaca-lora-7b


단 17메가 짜리 바이너리 파일..


알파카의 경우 ChatGPT처럼 전반적인 분야의 질문에 대해 답할 수 있게 학습했다는 점을 미루어 볼 때, 

특정 캐릭터 특정 설정에 대해서만 답해도 되는 롤플레잉 전용으로 학습시키는 경우 데이터셋이나 배치사이즈, 에포크를 좀 줄여도 괜찮지 않을 싶다.


런포드에서 돌리면 환경구성, 다운로드에 1시간 잡고 학습 16시간 걸린다 가정하면 4.93달러 대충 5달러로 학습이 가능할 것으로 보인다.


---


출처: https://arca.live/b/characterai/72115554?category=%EC%A0%95%EB%B3%B4&p=1