그냥 생각보다는 괜찮다는 정도지

실제 성능 체감은 일단 RP에서는 위자드2 moe, 라마3 70b, 또는 8b 변종들이 훨씬 나은거같음


예를 들면은 "~를 세세하게 묘사하십시오" 라고 명령을 적어두면은

하나씩 천천히 묘사하는게 아니라 명령 자체를 되풀이하면서 "~의 세세한 부분 하나하나가" 라고 대충 퉁치고 넘어가는 얼탱이 없는 부분들이 좀 보임 (온도 1.0까지 높혀도 이럼)


이번에 나온 deepseek 쓰느니 걍 위자드/라마/gpt/claude 쓰던거 쓰는게 나을듯?

그냥 10분 가량 잠깐 써본거라 아닐수도 있음