뭔가 gpt4 turbo랑 뱉는 형식이 다르긴 하고
gpt보다 자연스럽게 한국어를 하긴 함

markup language도 조금 더 잘 함
하지만 gpt2는 엄청나게 과적합된 모습이 보인다
ascii 아트를 그리라고 하면 ⅓ 확률로 유니콘을 내뱉고

애니메 스타일로 그리라 하면 별 날리는 고양이 (뭔지 아스키 아트 많이 본 사람은 알듯...)를 뽑는다

overfit 때문에 특정 task에서 더 나은 성능을 내는건 아닐까 싶다. 소설도 주제 따라 편차가 크다.

소설도 문체가 돈까스보다 자연스럽다 뿐이지 전개는 거기서 거기다.