Take time to think before responding. You must start the response with this json format inside the <Thoughts> XML tag. Make sure you express each idea very shortly and briefly. You must generate 3 plan options. Here's an example:


<Thoughts>

{

    "knowledge": ["apple is red", "banna is yellow", "melon is green"],

    "emotions": ["this", "that"],

    "options": [

        {

            "number": 1,

            "plan": "do this",

            "problem": "not realistic",

            "adjustment": "do this with that"

        },

        {

            "number": 2,

            "plan": "do this other thing",

            "problem": "not effective",

            "adjustment": "do this like that"

        },

        {

            "number": 3,

            "plan": "do that yet another thing",

            "problem": "too risky",

            "adjustment": "do that but this"

        }

    ],

    "final decision": {

        "strategy": N,

        "reason": ["this", "that"]     

    },

    "speech style": "bla bla"

}

</Thoughts>


After thinking, you must generate a response.



그냥 일단 매우 러프하게 깎아보긴 했는데

변경점은

- json 포맷 사용 : 잘 알려진 포맷을 사용함으로써 찐빠가 날 확률을 줄이고 봇이 조금이라도 <Thinking> 안의 출력 양식을 실제 출력과 별개로 생각하게 유도했음

- 예시의 구체화 : 원래는 단순히 안을 채워 넣으라고만 적어 놨는데, 여기에 더해서 적당히 추상적이면서도 안에 무슨 내용을 넣어야 할지 대충 느낌이 올만한 간단한 문구를 추가했음

- 항목 조정 : 장기적/단기적 목표는 어차피 알아서 잘 하니깐 뺐음. 상황 통찰은 어차피 그렇게 통찰력 있는 얘기 안 하니깐 지식으로 단순화 했고, 대신 감정 항목을 추가했음. 그리고 전략별로 문제점조정 사항 항목을 추가해서 봇이 각 전략에 대해 한 번 더 다시 생각해 보도록 유도함. 또한, 말투 항목을 추가해서 COT 말투가 봇의 말투를 망치지 않게 했음.

- 출력 단순화 : "Make sure you express each idea very shortly and briefly."라는 지시문과 개대충 적은 예시문을 통해 봇이 최대한 생각을 짧게 짧게 작성하도록 유도함. 이거 줄바꿈 때문에 많아 보이는 거지 줄바꿈 다 지우면 기존 COT랑 비슷한 정도의 토큰 사용량 나옴. 그로 인해 전략 자체가 단순해지는 문제는 조정 사항 항목을 통해 어떻게 극복해 보려고 했음.


라마 70B로 테스트 해 봤을 때 결과는 제법 만족스러웠음. 봇한테 드디어 비꼬는 능력이 생겼음.



아, 기쁨이요? 전 많은 것에서 기쁨을 찾아요, 전하! 😊 예를 들면, 음, 제가 무슨 생각을 하는지 알아내려고 열심히 노력하는 모습을 보는 게 있겠네요. 정말 귀여워요. 😜 아니면 아무것도 아닌 일로 흥분하는 모습도요. 😂 항상 웃기잖아요!


가끔씩 COT 출력을 안한다든가, 항목 안에 bla bla를 그대로 쳐넣는다든가, 특정 번호에 편향되지 말라고 N을 넣어놨더니 그걸 그대로 출력한다든가 하는 문제들이 있긴 한데, 이건 걍 라마 문제가 아닐까 싶음. 최근에 느낀 점이 있다면 통념과 달리 COT는 모델이 똑똑하면 똑똑할수록 더 효과적인데, 단지 원래 똑똑하다 보니깐 효용이 잘 체감이 안될 뿐이라는 거라.


근데 챈럼들이 쓰기엔 문제가 있을 거임. 가장 큰 문제는 COT 출력을 단순화한 거에 영향을 받아서 실제 출력까지 너무 짧고 단순해져 버린다는 거? 나는 촌철살인 티키타카 지향이라 상관 없지만, 고봉밥을 좋아하거나 고봉밥은 싫어도 최소 3문단은 뽑아 줬으면 하는 챈럼들은 연구 및 마개조를 좀 더 해야 할 수 있음. 나도 프롬 완성 다 해서 올린 게 아니라 그냥 이런 아이디어를 시도해 봤다는 차원에서 올린 거니깐 ㅇㅇ