개념글 모음

AI는 기본적으로 전략적 사고에 대한 개념이 없음

상황을 던져줘도 무슨 판단을 해야 자기 이득을 최대화할 수 있을지, 자기가 가진 이점을 어떻게 활용하면 좋을지 GPT나 오푸스조차도 전혀 판단하지 못함

생각 사슬이든 직접 개발한 목표와 전략이든 결국 소용 없음. 기본적으로 발상이 빈약해서 생각 과정을 단계화시킨다고 해서 문제가 해결되지 않음.

그래서 AI랑 말싸움을 하려 해도 전투 RP를 하려 해도 결국 싱겁게 끝나고 아무런 만족감이 느껴지지 않았음

이걸 해결하는 방법은 내가 생각하기에 단 하나인데, AI에게 전략의 개념을 가르치는 거임

하지만 그걸 프롬으로 해야 한다니, 너무 막막했음

가능한 모든 시나리오를 다 상정해서 일일이 조건문을 작성해 줘야 하나?

그렇게 하더라도 결국 내가 프롬에 넣은 전략에만 갇혀 버리면 의미가 없는데?

이런 문제들 때문에 접근조차 못하고 있었는데,

"자기 발견" 이게 거대한 실마리를 주네

자기 발견은 기본적으로 수학적 문제를 푸는데 특화된 프롬프팅 프레임워크인데, 여기서 아이디어를 잘 따오면 RP에서의 전략적 사고에도 충분히 쓸모있겠다는 생각이 듬

일단 전략의 개념을 어떻게 가르칠 거냐 하는 문제의 경우, 전략적 판단을 하기 위해 스스로에게 물어야 할 질문들, 또는 채용해야 할 사고 방식의 리스트를 '모듈'로서 기입하고 AI에게 상황에 적절한 모듈을 선택하도록 지시할 수 있음.

또한 Adapt와 Implement의 두 단계를 거침으로써 모듈을 언제나 곧이곧대로 쓰는 게 아니라 상황에 맞게 적절하게 개조하고 스스로 개량해서 사용하도록 지시할 수 있음.

LLM의 근본은 결국 텍스트에서 패턴을 찾아 다음에 올 텍스트를 예측하는 거임. LLM은 텍스트 처리에 특화된 모델이며, 유기적인 생각은 그 부산물에 불과함.

그렇다면, 그 점을 최대한 활용하면 어떻게든 되지 않을까

다시 심장이 뛴다