시스템1vs2란 허상: 기존 프롬프트 엔지니어링의 한계

시스템1vs2란 허상: 기존 프롬프트 엔지니어링의 한계 - 경험적(인지적) 프롬프트, AI와 인간의 협력적 학습과 공진화 1부- ✍ 해경(고경만) 1. 우리는 정말 학습하고 있는가? AI와 함께 일하면, 우리는 학습하고 있다고 착각하기 쉽습니다.그러나 정말로 학습하고 있을까요?예를 들어, 우리는 AI에 최적화된 질문을 던지는 법을 배우고 있나요?사실 그렇지 않습니다. 우리는 제대로 배우고 있지 않습니다. 다시 말해, AI와 함께 일한다는 사실만으로...

콘텐츠 목차

시스템1vs2란 허상: 기존 프롬프트 엔지니어링의 한계

- 경험적(인지적) 프롬프트, AI와 인간의 협력적 학습과 공진화 1부-

✍ 해경(고경만)


Screenshot 2025 02 12 at 22. 31. 11 1

1. 우리는 정말 학습하고 있는가?

AI와 함께 일하면, 우리는 학습하고 있다고 착각하기 쉽습니다.
그러나 정말로 학습하고 있을까요?
예를 들어, 우리는 AI에 최적화된 질문을 던지는 법을 배우고 있나요?
사실 그렇지 않습니다. 우리는 제대로 배우고 있지 않습니다.

  • 프롬프트 엔지니어링은 단지 질문을 조정하는 기술일 뿐입니다.
  • 우리는 AI가 원하는 질문을 흉내 내어 입력하고 있을 뿐입니다.
  • 이는 진정한 사고 확장이 아니라, 수동적인 학습에 가깝습니다.

다시 말해, AI와 함께 일한다는 사실만으로 새로운 통찰을 얻고 있다고 믿어선 안 됩니다.
질문을 조금 더 정교하게 다듬는 것과 진짜 학습 혹은 사고 확장은 전혀 다른 차원의 문제입니다.

AI가 제시하는 정형화된 패턴 안에서 우리는 “최적의 질문”을 찾아 반복할 뿐이며, 근본적인 사고를 넓히지 못하고 있습니다.


2. 기존 프롬프트 엔지니어링의 한계: ‘시스템 1 vs. 시스템 2’라는 이분법

지금까지 인지과학과 AI 설계 논의에서,
“시스템 1과 시스템 2”라는 이분법적 구도가 지배적이었습니다.
이는 Daniel Kahneman이 제안한 개념입니다.

  • 시스템 1: 빠르고 직관적이며 감각적으로 작동하는 사고
  • 시스템 2: 느리고 논리적이며 의식적으로 작동하는 사고

이 개념은 AI 연구에 상당히 반영되었고,
프롬프트 엔지니어링 또한 이 이분법적 사고에 기반해 발전해 왔습니다.

하지만 자연주의적 의사결정(NDM) 연구는 이러한 이분법이 인간의 실제 사고 방식과 어긋난다고 지적합니다.

  • 인간은 시스템 1과 시스템 2를 분리해서 쓰지 않고, 상호 작용하며 결합해 사고합니다.
  • 특정 상황에서 논리적 사고(시스템 2)만을 옳다고 여기고, 직관적 사고(시스템 1)를 오류라고 보는 시각은 편향입니다.
  • AI 또한 마찬가지입니다. AI를 단순히 “가장 논리적 답”만을 제공하도록 설계한다면, 인간의 실제 사고 과정과 맞지 않게 됩니다.

결국, 시스템 2 기반으로 프롬프트 엔지니어링을 설계한 것은 인간-AI 협력의 실제 작동 원리를 제대로 이해하지 못한 오류에서 비롯된 것입니다.

이제 AI를 인간의 사고에 더욱 가깝게 활용하려면,
이분법적 패턴 최적화를 넘어서 경험적(인지적) 프롬프트 방식을 모색해야 합니다.


3. 프롬프트 엔지니어링의 패턴 최적화 문제

프롬프트 엔지니어링은 흔히 “AI가 더 나은 답을 내놓도록 최적의 질문을 찾는 과정”으로 정의됩니다.
즉, AI가 학습한 데이터에 기반해 가장 적합한 답변을 생성하도록 지원하는 기술입니다.

그러나, 이것이 과연 AI와 협력하는 올바른 방식일까요?

기존 프롬프트 엔지니어링이 가진 주요 문제점:

  1. 결국 패턴 최적화에 그친다.
    AI는 과거 학습된 데이터를 재활용해 답변을 생성합니다.
    이는 근본적으로 새로운 사고를 유도하기보다, 기존 패턴의 다시쓰기에 가깝습니다.
    사용자는 AI 내부 구조를 배우기보다, “AI가 원하는 질문”을 반복해서 입력하는 법만 익히게 됩니다.
  2. 맥락 없는 답변이 생성된다.
    AI는 확률적으로 가장 가능성 높은 답만을 제공하기 때문에,
    실제 상황맥락을 깊이 고려하기 어렵습니다.
    인간과 협력하여 사고를 확장하기보다는, 그저 정형화된 답을 제공하는 기계에 머무릅니다.
  3. 사용자의 사고 확장을 방해한다.
    프롬프트 엔지니어링은 “질문을 어떻게 최적화하느냐”를 강조합니다.
    하지만 정작 중요한 것은, “무슨 문제를 해결해야 하는지”에 대한 사고 과정입니다.
    결국 사용자는 AI가 내놓은 답을 수용하기에만 익숙해져, 문제를 깊이 고민하는 과정에서 점점 멀어집니다.
  4. AI의 ‘할루시네이션’을 단순 오류로 본다.
    AI가 실제로 존재하지 않는 정보를 만들어내면, 이를 “할루시네이션”이라고 부릅니다.
    기존 프롬프트 엔지니어링은 이를 “오류”로 단정하고 가능한 한 근본적으로 제거하려고만 합니다.
    그러나 인간도 새로운 개념을 만들기 위해 때때로 착각하거나 엉뚱한 연결을 시도하고, 이것은 창의성의 본질이기도 하죠. 따라서 이러한 착오 자체를 무조건 배제하기보다는 새로운 사고를 탐색하는 기회로 삼아야 합니다.
    (할루시네이션을 긍정하는 것이 아니라, LLM 의 특성인 할루시네이션은 근본적으로 없앨 수 없고, 그래서도 안되니 관리를 잘하자는 이야기입니다)

결국, 전통적 프롬프트 엔지니어링은 패턴 최적화에만 집중해
인간과 AI가 함께 협력적으로 사고하는 과정을 방해할 수 있습니다.


4. 이제 프롬프트 엔지니어링을 버려야 한다

  • 더 이상 우리가 하는 일을 “프롬프트 엔지니어링”이라 부르지 말아야 합니다.
  • 실제로는 “경험적(인지적) 프롬프트”를 이미하고 있습니다. (시스템 1, 2 의 이분법적 관점은 실험실 안에만 존재하기 때문입니다)
  • 즉, 우리는 AI와 협력하여 학습하고 사고를 확장하는 과정을 이미 함께하고 있습니다.
  • 우리가 하는 행동을 언어로 어떻게 표현하냐에 따라, 그 목적성과 의도성이 달라지고, 이는 학습에 큰 효과를 가져옵니다. 따라서 우리의 행동을 '프롬프트 엔지니어링' 이 아닌 다른 표현으로 바꿀 필요가 있습니다.

과거의 프롬프트 엔지니어링이
AI에게 최적화된 질문을 찾는 기술이었다면,
경험적(인지적) 프롬프트는
AI와 상호작용하며 우리의 사고를 확장하는 과정입니다.

“우리는 AI와 함께 사고를 확장하는 존재입니다.
단순히 질문만 입력하는 사람이 아니라,
AI와 협력해 학습하고 성장하는 학습자입니다.”

인간과 AI가 함께하는 방식은
더 이상 입력-출력에 국한된 구조가 아니라,
경험과 학습을 기반으로 한 상호작용이 되어야 합니다.
즉, 질문을 최적화하는 것이 아니라, 문제를 해결하는 과정으로 나아가야 합니다.

따라서 우리가 사용하는 것은 더 이상 프롬프트 엔지니어링이 아닙니다.
우리는 자연스럽게 경험적(인지적) 프롬프트를 활용하게 됩니다.


경험적/인지적 관점을 통해
AI와 인간이 함께 학습하고 사고를 확장하는 길을 함께 만들어 가고 싶습니다.

- 해경 -

다음 글 예고: “프롬프트의 정체, 질문이 아니라, 협력적 대화”
(프롬프트를 협력적 대화로 재정의하자!)

"Garbage in, But Gold out": LLM과 협력하여, 창의성 증가시키기

할루시네이션 유발 LLM 미신: "SearchGPT나 Perplexity와 같은 서비스는 실시간 스크래핑(크롤링)을 한다"

원전을 따라 가르침을 받는 것의 함정

함께 읽으면 좋은 아티클
[email protected]
post

시스템1vs2란 허상: 기존 프롬프트 엔지니어링의 한계

시스템1vs2란 허상: 기존 프롬프트 엔지니어링의 한계 - 경험적(인지적) 프롬프트, AI와 인간의 협력적 학습과 공진화 1부- ✍ 해경(고경만) 1. 우리는 정말 학습하고 있는가? AI와 함께 일하면, 우리는 학습하고 있다고 착각하기 쉽습니다.그러나 정말로 학습하고 있을까요?예를 들어, 우리는 AI에 최적화된 질문을 던지는 법을 배우고 있나요?사실 그렇지 않습니다. 우리는 제대로 배우고 있지 않습니다. 다시 말해, AI와 함께 일한다는 사실만으로...

magnifiercrossmenu