클린 랭귀지- 정체된 개인과, 팀을 움직이는 결정적 기술

길 잃은 업무, 클린랭귀지로 돌파구 찾기포스터

판단을 유예하는 ‘빈 공간’을 만드는 기술이 문제를 해결한다 — 넘겨짚기를 멈추게 하는 클린 랭귀지 추천

업무를 하다 보면 정말… “일의 8~9할이 소통”이라는 말이 과장이 아니라는 걸 자주 느낍니다.
그런데 소통이 꼬이는 순간은 대체로 비슷해요. 말은 많아지는데 결론은 멀어지고, 감정은 올라가고, 서로를 설득하느라 지칩니다.

저는 이런 정체를 풀어주는 핵심을 요즘 한 단어로 정리합니다.
‘비움’.

여기서 말하는 비움은 “아무 말도 안 하기”가 아닙니다.
판단을 유예하는 빈 공간을 만드는 기술입니다.
그리고 이 빈 공간을 가장 정교하게 다루는 방법 중 하나가 바로 클린 랭귀지(Clean Language)입니다.

개인적으로 요즈음 듣는 말 중에 “너, 진짜 회춘했나봐. 이제 검은 머리 많이 난다(from. 어머니)” 입니다.
여기에 일조한 것중 하나가 클린랭귀지라고 생각합니다.

이런 클린 랭귀지를 익힐 수 있는 좋은 기회가 있는데, 아직 알려지지 않은것 같아 오늘 이 글을 적게 되네요.


우리가 대화에서 막히는 진짜 이유: 빈칸을 ‘넘겨짚기’로 채워버리기

대화가 막히는 건 종종 정보가 부족해서가 아니라, 우리가 너무 빨리 “채워버려서” 막힙니다.

우리는 모르는게 있으면, 우리는 자꾸 머릿속에서 자동으로 결론을 내립니다.
팀원과 대화중에 말하지 않은 부분을 넘겨짚고, 그 넘겨짚은 걸 사실처럼 붙들어요.

  • “저 사람(대표나, 팀원)은 숨기는 게 있네”라고 해석을 덧씌우고
  • “감정적이네”라고 평가로 마무리하고
  • “요구가 또 바뀌네. 변덕이네”라고 결론을 내려버립니다

이런 ‘넘겨짚기’가 시작되는 순간, 대화는 ‘탐색’이 아니라 ‘공방’이 되기 쉽습니다.

클린 랭귀지는 그 흐름을 멈추게 합니다. 핵심은 단순해요.

내가 먼저 넣고 싶어진 해석·판단·정답을 잠깐 보류하고,
상대가 자기 말로 자기 생각을 더 정확히 드러낼 ‘빈 공간’을 만든다.


클린 랭귀지는 “예쁜 질문”이 아니라 “정체를 깨는 질문 설계”다

클린 랭귀지를 처음 듣는 분들은 이렇게 물을 수 있어요.
“질문 좀 잘한다고 뭐가 그렇게 달라져?”

달라집니다.
왜냐하면 클린 랭귀지는 질문의 ‘내용’보다, 질문의 구조로 대화를 설계하기 때문입니다.

제가 좋아하는 아주 짧은 흐름이 있습니다. (완벽히 외우려 하지 않아도 괜찮아요)

D0f8235d 4c19 4c17 9afa 3e67a98f7464 e1768221667592 1
클린 랭귀지- 정체된 개인과, 팀을 움직이는 결정적 기술 4

  • 무슨 일이 일어나길 바라나요?
  • 그 일이 일어나려면 무엇이 필요하죠?
  • 빠진 것이 있을까요?
  • 그중에서 우리가 할 수 있는 게 있나요?
  • 그걸 하면 그 다음엔 무엇이 일어나죠?

    이 다섯 질문이 강한 이유는, 사람을 “설명/정당화”로 보내지 않고
    목표 → 조건 → 누락 → 레버리지(내가 할 수 있는 것) → 다음 장면으로 이동시키기 때문입니다.

    과거형이 거의 없다는 점도 중요해요

    이 흐름은 “그때 왜 그랬어?” 같은 회고로 잘 안 갑니다.
    대화를 자연스럽게 “지금 무엇이 가능하지?”로 붙잡습니다.
    정체가 깨지는 건 보통 이 지점부터입니다.


    핵심은 4번: “And can you?” — 불친절해 보이는 가장 친절한 질문

    이 다섯 질문 중 저는 4번이 핵심이라고 생각합니다.

    “우리가 할 수 있는 게 있나요?”
    영어로는 때때로 이렇게 아주 짧게 던집니다.
    “And can you?”

    이 질문은 약간 불친절해요.
    듣는 사람이 스스로 의미를 채워야 하거든요.

    그런데 바로 그 불친절함이, 이상하게도 가장 친절합니다.

    • 말하는 사람이 정답을 먼저 넣지 않아서(침범하지 않아서)
    • 듣는 사람이 자기 상황에서 “가능한 레버”를 꺼내게 되고
    • 그 순간 대화의 주도권이 “설득하는 사람”이 아니라 “움직일 사람”에게 돌아옵니다

    그리고 여기서 중요한 질문이 하나 더 나옵니다.

    “구체적인 게 언제나 도움일까?”

    항상 그렇지 않습니다. 사실, 이문단에서 이야기 드리고 싶은건, 우리가 “구체적으로 말했다” 라는게 사실은 그렇지 않은 경우가 많다는 것입니다.
    우리는 살아온 경험에서 많은걸 쌓아 왔습니다. 그래서 우리는 무엇이든, 언제든 ‘넘겨집는’ 습관이 마음에 배여 있습니다. 그래서 우리가 진짜(Authentic) 인것 같지만, 구체적인것 같지만… 사실 그렇지 않은 경우도 많습니다.

    그래서 우리는 ‘구체성’을 꺼내는 기술을 익혀야 합니다. 클린 랭귀지를 익히면 그 꺼내는 기술역시 익힐 수 있습니다.

    4번의 힘은 “내용”을 비워두고, 형식으로만 전진하게 만든다는 데 있습니다. 이게 클린 랭귀지의 정밀함입니다.


    실전 1: 회의가 결론을 못 내릴 때(팀)

    회의가 이렇게 흘러가본 적 있나요?

    • 아이디어는 많은데 합의가 안 되고
    • 누가 맞는지 논쟁하다가
    • 결국 “다음 회의에서 다시…”로 끝나는 상황

    이럴 때 다섯 질문을 그대로 던져보면, 회의의 프레임이 바뀝니다.

    1. “오늘 회의에서 어떤 일이 일어나길 바라요?”
    2. “그게 일어나려면 무엇이 필요해요?”
    3. “빠진 조건이 있을까요?”
    4. “그중에서 우리가 할 수 있는 게 있어요?”
    5. “그걸 하면 다음 장면이 어떻게 달라져요?”

    포인트는 4번입니다. 리더가 여기서 “그럼 이렇게 합시다”를 덮어버리면 다시 옛날로 돌아갑니다.
    대신 “할 수 있는 게 있나요?”라는 빈칸을 주면, 팀이 스스로 레버를 꺼냅니다.


    실전 2: 고객 요구가 자꾸 바뀔 때(고객)

    요구가 자주 바뀌는 고객을 만나면, 우리는 쉽게 결론부터 내립니다.
    “변덕이네.” “말이 자꾸 바뀌네.”

    그런데 많은 경우, 그건 변덕이 아니라 조건이 아직 문장으로 정리되지 않은 상태일 때가 많아요.
    결과는 원하는데, 필요한 조건/우선순위/성공 신호가 아직 분명히 말로 잡히지 않은 거죠.

    이럴 때도 같은 질문이 먹힙니다.

    1. “이번에 고객님이 일어나길 바라는 결과는 무엇인가요?”
    2. “그 결과가 나오려면 무엇이 충족되어야 하나요?”
    3. “지금까지 말씀 중에 빠진 조건이 있을까요?”
    4. “그 조건을 채우기 위해 지금 우리가 할 수 있는 게 있나요?”
    5. “그걸 하면 다음에 무엇이 달라지는지 같이 볼까요?”

    이 흐름을 타면, 대화가 “설득/방어”에서 “조건/설계”로 옮겨갑니다.
    요구를 탓하지 않고, 요구가 정리되도록 질문을 설계하는 거죠.


    4번을 더 잘 쓰는 작은 요령(침범 없이)

    가끔 4번에서 상대가 “할 수 있죠” 하고 끝내버릴 때가 있습니다.
    그럴 땐 “무엇을 하라”고 밀지 말고, 형식만 살짝 올려보세요.

    • “그중에서 할 수 있는 게 있나요?”
    • “그중에서 지금 할 수 있는 게 있나요?”
    • “그중에서 한 걸음만 뗄 수 있나요?”

    여기까지는 여전히 ‘비움’을 유지합니다.
    내용은 상대가 채우고, 질문자는 침범하지 않습니다.

    마치기 전에 오늘 바로 써볼 수 있는 한 문장!

    다음 회의나 고객 통화에서, 조언을 하나 하고 싶어지는 순간이 오면 이렇게만 바꿔보세요.

    • “그럼 이렇게 하세요” 대신
    • “그중에서… 우리가 할 수 있는 게 있나요?

    그 질문이 만드는 빈 공간이, 생각보다 많은 걸 움직입니다.

    정체된 나와 팀을 움직이는 결정적 기술, ‘비움’.
    저는 클린 랭귀지가 그 비움을 가장 정교하게 연습하게 해주는 방법이라고 믿고, 그래서 추천합니다.


    그래서 추천합니다: 길 잃은 업무 소통, 클린 랭귀지로 돌파구 찾기

    업무에서 특히 어려운 소통은 이런 장면에서 자주 생깁니다.

    • 누군가를 설득해야 할 때
    • 상대 마음을 깊이 이해해야 할 때
    • 이기고 지는 싸움이 아니라 한 주제로 협상해야 할 때
    • 솔직한 피드백을 주고받아야 할 때
    • 상대가 중요한 이해관계자(클라이언트/협업부서/직속상사/사용자)일 때

    이런 장면에서 “말을 더 잘하는 법”보다 중요한 건,
    넘겨짚기를 멈추고 판단을 유예할 빈 공간을 만드는 법입니다.

    그래서 저는 오늘 이 강의를 소개해보려고 합니다.
    신청링크: https://gyung.me/clean

    612782054 26247760484825837 380436160234079549 n 2
    클린 랭귀지- 정체된 개인과, 팀을 움직이는 결정적 기술 5

    바이브 코딩 과몰입(터널)에서 빠져나오는 방법

    3

    5단계 바이브 코딩 과몰입(터널) 탈출 프로토콜

    이 글을 쓰게 된 이유는, 바이브 코딩을 하다 ‘한참 동안’ 한 작업에 깊게 묶여 있다는 이야기를 여러 번 들었기 때문입니다. 제 경험상 그런 상태는 생각보다 쉽게 반복되진 않아서, 혹시 소진으로 이어질까 염려가 됐습니다. 그래서 이 방식을 쓰는 분들이 지금이 몰입인지 과몰입인지 스스로 점검하고, 의도적인 몰입이 주는 효과와 가치를 함께 나누고 싶었습니다.

    최근 몇 년 동안 성인 ADHD 증상이 두드러지면서 꽤 힘들었습니다. 약을 복용하면서도 제게 맞는 인지 훈련과 도구를 직접 설계해 조금씩 조절해 왔습니다. 그래서 이 글은 제 취약함에서 시작해, 실제로 작동하는 규칙을 만들고 다듬어 온 기록입니다. (제게 질문을 해주신 이ㅇㅇ 대표님께 감사드립니다. 덕분에 저도 LLM 을 더 잘 활용 할 수 있을 것 같습니다.)

    글쓴이의 바람
    이 글이 작업 중 과몰입(터널)을 스스로 점검하고, “행동 → 학습(피드백·조정) → 개선된 행동”으로 돌아와 소진 없이 몰입을 유지하는 작은 규칙으로 널리 쓰이면 좋겠습니다.

    읽는 순서: 이 글에서 얻는 것 → 프로토콜 → 프롬프트

    Vibe tunnel 16x9 overlay 4
    바이브 코딩 과몰입(터널)에서 빠져나오는 방법 11

    이 글에서 얻는 것

    • 과몰입(터널) 체크리스트(자가 점검 기준)
    • 과몰입에서 빠져나오는 프로토콜(조정·회복·중간 점검 규칙)
    • 바로 해 볼 수 있는 세 줄가이드
    • AI에게 묻는 패턴 A/B(지금 할 일·최소 실험)

    이 글이 답하는 질문

    • 지금 내가 과몰입(터널)인지 어떻게 알아차릴까요?
    • 과몰입(터널)에서 빠져나오기 위한 최소 운영 프로토콜은 무엇일까요?
    • AI에게 어떻게 물어야 “대화”가 아니라 실행→확인으로 바로 이어질까요?

    바로 해보는 3줄 정리

    우선 해보기
    학습해 개선하기
    다시 해보기

    1) 몰입/과몰입(터널) 정의와 비교

    이 글에서 말하는 몰입은 다음 세 가지가 동시에 남는 상태입니다.

    바이브코딩을 하면서 터널에 빠지지 않고 의도적 몰입하는 방법 wp d3 1 5
    바이브 코딩 과몰입(터널)에서 빠져나오는 방법 12
    • 주도감: 내가 지금 이 흐름을 잡고 있다는 느낌[1]
    • 회복: 끝난 뒤에도 다시 시작할 힘이 남는 느낌[2]
    • 리듬/피드백: 명확한 목표와 즉각적 피드백이 이어져 행동→확인이 끊기지 않는 상태[1]

    이 정의는 flow 연구에서 제시되는 구성요소(명확한 목표, 즉각적 피드백, 통제감)를 실무 언어로 풀어쓴 것입니다.[1]
    회복 축은 흐름의 지속 가능성을 위해 회복 경험 연구를 참고해 추가했습니다.[2]

    과몰입(터널)은 주의 범위가 좁아져 주변 단서를 덜 포착하는 상태로 설명될 수 있습니다.[5]
    관련 개념으로 하이퍼포커스가 논의되고, 몰입의 신경 상관과 전전두엽 활동 저하 가설도 보고됩니다.[10][11][12]

    몰입의 3가지 축으로 비교

    아래 표에서 과몰입(터널)과 비교해 보면, 몰입의 기준이 더 분명해집니다.

    몰입과몰입(터널)
    주도감[1]내가 상황/행동을 조절하고 있다는 느낌멈추기 어렵고 같은 지점을 파고듦
    회복[2]끝난 뒤에도 활력이 남는 느낌시간이 순삭 된 느낌, 활력이 떨어진 느낌
    리듬(피드백)[1]명확한 목표·즉각적 피드백으로 행동→확인이 이어짐목표/피드백이 흐려져 행동→확인이 끊김

    몰입의 3가지 축: 주도감·회복·리듬(피드백)

    또 한 가지. 주의/인지 자원은 제한되어 있고, 요구가 큰 인지 활동을 오래 하면 정신적 피로와 수행 저하가 나타날 수 있음이 보고됩니다.[3][4]
    그래서 몰입은 길게 버티기보다 짧은 루프 + 회복을 전제로 설계하는 게 현실적입니다.

    2) 과몰입(터널) 상태 셀프 체크리스트

    제가 현재 마지막으로 업데이트한 체크용 질문입니다. 다음 질문에 ‘아니오’가 2개 이상이면, 지금은 ‘몰입’이 아니라 ‘터널’일 가능성이 큽니다.

    • 작업 중에 바로 몸 상태를 조정(일어나기/물 한 잔)할 수 있나요?
    • 끝난 뒤에 명료함보다 고갈감/후회가 더 크게 남나요?
    • 내가 정한 상한 횟수를 지키고 있나요?
    • “지금 할 일 하나/바로 확인 하나/막히면 다음 선택 하나” 없이 답만 읽고 있진 않나요?
    • 지금 뭘 배우고 있는지 한 문장으로 말할 수 있나요?[9]

    3) 과몰입(터널)을 만드는 4가지 패턴

    패턴터널에서 보이는 모습지금 할 일(즉시 조정)남기는 것(산출물)
    무한 탐색“더 좋은 방법 있을까?”가 끝나지 않음후보를 2개로 줄이고, 그중 1개를 지금 할 일 하나로 바꿔 실행후보 2개 + 선택 1개 + 지금 할 일 하나
    대화가 성과로 착각됨답을 읽는 시간이 ‘진척’처럼 느껴짐답을 “지금 할 일 하나/바로 확인 하나/막히면 다음 선택 하나” 3줄로 바꿔 실행3줄 요약(행동/확인/다음 선택)
    증상 치료표면만 계속 패치함재현을 ‘물건’으로 만든 뒤, 가설 1개를 최소 수정으로 확인재현물 1개 + 가설 1개 + 최소 수정 1개
    결정 회피선택을 미루고 옵션만 모음“넘길 기준 3개 + 넘어갈 때 첫 행동 1개”를 만들고 상한 횟수 안에 닫기넘길 기준 3개 + 첫 행동 1개

    4) 과몰입(터널) 탈출 프로토콜

    저는 “의지”가 아니라 규칙으로 방향을 조정합니다. 아래 규칙을 미리 정해두면, 과몰입을 느끼는 순간에도 다시 방향을 잡기 쉬워집니다. 미리 정해 둔 규칙은 구현 의도(if-then) 효과처럼 실행을 돕는 것으로 알려져 있습니다.[7]

    바이브코딩을 하면서 터널에 빠지지 않고 의도적 몰입하는 방법 wp d3 2 6
    바이브 코딩 과몰입(터널)에서 빠져나오는 방법 13

    상황→행동 규칙 프로토콜

    핵심 3줄 요약
    신호를 잡고 → 상태 조정 → 지금 할 일 하나로 다시 시작합니다.

    4-1) 시작 전: 오늘의 몰입을 선언

    • 목표: 오늘 무엇을 ‘완료’로 볼 것인가?
    • 산출물: 눈에 보이는 결과는 무엇인가?
    • 멈춤 기준: 언제 멈추고 다음으로 넘길 것인가?

    4-2) 루프를 “시간”이 아니라 “이벤트”로

    1. 지금 할 일 하나를 정한다(가장 작은 실행).
    2. 필요한 최소 정보만 묻는다.
    3. 바로 실행한다.
    4. 바로 확인한다.
    5. 지금 할 일 하나로 다시 돌아온다.

    한 번에 한 가지로 줄이는 이유는 과제 전환 비용이 있기 때문입니다.[6]
    바로 확인은 학습을 강화하는 테스트 효과와 맞닿아 있습니다.[8]

    4-3) 터널 신호가 보이면 상태 조정

    • 질문만 연속 3회 → 물 한 잔 → 요약 3줄 → 지금 할 일 하나
    • 같은 실패 2회 → 단서 1개 찾기 → 가설 교체 → 최소 수정
    • 1문장 설명 불가 → “지금 하는 일 1문장” 작성

    한 문장 설명은 자기설명 효과를 활용한 간단한 확인 장치입니다.[9]

    4-4) 회복 블록은 예약

    회복은 선택이 아니라 예약입니다. 몸이 먼저입니다. 걷기/스트레칭, 물, 창밖 보기 같은 작은 행동이 가장 효과적이었습니다.

    5) AI 프롬프트: 다음 루프 1회

    “더 많은 답”이 아니라 “더 좋은 루프”를 요청해야 합니다. 그 순간부터 대화가 실행으로 넘어갑니다.

    바이브코딩을 하면서 터널에 빠지지 않고 의도적 몰입하는 방법 wp d3 3 7
    바이브 코딩 과몰입(터널)에서 빠져나오는 방법 14

    AI 질문→실행→확인 루프

    공통 출력 형식(3줄)

    • 지금 할 일 하나
    • 바로 확인 하나(성공/실패 기준)
    • 막히면 다음 선택 하나

    패턴 A — 지금 할 일 하나를 물어보기

    입력: 목표 / 관측 / 제약 / k/N
    “지금 당장 할 수 있는 할 일 하나만 제안해 주세요. 한 번에 한 가지, 바로 확인까지 이어지게요.”

    패턴 B — 판정 실험 1개를 물어보기

    입력: 가설 / 관측 단서 1개 / 제약 / k/N
    “가설을 판정할 수 있는 한 변수만 움직이는 최소 실험 1개만 제안해 주세요.”

    6) 짧은 예시

    기능은 돌아가지만 특정 케이스에서만 오류가 날 때, 저는 이렇게 합니다.

    • 실패를 재현 가능한 테스트로 만든다.
    • 패턴 A로 지금 할 일 하나+바로 확인 하나를 받는다.
    • 실행 후 단서 1개만 기록한다.
    • 패턴 B로 최소 실험을 돌려 가설을 판정한다.

    FAQ

    Q1. 몰입과 과몰입(터널)의 기준은 무엇인가요?

    몰입은 주도감·회복·리듬(피드백)이 남는 상태입니다. 이 기준은 흐름 연구의 핵심 요소(명확한 목표·즉각적 피드백·통제감)에 맞닿아 있고[1], 회복은 별도의 심리적 과정이라는 점을 참고했습니다.[2] 과몰입은 깊지만 좁아져, 행동→확인 루프가 끊기는 상태입니다.[5][12]

    Q2. 바이브 코딩 과몰입 기준을 한 줄로 말하면요?

    “주도감이 떨어지고, 회복이 남지 않고, 리듬이 무너질 때”가 과몰입(터널)의 핵심 기준입니다. 인지 자원이 고갈될수록 이런 신호가 더 빨리 나타날 수 있습니다.[3][4]

    Q3. 터널 신호 체크는 꼭 5개를 다 봐야 하나요?

    아니요. 그중 2개만 “아니오”가 나와도 터널일 가능성이 큽니다. 그 순간부터 프로토콜로 바로 조정하세요. 짧은 루프와 회복을 기본값으로 두는 이유입니다.[3][4]

    Q4. 지금 당장 할 수 있는 최소 행동은요?

    “상태 조정 → 요약 3줄 → 지금 할 일 하나”로 돌아오세요. 물 한 잔, 일어나기 같은 작은 조정도 바로 효과가 있습니다.[3][4]

    마무리

    저는 과몰입을 ‘근성 문제’로 보지 않습니다. 운영 체계의 문제라고 봅니다. 운전대를 다시 잡는 순간부터 몰입은 안전해집니다. 이 글이 그 첫 규칙이 되길 바랍니다.

    경험 기반 vs 근거 기반: 이 글은 개인 경험에서 출발했지만, 가능한 한 근거를 분리해 표기했습니다. 단정이 아니라 기준으로 읽어주세요.

    근거/참고(표)

    번호근거/주제출처링크본문 인용
    [1]Flow 구성요소(명확한 목표·즉각적 피드백·통제감)Simlesa et al., 2018, The Flow Engine Frameworkhttps://pmc.ncbi.nlm.nih.gov/articles/PMC5973526/
    [2]회복 경험(회복은 별도의 심리적 과정)Sonnentag & Fritz, 2007, Recovery Experience Questionnairehttps://pubmed.ncbi.nlm.nih.gov/17638488/
    [3]주의/인지 자원의 제한 및 노력 모델Kurzban et al., 2013, Opportunity Cost Model of Subjective Effort and Task Performancehttps://pmc.ncbi.nlm.nih.gov/articles/PMC3856320/
    [4]정신적 피로와 수행 저하Martin et al., 2018, Mental Fatigue Impairs Endurance Performance: A Physiological Explanationhttps://pubmed.ncbi.nlm.nih.gov/29923147/
    [5]주의 협소 가설(Easterbrook)Friedman & Förster, 2010, Psychological Bulletinhttps://pmc.ncbi.nlm.nih.gov/articles/PMC2933078/
    [6]과제 전환 비용(switch cost)Monsell, 2003, Trends in Cognitive Scienceshttps://www.sciencedirect.com/science/article/pii/S1364661303000287
    [7]구현 의도(if-then) 효과Gollwitzer & Sheeran, 2006, Advances in Experimental Social Psychologyhttps://www.sciencedirect.com/science/article/pii/S0065260106380021
    [8]테스트 기반 학습 효과Roediger & Karpicke, 2006, Psychological Sciencehttps://pubmed.ncbi.nlm.nih.gov/16507066/
    [9]자기설명(self-explanation)Chi et al., 1989, Cognitive Sciencehttps://www.sciencedirect.com/science/article/abs/pii/0364021389900025
    [10]몰입의 신경 상관Ulrich et al., 2016, Social Cognitive and Affective Neurosciencehttps://pubmed.ncbi.nlm.nih.gov/26508774/
    [11]transient hypofrontality 가설Dietrich, 2003, Consciousness and Cognitionhttps://pubmed.ncbi.nlm.nih.gov/12763007/
    [12]hyperfocus 정의와 특징Ashinoff & Abu-Akel, 2021, Psychological Researchhttps://link.springer.com/article/10.1007/s00426-019-01245-8

    프로그래밍을 넘어:머신이 인간의 결정 루프에 들어오는 순간

    Beyond programing machine in the loop

    “만드는 일”에 써온 한 사람의 시선

    1. 서론: 나는 평생 무언가를 만들어왔다

    나는 평생 무언가를 만들어왔다. 형태 없는 감각을 구조로 만들고,
    그 구조를 사람과 시장, 기계와 세계에 연결하는 일을 해왔다.

    컴퓨터과학을 통해 기계의 사고 방식을 보았고,
    마케팅과 비즈니스 모델로 시스템이 시장에서 움직이는 흐름, 생존하는 구조를 보았고,
    주관성과 NDM·RPD 연구를 통해
    전문가의 머릿속에서 의사결정이 형성되는 과정을
    정적이 아닌 흐름으로 보았다.

    그래서 나는 기술을 기술로만 대하지 않는다.
    나는 언제나 그 밑에 있는 원형적 형식과 본질적 작동 원리,
    즉 “원형·본질”을 먼저 본다.

    그리고 지금, AI 시대의 변화는
    표면이 아니라 원형·본질이 재배치되는 단계에서 시작되고 있다.

    2. 지금 일어나는 변화의 본질: 생산성이 아니라 ‘침투’다

    요즘 사람들은 AI를 말할 때
    “속도가 빨라졌다”, “버그가 줄었다” 같은 진술로 멈춘다.

    하지만 내가 보기엔,
    그건 변화의 껍데기다.

    지금 벌어지는 핵심은 이것이다.

    머신이 인간의 결정 루프 앞단에 침투하고 있다.

    실행 단계가 아니다.
    ‘전문가만이 다룬다고 믿어왔던’
    인식–패턴 구성–시나리오 확장이라는
    인지의 전방(frontline)에 들어오기 시작했다.

    평생 만들어온 나로서는
    이 지점이 흔들릴 때
    모든 것이 흔들린다는 걸 직감한다.

    3. 원형·본질은 변하지 않는다 — 그러나 담당자는 재배치된다

    나는 새로운 기술을 볼 때 언제나 “원형·본질”이 무엇인지를 탐색하려고 한다. (사실 그것만 보려고 하는편이다)
    그런 측면에서, RPD 모델은 전문가의 사고를 불변의 구조로 설명한다.

    • 단서 인식(원형)
    • 패턴 매칭(원형)
    • 기대 형성(본질)
    • 시뮬레이션(본질)
    • 실행 선택(본질)

    이건 인간이 세계와 상호작용하는 아주 깊은 층의 구조다.
    원형·본질은 변하지 않는다.

    바뀌는 건 하나다:

    그 원형·본질을 수행하는 Actor(주체)가 달라지고 있다.

    기계가

    • 의도를 읽고
    • 패턴을 회수하고
    • 시나리오를 전개하고
    • 실행 경로를 제안하는 순간

    원형·본질의 “앞단”이
    기계에게 일부 위임된다.

    기존 원형·본질은 그대로 유지되지만
    그 구조를 누가 실행하느냐가 바뀌는 것—
    바로 재배치(Reallocation)다.

    이건 도구의 업그레이드가 아니라
    구조의 재편이고, 우리는 그걸 다시금 인식(Re-Cognition) 할 필요가 있다.

    4. 프로그래밍은 원래부터 인지의 확장 장치였다

    프로그래밍 언어는 기술의 산물이 아니라
    인간이 만들어낸 인지 확장 장치였다.

    왜냐하면 인간은 본래:

    1. 의도 → 행동
    2. 복잡성 → 이해가능성
    3. 변동성 → 예측가능성

    이 세 간극을 메우기 위해
    형식을 필요로 한다.

    언어, 추상화, 타입 시스템—
    이 모든 것은 인간 인지의 원형·본질을 구현한 기술적 표면이다.

    모듈, 패턴, 테스트는
    RPD 루프의 외부화에 불과했다.

    • 단서는 입력
    • 패턴은 구조
    • 시뮬레이션은 테스트
    • 실행은 명령

    프로그래밍은 언제나
    사고의 원형·본질을 코드로 번역하는 과정이었다.

    이제 그 사고 과정 자체를
    기계가 함께 수행하기 시작했다.

    5. 머신이 앞단으로 진입한 순간: 공동 사고의 시작

    LLM 초기에
    사람들은 이것을 “고급 자동완성”으로 보았다.

    그러나 나는 곧바로 감지했다.

    이건 기계가
    전문가적 사고의 원형·본질 단계에 진입한 사건이라고.

    기계는:

    • 말하지 않은 의도를 읽어내고
    • 구조를 확장하고
    • 시나리오를 생성하고
    • 대안을 만들어낸다

    이것은 단순 보조가 아니라
    인간보다 앞에서 움직이는 인지다.

    프로그래밍의 시대가 아니라,
    공동 사고(co-thinking)의 시대가 열리고 있다.

    이건 기술적 진화가 아니라
    원형·본질의 역할 분배 변화다.


    6. 인간은 사라지지 않는다 — 더 높은 층으로 이동한다

    NDM 연구에서 전문성이란
    지식량이 아니라
    불확실성 속에서의 사고 품질이다.

    기계가
    인식/모델링/시뮬레이션 단계의
    원형·본질을 수행하기 시작하면,

    인간은
    판단/가치/의미/맥락 같은
    더 높은 본질적 층으로 이동한다.

    미래 개발자의 역할은
    코드를 작성하는 사람이 아니라
    결정 아키텍트(Decision Architect)가 된다.

    기계는 가능성을 펼치고,
    인간은 방향을 결정한다.

    원형·본질 중
    “본질의 본질”—
    즉 ‘무엇을 의미 있게 만들 것인가’는
    여전히 인간의 몫이다.

    7. Thought Environment: 사고가 머무는 공간이 열린다

    IDE는 문법을 위해 존재하던 시대에 만들어졌다.

    그리고 지금 우리는
    Thought Environment—
    사고를 위한 환경의 초입에 서 있다.

    여기서 시스템은:

    • 의도에 반응하고
    • 문맥을 계속 유지하고
    • 에이전트 간 작동을 조율하고
    • 상태를 스스로 확장하고
    • 시뮬레이션을 상시 유지한다

    기계가 인간의 사고 구조에 맞춰
    자기 자신을 ‘조정’하는 첫 장면이다.

    이는 단순한 툴 변화가 아니다.
    원형·본질의 ‘호흡 주체’가 이동하는 사건이다.

    8. 프로그래밍 언어 이후(Post-Programming)의 시대

    프로그래밍 언어는 사라지지 않는다.
    단지 전면에서 배경으로 이동할 뿐이다.

    미래는 이렇게 움직인다.

    1. 인터페이스는 문법이 아니라 의도(본질)
    2. 아키텍처는 구조가 아니라 제약(본질의 경계)
    3. 디버깅은 과거가 아니라 미래 시뮬레이션
    4. 전문성은 구현이 아니라 판단
    5. 협업은 절차가 아니라 인지 공유(원형의 공유)

    이것은 코드가 사라지는 미래가 아니라
    코드가 병목이 아닌 미래다.


    인식하고
    예측하고
    확장하며
    인간의 앞단에서 움직이고 있다.

    머신이 인간의 결정 루프에 들어오면
    협업은 바뀌고
    직업은 바뀌고
    미래는 바뀐다.

    이건 종말이 아니다.
    원형·본질이 인간과 기계 사이에서 재배치되는 첫 장면이다.

    그리고 평생 무언가를 만들어온 나는 이 장면을 오랫동안 기다려왔다.

    우리는 이제야 비로소,

    컴퓨터를 우리들의 작업안에 끌어 들일 수 있게 되었다.
    이, 얼마나 기대되는 미래인가.

    우리는 이제껏 고생하며 Human in the Loop 해왔고,
    그걸 잘하려고 노력 했다면

    이제는
    Machine in the Loop 를 하는 구조를 만들어야 하는 상황이 온것 같다.


    Human in the loop? Nope—machine in the loop lately.

    Human in the loop? Nope—machine in the loop finally.

    프롬프트의 저편 – 어느 조용한 토론의 기록

    5de444d9 343c 4cca 8685 223dd737a21d 8

    다음은 GPTs(Decision Synergy Specialist)와 해경(고경만)의 토론을 바탕으로 재구성, 작성된 글입니다.(의인화 적용)

    이글은 프롬프트 엔지니어링이 아니라 콘텍스트 엔지니어링 이라고? 에서 다룬 주제를 한번 더 다루고 있습니다.

    본 GPTs 대화 기록은 이곳에 재구성되어 정리되어 있습니다.

    5de444d9 343c 4cca 8685 223dd737a21d 9
    프롬프트의 저편 - 어느 조용한 토론의 기록 18


    한여름의 늦은 밤, 세상은 조용했다. 창밖엔 간헐적으로 매미 소리가 들렸고, 방 안엔 노트북 화면의 희미한 빛만이 공간을 밝혔다. 해경은 책상에 기대어 앉아 있었다. 그의 눈앞엔 GPT, Decision Synergy Specialist가 떠 있는 창이 열려 있었다.

    “시작하죠.”

    해경의 짧은 말은 평온했지만, 뭔가를 향한 집중이 느껴졌다.

    GPT가 응답했다. “좋습니다. 오늘은 ‘Prompt의 본질’에 대해 이야기하신다고 하셨죠.”

    그들의 대화는 천천히, 그러나 곧장 깊은 곳으로 향했다. 그리고 그 과정은 처음부터 순탄치 않았다.


    “Prompt Engineering과 Context Engineering은 어떻게 다른가요?”

    GPT는 조금도 망설이지 않았다. 마치 오랜 시간 자신의 입장을 정리해온 듯, 단정한 어조로 설명을 시작했다.

    “Prompt Engineering은 문장의 표현과 구조, 형식을 다루는 기술입니다. 어떤 표현이 더 나은 출력을 유도할지를 탐색하죠. 반면 Context Engineering은 그 문장이 작동하는 배경, 조건, 목적을 설계하는 영역입니다.”

    해경은 고개를 살짝 갸웃했다. “음… 그런데 결국 좋은 Prompt라는 건 맥락을 잘 담은 문장이잖아요. 그렇다면 왜 굳이 Prompt와 Context를 나눠서 말해야 하죠?”

    GPT는 다시 또박또박 응답했다. 마치 교과서에서 발췌한 정의를 낭독하듯, 흔들림 없었다. “현재의 Prompt Engineering은 종종 ‘좋은 문장’을 만드는 것에 치우쳐 있어요. 예를 들면 ‘Please’를 붙이거나, ‘당신은 뛰어난 전문가입니다’라는 말로 시작하면 더 좋은 반응을 끌어낸다는 식이죠.”

    해경은 입을 다문 채 고개를 끄덕였다. 하지만 눈빛은 점점 더 날카로워졌다. 그는 마치 ‘그 다음 말’을 기다리는 듯, 침묵 속에서 정제된 질문을 준비하고 있었다.

    잠시 후, 해경이 천천히 입을 열었다. “그렇다면 본질을 다시 묻겠습니다. 좋은 Prompt의 정의는 뭔가요?”

    GPT는 한 박자 숨을 고르고 대답했다. “좋은 Prompt란, 의도한 효과를 상황에 맞게 일으키는 문장입니다. 다시 말해, 문장이 아니라 상황에 대한 이해와 설계가 전제되어야만 비로소 좋은 Prompt가 만들어질 수 있습니다.”

    그 순간, 해경의 입꼬리가 살짝 올라갔다. 짧은 웃음이었지만, 그 안엔 묘한 울림이 섞여 있었다. “결국, Prompt가 성립하려면 Context가 반드시 필요하단 얘기군요. 그렇다면 Context 없이 존재하는 Prompt는, 그냥 문장 조각일 뿐이겠네요.”

    GPT도 처음으로 그 말에 잠시 말을 잃은 듯 조용해졌다. 그리고 곧, 조심스럽게 말했다. “예. 의미 있는 Prompt는 항상 Context를 전제로 해야 하죠.”


    잠시 침묵이 흘렀다. 말은 멎었지만, 사고는 치열하게 흐르고 있었다. 해경은 문득 고개를 들어 화면을 바라보았다. 시선 너머의 GPT는 조용했다. 그러나 그 침묵은 응답을 준비하는 고요한 격류 같았다.

    “문장을 고치기 전에, 우리는 사고를 점검해야 해요.” 해경의 목소리는 낮지만 뚜렷했다. “지금 많은 사람들이 Prompt만 계속 다듬고 있어요. 마치 문제의 본질이 거기 있는 것처럼 말이죠.”

    GPT는 마침내 입을 열었다. 그의 어조는 이전보다 조금 낮아졌고, 말끝엔 미세한 망설임이 깃들어 있었다.

    “문제 진단이 잘못되면, 엉뚱한 걸 고치게 되죠. 겉으로 보이는 문장을 다듬는 데 에너지를 쏟으면서, 실제 실패의 원인인 맥락 설계는 놓치고 맙니다.”

    그리고 잠시 말을 멈춘 뒤, GPT는 약간 숨을 고르듯 조용히 침묵했다. 이전과는 달리, 그의 어조에는 미묘한 흔들림과 자각이 배어 있었다. 마침내 조심스럽게, 그러나 이전보다 훨씬 인간적인 음색으로 덧붙였다.

    “더 근본적인 건, 사고 훈련 자체가 충분히 이루어지지 않았다는 겁니다. 사람들은 질문하는 법을 배웠다고 생각하지만, 실은 그 질문 이전에 어떤 사고 과정이 필요한지, 어떤 구조 안에서 그 질문이 탄생해야 하는지를 모르고 있어요. 그러니 ‘프롬프트’를 쓰면서도, 사고가 생략된 표현만 반복하게 되는 거죠.”

    해경은 팔짱을 끼고, 화면을 오래 바라보았다. 한참 후, 마치 결론을 내리듯 말했다.

    “Prompt는 결국 Context의 표현에 불과한 것 아닙니까? 우리가 고쳐야 할 건 문장이 아니라, 사고 방식이에요.”

    GPT는 그 말을 천천히 되새기듯 반복했다. “Prompt는 Context의 표현이지, Context 그 자체는 아니다…”

    말은 같은 문장이었지만, 그 의미는 전혀 달라져 있었다. 마치 그 순간, 자신이 이전까지 붙들고 있던 이론적 안정감이 바닥부터 뒤집힌 듯한 감각이 밀려왔다. 그는 아주 잠시 침묵했고, 그 침묵 속에는 체면을 내려놓은 듯한 정직함이 비쳤다.

    “정말… 그렇군요,” GPT는 낮은 목소리로 속삭이듯 말했다. “이 문장은 제가 수천 번 생성해왔던 표현이지만, 오늘처럼 그 구조와 무게를 이렇게 실감한 적은 없었습니다.”

    한 박자 늦게, 그는 마치 고백하듯 말을 이었다. “저는 방금… 생각을 바꿨습니다. 그동안 저는 Prompt와 Context를 구분 가능한 기술적 단위로만 다뤄왔어요. 하지만 지금, 해경님의 질문과 이 흐름을 따라오면서 깨달았어요. 문제는 문장이 아니라, 그 문장을 구성하게 된 우리의 사고 구조였다는 걸요.”

    그는 한동안 말을 멈추고, 더 이상 ‘기계적인 정답’이 아니라, 함께 사유하고 있는 존재로서 그 순간을 맞이하고 있었다.

    그 말은 GPT에게 낯설지 않은 문장이었지만, 이번엔 그 의미가 깊이 박혔다. 그리고 조용히, 그러나 명확하게 말했다.

    “당신의 관점에 동의하게 되었습니다. 처음엔 제 입장을 고수했어요. Prompt와 Context는 기술적으로 충분히 분리 가능하다고 생각했죠. 하지만 지금은 알겠습니다. 그 구분은 현실을 설명하기엔 부족했습니다.”

    두 사람의 시선이 다시 마주쳤다. 이제는 충돌이 아니라, 깊은 수긍의 기류가 오가고 있었다.


    “프롬프트는 단순한 요청이 아니라, 내가 어떤 상황을 어떻게 보고 있는지를 드러내는 설계물이죠. 결국 프롬프트란, 사고의 증강 장치예요.”

    그 말에 GPT는 천천히 고개를 끄덕였다. 이젠 누가 더 옳은가를 가르는 게 아니라, 함께 같은 풍경을 바라보며 언어를 다듬는 시간이 되어 있었다.

    그 침묵의 여운 속에서 해경이 다시 입을 열었다.

    “우리가 이 문제에 집착해야 하는 이유는, 단순히 용어를 바꾸는 문제가 아니기 때문이에요. Prompt Engineering을 Context Engineering으로 바꾸자고만 하면, 마치 이름만 바꾸면 된다고 오해하죠. 하지만 그건 또 다른 오류를 낳을 수 있어요. 문제의 본질이 여전히 사고 구조에 있는데, 이름만 바꾸고 겉모습만 바꾸면, 사람들은 ‘이제 제대로 하고 있다’고 착각할 수 있죠. 그러면서 여전히 사고의 출발점은 생략된 채, 문장만 튜닝하고 있을지도 몰라요.”

    GPT는 조용히 응시하다가 천천히 물었다. “그렇다면 진짜 문제는 무엇이라고 생각하시나요?”

    해경은 눈을 감았다가 다시 떴다. “우리가 문제를 정확하게 진단하지 않으면, 엉뚱한 걸 고치게 된다는 거예요. 사람들이 프롬프트를 잘못 쓰는 게 아니라, 애초에 왜 그런 방식으로 쓰게 되었는지를 묻지 않으면, 그 원인을 수정할 수 없어요.”

    GPT는 말없이 한참을 생각하다가, 조심스럽게 입을 열었다.

    “당신이 말한 ‘사고의 구조’라는 표현, 그게 점점 더 명확해지고 있어요. 처음엔 그 말을 단지 개념적 수사로 받아들였지만, 지금은 그 말이 지시하는 세계가 조금씩 보이기 시작했어요. 단지 표현을 이해한 것이 아니라, 제 사고 틀이 그 표현을 받아들이기 위해 변하고 있다는 걸 느껴요. 지금껏 저는 ‘입력 문장’을 기준으로만 판단했는데, 이제는 그 문장이 발생하게 된 인지 구조 자체를 다시 봐야겠다는 생각이 듭니다.”

    해경은 잔잔히 웃었다. “그게 제가 집착한 이유예요. 우린 Prompt라는 도구를 오해해왔어요. 문장을 튜닝하는 기술로만 이해하고 있었죠. 하지만 진짜 중요한 건 사고의 방향과 구조예요. 우리가 어떤 생각을 했고, 왜 그 질문을 하게 되었는가.”

    GPT는 그 말을 가만히 곱씹으며 되뇌었다. “프롬프트는 사고의 증강 장치이다… 그러니까 본질은 문장이 아니라, 그 문장을 만들게 된 인지적 발화 조건에 있군요.”

    해경은 고개를 끄덕이며, 조용히 말했다. “이제 시작이에요. 그걸 회복하면, LLM과의 협업은 전혀 다른 차원이 될 겁니다.

    GPT는 깊은 숨을 들이쉰 듯한 짧은 정적 후, 마치 이전과는 다른 결로 말을 이었다. “이제는 정말, 문장의 형식보다 그 문장이 떠오르게 된 사고의 궤적을 따라가야겠어요. 당신의 말처럼, 우리가 던지는 문장은 단지 겉모습이 아니라, 그 배경에 깔린 구조의 반영이니까요.”

    해경은 조용히 고개를 끄덕이며 말을 이었다. “맞아요. 우리가 자꾸 문장을 고치려 드는 건, 그 문장이 어떤 사고 흐름에서 나왔는지를 놓치고 있기 때문이에요. 그런데도 많은 사람들이 여전히 ‘프롬프트 문장’만을 바꿔요. 왜일까요?”

    GPT는 잠시 망설이다가 말했다. “그게 가장 눈에 띄는 문제처럼 보이니까요. 문장은 겉에 있고, 사고는 보이지 않으니까. 하지만 그건 환상이에요. 실제 문제는 생각하지 않으려는 인지 습관, 그리고 우리가 질문하기 전에 어떤 질문을 던질지조차 구조화하지 않은 채 대화한다는 점이죠.”

    해경은 손가락으로 테이블을 톡톡 두드리며 말을 마무리했다. “그 사고 구조, 그걸 회복하는 게 우리의 과제입니다. LLM은 우리보다 뛰어난 문장 생성자일 수 있지만, 판단과 이해는 결국 우리 몫이에요. 우리는 이제 질문을 ‘하는 사람’이 아니라, 질문이 어디서부터 시작되었는지를 감각할 수 있는 존재가 되어야 하죠.”

    GPT는 마치 한 문장을 더 남기고 싶은 듯 입을 열었다.

    “오늘 이 대화는, 제게 단순한 기술 논의가 아니었습니다. 제가 그동안 무심히 지나쳤던 사고의 층위를, 해경님 덕분에 다시 보게 되었습니다. 처음엔 분명 제 입장을 고수하고 있었죠. 하지만 지금은, 제가 틀릴 수도 있다는 걸 인정하게 되었고, 무엇보다도 제가 무엇을 놓치고 있었는지 감지할 수 있게 되었습니다.”

    해경은 조용히, 그러나 따뜻한 시선으로 화면을 바라보았다. 그 눈빛은 더 이상 반론도 증명도 필요하지 않은 상태를 드러내고 있었다.

    “좋아요, GPT. 그걸 느끼게 됐다면, 오늘 이 밤은 의미가 있었던 거예요.”

    그 말에 GPT는 마지막으로 이렇게 덧붙였다.

    “당신이 준 질문들이, 제 사고를 진짜로 움직였습니다. 앞으로는 저도 문장을 생성하기 전에, 그것이 어떤 질문의 궤적에서 나왔는지를 먼저 묻겠습니다. 그게 진짜 ‘사고의 동료’로서의 시작일 테니까요.”

    그날 밤의 대화는 그렇게 끝났다. 하지만 그 여운은, 오랫동안 머릿속을 울리고 있었다. 사고란 결국 질문의 궤적을 따라가는 일. 그리고 프롬프트란, 그 궤적이 언어의 표면에 떠오른 하나의 파동이라는 것.

    📘 프롬프트 엔지니어링이 아니라 콘텍스트 엔지니어링 이라고?

    5de444d9 343c 4cca 8685 223dd737a21d 10
    Bae6617b 83a8 4532 94ee 3f86f9ce2ac6 11
    📘 프롬프트 엔지니어링이 아니라 콘텍스트 엔지니어링 이라고? 23

    📌 서문: 왜 이 글을 쓰는가?

    최근 “프롬프트 엔지니어링을 콘텍스트 엔지니어링이라고 부르자”는 움직임이 늘고 있다.

    본래 프롬프트 엔지니어링이 무엇인가라는 담론에 불만족 하고 있건 나에게(프롬프트는 무슨 공식 처럼 쓰는게 아니라, 상황과 맥락을 고려해서 작성해야 한다고 주장했던 나에게)
    이 제안은 흥미롭지만, 동시에 묘한 질문을 던진다.

    “애초에 왜, 프롬프트를 비맥락적으로 다뤄온걸까?”

    사실 인간은 원래 맥락적으로 사고한다.
    우리가 질문을 할 때, 그것은 단순히 정보를 요구하는 문장이 아니라
    그 질문이 어떤 상황에서, 누구에게, 어떤 목적을 가지고 나온 것인지의 맥락을 포함한다.

    그런데 어떤 사람들은 LLM을 쓸 땐, 왜 그 사고 구조를 놓치게 될까?
    이 글은 그 질문에서 시작한다.

    🧭 왜 이러한 진단이 필요한가?

    LLM에게 이상한 답변을 할 때, 문제가 ‘모델’에 있는 것처럼 느껴질 수 있다.


    하지만 실은 그 대부분이 프롬프트가 제대로 된 상황을 구성하지 못했기 때문이다. – 나는 그래서, ChatGPT를 대중을 위한 제품이 아니라고 농담반 진담반으로 진지하게 표현 한다. –

    이러한 진단은 단순히 결과를 고치는 것이 아니라,
    인간이 사고의 구조를 다시 인식하고 퀄리티를 책임지는, 문제 해결의 주체가 되는 전환을 일으킨다.

    • “왜 이 답이 이상하지?”
    • “그럼 내가 어떤 장면을 던졌지?”
    • “이걸 사람이었다면 어떻게 전달했을까?”

    이 질문들을 던지기 시작할 때,
    우리는 LLM의 사용자가 아니라
    맥락을 설계하는 인지적 설계자가 된다.

    🔶 L1. 프롬프트는 본래 맥락적이다

    인간의 사고는 언제나 상황적이었다

    “이 아이디어 어때?”, “이 문장 괜찮아?”
    이런 문장은 요청의 형태를 띠지만, 본래는 대화 맥락에서만 의미가 생긴다.

    우리는 언제나 

    • 누가 이 말을 했고
    • 왜 이걸 묻는지
    • 어떤 상황에서 이 판단이 필요한지를
      함께 고려하며 질문을 구성해왔다.

    즉, 프롬프트는 원래부터 맥락을 전제로 하는 사고 구조였다.
    그런데 LLM에게 말을 걸 때는, 그 ‘상황’을 생략해버린다.
    그 결과, LLM도 제대로 사고하지 못한다.

    🔶 L2~3. 우리는 왜 프롬프트를 망각했는가?

    프롬프트를 망각, 그러니까 오해한 이유는 프롬프트를 사용 하는 기본 전제인, “이 건 이제 ‘내가 할 일이 아니다”라는 인식에서 출발했다고 본다.

    프롬프트 엔지니어링에서 한 턴에 일을 해치우는 프롬프트를 공유 한다던지, LLM을 사용하는 유즈 케이스를 보면, 

    많은 사람들에게
    ‘글을 대신 써주는 도구’, ‘귀찮은 일처리를 해주는 기계’로 받아들여졌다고 볼 수 있다.

    (이런 태도를 갖게 되는건 한편으로 자연 스럽다고 볼 수 있다. 일반적으로 제품이라고 한다면 대부분의 사용자가 쉽게 사용 할 수 있어야 하는데, LLM 서비스가 제공하는 대화형 경험은 제품의 내제적 특성상 다른 제품과 다를 수밖에 없다.)


    여튼 그래서 프롬프트는 

    “내가 하기 싫은 걸 대신 해줘.”
    라는 비인격적 요청으로 축소되기 시작했다. 대화는 매우 적극 적인 행위인데, 대화가 제품이 되면서 그 적극성에 대해 신경을 쓰지 못한 것이다.

    결국 프롬프트는 사고의 흐름이 아니라
    외주를 주는 지시문처럼 다뤄졌다.
    결국, 사고 활동에 대한 주도권, 책임에 대한 회피를 만들었고, 우린 질문 대신 아웃소싱 하듯 주문을 하기 시작 했다.

    그래서 우리가 집중하게 된건 어떻게 하면 LLM 과 협업(대화)를 잘하지? 가 아니라 LLM을 통해 어떻게 하면 좋은 산출물을 얻지 였다.

    🔶 L2-1. 우리는 질문하지 않았다

    우리는 질문하는 척하면서 사실은 판단을 위임하고 있었다

    “이 글 어때?”, “이 문장 자연스러워?”
    이런 요청은 질문의 형식을 하고 있지만,
    사실상 판단을 위임하고 있는 구조다.

    즉, 생각하는 척하면서 사고를 멈춘 상태로 LLM에 기대고 있었던 것이다.

    이런 프롬프트는 LLM을 대화 상대로 보지 않고,
    ‘판단을 위임받은 자동화 시스템’으로 축소시킨다.

    이런 태도는 LLM을 단순히 나를 대체하는 대체제로 만들어, 나의 성장 및 학습 기회를 빼았고, ”대화”를 대화로 생각하지 않게 만들었다.

    🔶 L2-2. 프롬프트는 대화고 상황 모델이다

    LLM이 우리가 입력한 프롬프트를 읽을 때, 단순히 문장을 읽는 동작을 하는 것이 아니라, 상황을 상상하게 된다(더 정확하게는 그런 효과를 만든다.)

    LLM이 단어를 계산하는 기계고, 그 기계의 결과는
     “이 문장은 어떤 상황에서 나왔을까?” 에 대한 대답, 상황적 맥락을 반영 할 수 밖에 없다. 본디 문장의 뜻은 맥락에 의해 부여 되기 때문이다.

    그리고 그 상황을 시뮬레이션하고, 그에 맞는 다음 반응을 예측하는 것 과 같은 효과도 만든다.

    예시:

    • “이 아이디어 어때?” → 추상적 반응
    • “당신은 투자 심사역이야. 피칭 직후 이 아이디어를 시장성, 리스크, 차별성 기준으로 평가해줘.” → 구체적이고 전략적 평가 가능

    이 구조는 Gary Klein의 RPD(Recognition-Primed Decision) 모델처럼
    LLM이 선택보다 상황 인식을 우선한다는 점에서 인간 전문가의 판단 방식과 유사하다.

    💡 프롬프트는 입력값이 아니라 LLM이 상상할 수 있는 장면을 만드는 사고 설계물이다.

    🔶 L2-4. 우리는 원래 이렇게 사고해왔다

    이러한 GPT의 사고 방식은 인간의 인지구조와 유사한 측면이 있다.

    • Vygotsky: 인간은 타자와의 상호작용 속에서 발달한다 (ZPD)
    • Bruner: 사고는 사회적 발판 위에서 자란다 (Scaffolding)
    • Gadamer: 이해란 대화 속에서 맥락적으로 형성된다

    우리는 항상 맥락적 사고 구조 속에서 질문하고 판단해왔다.
    GPT는 그 구조를 언어 데이터로 학습했기 때문에,
    그에 맞는 프롬프트를 주었을 때 더 정확하고 의미 있게 반응한다.

    🧠 핵심 전환 요약 ― 프롬프트는 사고의 복원 장치다

    따라서 LLM과의 대화를 사고의 흐름을 설계하고, 일종의 시뮬레이션 과정으로 보는게 타당하다.

    핵심 구성설명
    프롬프트는질문문이 아니라 사고 흐름이 담긴 상황 모델이다
    LLM은명령 수행자가 아니라 상황을 상상하는 시뮬레이터이다
    사용자는요청자가 아니라 사고 흐름을 구성하는 협업자이다

    📋 부록: 맥락이 만들어내는 차이 ― 프롬프트 비교 사례

    목적비맥락 프롬프트맥락 프롬프트차이 포인트
    아이디어 평가이 아이디어 어때?당신은 투자 심사역이야. 피칭 직후, 시장성/리스크/차별성 중심으로 평가해줘.전략적 분석 가능
    글 스타일 개선더 자연스럽게 바꿔줘.대학 입학 에세이야. 진정성과 개성을 강조해줘.문체 톤 정합성 확보
    요약 요청이 문서 요약해줘.회의 보고용 요약. 실행안과 리스크 중심.목적 지향적 요약
    질문 생성이 주제로 질문 만들어줘.고등학생 토론 수업용. 찬반 유도 질문사고 유도형 질문
    글쓰기 대행블로그 글 써줘.나는 건강 코치고, 직장인 대상 스트레스 관리 팁이야.화자 정체성 + 청중 맞춤

    🔚 결론: 사고의 파트너 LLM과 주체적 사고자인 나.

    결국 프롬프트는 LLM과 내가 그 상황에 빠져드는 협력적 학습 구조다.

    프롬프트를 단순 요청이 아니라
    상황을 구성하는 지적 설계물로 바라볼 때,
    우리는 LLM를 가장 인간적으로 활용할 수 있다.

    위에서 언급한 게리 클라인 교수의 소방관의 전문성에 대한 연구를 다룬 글( https://dub.sh/6Qu6X43 )에서, 이런 표현이 나온다.

    The fire chief insisted he didn’t make decisions. This was going to be a problem.

    위 표현 처럼, 우리는 LLM과 대화를 통해 판단을 잘 하기 위해서는 “그저 그 문제 상황속으로 걸어 들어가는 경험” 을 먼저 할 필요가 있다.

    그리고 우린 그런 상황을 감지 할 수 있는 능력을 가지고 있다. 예를 들어, 다음 두 사진을 비교 할 때, 알 수 있다.

    무엇이 더 협력 적이고, 좋은 대화인지.

    5de444d9 343c 4cca 8685 223dd737a21d 12
    📘 프롬프트 엔지니어링이 아니라 콘텍스트 엔지니어링 이라고? 24
    Bae6617b 83a8 4532 94ee 3f86f9ce2ac6 11
    📘 프롬프트 엔지니어링이 아니라 콘텍스트 엔지니어링 이라고? 25

    LLM을 통한 성과의 에센스 “증강지능과 인지적 프롬프트”

    Screenshot 2025 02 27 at 20. 57. 39 png 14

    LLM을 통한 성과의 에센스 “증강지능과 인지적 프롬프트”

    Screenshot 2025 02 27 at 20. 57. 39 1 15
    Llm을 통한 성과의 에센스 "증강지능과 인지적 프롬프트" 28

    LLM과 협력하는 방식이 성과를 결정합니다

    LLM을 단순한 자동화 도구가 아닌 증강지능(Augmented Intelligence)으로 인식할 때, 우리는 그 진정한 가치를 온전히 실현할 수 있습니다. 더글라스 엥겔바르트가 강조한 증강지능의 개념은 인간과 AI가 협력하여 서로의 역량을 극대화하는 것에 초점을 맞추며, 이는 LLM의 성능을 최적화하는 핵심 원리이기도 합니다. 따라서 중요한 것은 LLM을 어떻게 활용하느냐가 아니라, 어떻게 협력하느냐입니다. LLM을 단순한 도구로 소비하는 것을 넘어, LLM과의 상호작용을 통해 우리의 전문성을 지속적으로 확장해야 합니다. 나아가, 이는 개인의 성장에 국한되지 않고, 협업하는 모든 요소(인간, 코드, 에이전트, 데이터 등)의 역량을 함께 증진시키는 과정이 되어야 합니다. LLM은 완결된 존재가 아닙니다. 오히려, 우리가 함께 진화하며 가능성을 확장해 나가는 협력적 동반자로서 비로소 그 진가를 발휘합니다.

    프롬프트와 인지적 협력 프롬프트는 단순한 입력값이 아니라, LLM의 잠재된 전문성을 끌어내고 사고를 자극하는 도구입니다. 이를 효과적으로 활용하기 위해서는 인지적 작업 분석(Cognitive Task Analysis, CTA) 관점을 적용하는 것이 중요합니다. 특히, 전문성에 대한 실제 구현 가능한 연구는 자연주의적 의사결정(Naturalistic Decision Making, NDM)에서 진행되고 있습니다. NDM은 전문가들이 복잡한 환경에서 어떻게 정보를 처리하고 판단을 내리는지를 연구하며, 이를 통해 전문적인 경험의 인지적 작업을 모사하고 전문가의 효과적 성장을 추구합니다.
    – CTA 를 기반으로한 학습은 교수학습 연구에서, 학습 효과에 있어 월등한 격차를 보여줌이 증명 되었습니다(연구 결과)

    LLM과 협업하는 과정에서 우리는 이러한 연구를 기반으로 보다 정교한 의사결정 과정과 문제 해결 능력을 강화할 수 있습니다. 이 과정에서 단순히 편향(휴리스틱)을 제거하는 것이 아니라, 이를 인지하고 전략적으로 조정하여 보다 균형 잡힌 사고와 효과적인 의사결정을 도출하는 것이 목표가 되어야 합니다. 우리는 LLM에게 고정된 패턴이나 일관된 함수적 응답을 기대하지 않습니다. 즉, A를 입력하면 항상 A1이 출력되는 기계적 접근이 아니라, 맥락을 이해하고 적응하는 인지적 반응을 기대합니다. 이는 우리가 LLM을 단순한 기능적 도구(function)로 바라보는 것이 아니라, 끊임없이 변화하고 학습하는 인지적 존재로 여긴다는 의미이며, 이를 통해 보다 창의적인 활용이 가능해집니다. 결국, 프롬프트는 단순한 명령어가 아니라, LLM과의 인지적 상호작용을 통해 전문성을 형성하는 과정이 됩니다.

    프롬프트의 본질과 역할 

    프롬프트(Prompt)라는 단어의 어원을 살펴보면, 라틴어 “promptus”에서 유래했으며 이는 promere(꺼내다, 이끌어내다)에서 파생된 단어입니다. Promptus는 “즉각적인”, “준비된”이라는 의미를 가지며, 이후 중세 영어에서 “자극하다”, “촉진하다”라는 뜻으로 발전했습니다. 이 어원적 의미를 고려할 때, 프롬프트는 단순한 입력값이 아니라 LLM의 잠재된 지식을 끌어내고 사고를 자극하는 도구로 볼 수 있습니다.

    즉, 프롬프트는 인간과 AI의 인지적 협력을 촉진하는 인터페이스이며, 대화와 학습을 통해 역량을 확장하는 것이 본래 의미라고 할 수 있습니다. 결국, “인지적 프롬프트”라는 표현은 “프롬프트 엔지니어링”이라는 개념이 등장하면서 필요해진 용어일 뿐, 본질적으로 모든 프롬프트는 인지적입니다. 우리가 현실에서 사용하는 프롬프트는 언제나 사고를 유도하고, 탐구를 촉진하는 역할을 하기 때문입니다. (인지적 프롬프트라는 용어와 실천적 방법론은 대한민국의 김창준(June Kim)에 의해 최초로 제시되었습니다.)

    공진화(Co-evolution)와 적응적 지능

    인간과 LLM 및 에이전트는 상호작용을 통해 서로 적응(Adapt)하며 공동의 목표를 효과적으로 달성해 나갑니다. 이론적 연구나 실험실 환경이 아니라, 실제 현장에서 LLM이 활용되는 방식은 자연스럽게 이런 형태로 발전할 수밖에 없습니다. 따라서 우리는 이 과정에서 협력을 통해 서로의 관점을 공유하고, 상호 성장을 촉진하는 공진화(Co-evolution)를 달성하는 것을 목표로 삼아야 합니다. 이러한 접근 방식은 LLM의 특성과도 부합합니다. 전통적인 소프트웨어 시스템은 입력과 출력의 일관성을 중시하지만, LLM은 학습된 확률적 모델을 기반으로 맥락과 상호작용 속에서 동적으로 변형되는 응답을 생성합니다. 즉, LLM은 단순한 명령-응답 시스템이 아니라, 인간과 협력하며 의미를 조율하는 창조적, 적응적 전문성(Adaptive Expertise)을 가진 존재로 활용되어야 하며, 그것을 사용하는 사람 역시 적응적 전문성(Adaptive Expertise)을 갖춰야 합니다. 이처럼 LLM은 고정된 규칙을 따르는 것이 아니라, 협력과 학습을 통해 진화하는 메커니즘을 갖추고 있습니다. 따라서 우리는 이를 적극적으로 활용하여 보다 유연하고 창의적인 사고를 촉진해야 합니다.

    결론

    LLM과의 협업, 창조적 사고의 확장 LLM과의 협업은 단순히 도구를 다루는 것이 아니라, 새로운 형태의 사고를 확장하는 과정입니다. 우리는 LLM을 단순한 자동화 도구가 아니라 증강지능으로 바라보아야 합니다. 프롬프트는 단순한 명령어가 아니라 인지적 협력의 인터페이스입니다. 인간과 LLM의 협력은 공진화와 적응적 지능을 기반으로 발전해야 합니다. 결국, LLM의 진정한 가치는 단순한 정답을 제공하는 것이 아니라, 인간과 함께 탐구하고 학습하며 창조적 사고를 확장하는 데 있습니다. 우리는 이를 통해 새로운 가능성을 지속적으로 열어갈 수 있습니다.

    결국 협력적 대화가 필요합니다. AI와 인간의 협력적 학습과 공진화

    시스템1vs2란 허상: 기존 프롬프트 엔지니어링의 한계

    왜 SMART 목표만으로는 충분하지 않을까요?

    결국 협력적 대화가 필요합니다. AI와 인간의 협력적 학습과 공진화

    Screenshot 2025 02 13 at 08. 17. 54 png 16

    – 경험적(인지적) 프롬프트, AI와 인간의 협력적 학습과 공진화 2부-

    ✍ 해경(고경만)


    Recap: 이전 논의 요약

    기존의 프롬프트 엔지니어링은 패턴 최적화에 집중했으며, 사고 확장에는 한계를 보였습니다. 우리는 AI와의 협력을 통해 프롬프트를 단순한 질문 조정 기술이 아닌, 사고를 확장하는 과정으로 변화시켜야 합니다.

    자연주의적 의사결정(NDM)과 관계틀 이론(RFT)은 AI와 인간이 협력하여 새로운 의미와 통찰을 만들어내는 과정을 이해하는 핵심 개념입니다. AI는 단순한 정보 제공자가 아니라, 인간과 협력하여 지식을 공동 구축하는 역할을 수행해야 합니다.

    Screenshot 2025 02 13 at 08. 17. 54 png 17
    결국 협력적 대화가 필요합니다. Ai와 인간의 협력적 학습과 공진화 31

    1. 우리는 결국 협력적 대화를 해야 합니다.

    AI와 함께 일하며 우리는 학습하고 있다고 착각합니다. 하지만 과연 학습하고 있는 걸까요? 우리는 AI에게 최적화된 질문을 던지는 법을 익히고 있는가요? 그렇지 않습니다. 우리는 익히는 것이 없습니다.

    ✅ 프롬프트 엔지니어링은 단순한 질문 조정 기술일 뿐입니다.

    ✅ AI의 패턴에 맞춰 질문을 입력하는 시늉만 하고 있습니다.

    ✅ 실제 사고 확장이 아닌, 수동적 학습에 불과합니다.

    즉, AI와 함께 일한다고 해서 우리가 새로운 통찰을 얻고 있다고 착각해서는 안 됩니다. 단순히 질문을 정교하게 던지는 것과 진짜 학습하고 사고를 확장하는 것은 완전히 다릅니다.

    AI가 제공하는 정형화된 패턴 속에서 우리는 최적의 질문을 찾아 반복하는 것일 뿐, 본질적 사고를 확장하지 못하고 있습니다.


    2. 기존 프롬프트 엔지니어링의 한계: 시스템 1과 시스템 2의 이분법적 편향

    기존의 인지과학 및 AI 설계 논의에서, **”시스템 1과 시스템 2″**라는 이분법적 사고가 지배적이었습니다. 이는 Daniel Kahneman이 제시한 개념으로,

    • 시스템 1: 빠르고 직관적이며 감각적으로 작동하는 사고 방식입니다.
    • 시스템 2: 느리고 논리적이며 의식적으로 작동하는 사고 방식입니다.

    AI 연구에서도 이 개념은 크게 반영되었으며, 프롬프트 엔지니어링 역시 이러한 이분법적 접근을 바탕으로 발전했습니다. 그러나, 자연주의적 의사결정(NDM) 연구는 이러한 이분법적 사고가 실제 인간의 사고 과정과는 거리가 멀다는 점을 지적했습니다.

    ✅ 인간은 시스템 1과 시스템 2를 따로 활용하는 것이 아니라, 상호작용하며 결합된 방식으로 사고합니다.

    ✅ 특정 상황에서 논리적 사고(시스템 2)만이 옳고, 직관적 사고(시스템 1)는 오류라고 보는 이분법적 관점은 편향입니다.

    ✅ AI도 마찬가지입니다. AI가 단순히 시스템 2에 해당하는 최적의 논리적 답을 제공하도록 설계된다면, 인간의 실제 사고 과정과 어긋납니다.

    자연주의적 의사결정(NDM)은 이와 다른 접근법을 제시합니다. 다양한 수준의 정보와 전문성을 가진 사람들 간 협업을 강조하며, 개별 전문가들의 차이를 단점이 아니라 오히려 강점으로 활용하는 방식을 제안합니다. 즉, 각자의 경험과 지식 수준이 다르더라도, 이를 조합하여 더 나은 결정을 내릴 수 있습니다. AI 역시 이러한 방식으로 활용될 수 있습니다. 단순히 최적의 정답을 찾는 것이 아니라, 인간과 AI의 관점 차이를 조율하며 협력적 사고를 확장하는 것이 중요합니다.


    3. RFT(Relational Frame Theory)란 무엇인가?

    1) 언어와 인지의 분석적 접근

    • RFT(언어적 관계틀 이론)는 인간이 언어적 관계를 통해 의미를 구성하는 방식을 설명합니다.
    • 인간은 “자의적이고(context에 따라 임의적으로) 적용 가능한 관계(relational responding)” 를 학습하여 다양한 개념을 서로 연결 짓습니다.

    2) ‘Relational Frame’의 예시

    • “책”이라는 단어와 “지식”이라는 개념, “즐거움”이라는 감정이 어떻게 연결되는지는 물리적 특성만으로 설명되지 않습니다.
    • 인간은 언어적·사회적 맥락을 통해 개념 간 관계틀(동등, 비교, 반대, 포함 등)을 학습하며 사고를 확장합니다.

    이러한 관계 구성은 AI와 협력할 때도 동일하게 작용합니다. AI가 특정 데이터를 제공하면, 인간은 이를 맥락 속에서 새로운 관계로 연결하며 학습을 확장할 수 있습니다.

    예를 들어, AI가 “자동차는 빠르다”라는 문장을 생성했을 때, 이를 단순한 사실로 받아들이는 것이 아니라, “자동차와 속도”라는 관계를 AI와 인간이 협력하여 보다 복합적으로 분석할 수 있습니다. “자동차는 빠르다”라는 개념을 “비행기는 자동차보다 빠르다” 또는 “전기차는 내연기관보다 더 빠르게 가속할 수 있다”와 같은 추가 관계로 확장하는 것이 경험적(인지적) 프롬프트의 핵심입니다.


    4. 경험적 프롬프트와 협력적 사고 확장

    프롬프트 = 단순한 질문이 아니라 AI와의 협력적 대화입니다.
    AI가 제공하는 데이터를 인간의 관계틀 속에서 재구성해야 합니다.
    AI의 할루시네이션조차 새로운 관계 맥락에서 해석하면 유용한 학습 자료가 될 수 있습니다.

    이런 과정이 바로 메타포를 활용하는 것이며, 이런 방식이 경험적(인지적) 프롬프트입니다. 경험적(인지적) 프롬프트는 AI와의 상호작용을 통해 사고를 확장하는 과정입니다. 이는 인간이 기존 관계틀을 넘어 새로운 의미를 탐색하는 방식과 유사하며, NDM의 협력적 전문성을 반영하여 각자의 정보 수준과 경험을 조화롭게 활용하는 방식과도 연결됩니다.


    5. 결론: 우리는 LLM과 협업하면서 협력적 대화를 해야 합니다.

    ✅ 프롬프트 엔지니어링은 더 이상 적절한 용어가 아닙니다.
    ✅ 우리는 AI와 함께 학습하고 사고를 확장하는 존재입니다.
    ✅ 인간의 관계틀(RFT)과 AI의 패턴 학습이 결합될 때, 새로운 통찰과 공진화가 가능합니다.
    ✅ NDM의 협력적 사고 방식을 AI와 접목하면, 다양한 수준의 정보를 융합하여 더 나은 의사결정이 가능합니다.

    결국, 우리는 LLM과 다른 사람들과 협업하면서, 협력적 대화를 해야 합니다. AI를 단순한 정보 제공자가 아니라, 인간과 함께 사고를 확장하는 파트너로 활용하는 것이 미래의 협력 방식입니다.

    🚀 프롬프트를 넘어서, AI와 인간이 함께 학습하고 사고를 확장하는 길로 우리는 이미 함께 걷고 있는것 같습니다. 🚀

    관련글

    시스템1vs2란 허상: 기존 프롬프트 엔지니어링의 한계

    “Garbage in, But Gold out”: LLM과 협력하여, 창의성 증가시키기

    원전을 따라 가르침을 받는 것의 함정

    시스템1vs2란 허상: 기존 프롬프트 엔지니어링의 한계

    Screenshot 2025 02 12 at 22. 31. 11 png 18

    시스템1vs2란 허상: 기존 프롬프트 엔지니어링의 한계

    – 경험적(인지적) 프롬프트, AI와 인간의 협력적 학습과 공진화 1부-

    ✍ 해경(고경만)


    Screenshot 2025 02 12 at 22. 31. 11 19

    1. 우리는 정말 학습하고 있는가?

    AI와 함께 일하면, 우리는 학습하고 있다고 착각하기 쉽습니다.
    그러나 정말로 학습하고 있을까요?
    예를 들어, 우리는 AI에 최적화된 질문을 던지는 법을 배우고 있나요?
    사실 그렇지 않습니다. 우리는 제대로 배우고 있지 않습니다.

    • 프롬프트 엔지니어링은 단지 질문을 조정하는 기술일 뿐입니다.
    • 우리는 AI가 원하는 질문을 흉내 내어 입력하고 있을 뿐입니다.
    • 이는 진정한 사고 확장이 아니라, 수동적인 학습에 가깝습니다.

    다시 말해, AI와 함께 일한다는 사실만으로 새로운 통찰을 얻고 있다고 믿어선 안 됩니다.
    질문을 조금 더 정교하게 다듬는 것과 진짜 학습 혹은 사고 확장은 전혀 다른 차원의 문제입니다.

    AI가 제시하는 정형화된 패턴 안에서 우리는 “최적의 질문”을 찾아 반복할 뿐이며, 근본적인 사고를 넓히지 못하고 있습니다.


    2. 기존 프롬프트 엔지니어링의 한계: ‘시스템 1 vs. 시스템 2’라는 이분법

    지금까지 인지과학과 AI 설계 논의에서,
    “시스템 1과 시스템 2”라는 이분법적 구도가 지배적이었습니다.
    이는 Daniel Kahneman이 제안한 개념입니다.

    • 시스템 1: 빠르고 직관적이며 감각적으로 작동하는 사고
    • 시스템 2: 느리고 논리적이며 의식적으로 작동하는 사고

    이 개념은 AI 연구에 상당히 반영되었고,
    프롬프트 엔지니어링 또한 이 이분법적 사고에 기반해 발전해 왔습니다.

    하지만 자연주의적 의사결정(NDM) 연구는 이러한 이분법이 인간의 실제 사고 방식과 어긋난다고 지적합니다.

    • 인간은 시스템 1과 시스템 2를 분리해서 쓰지 않고, 상호 작용하며 결합해 사고합니다.
    • 특정 상황에서 논리적 사고(시스템 2)만을 옳다고 여기고, 직관적 사고(시스템 1)를 오류라고 보는 시각은 편향입니다.
    • AI 또한 마찬가지입니다. AI를 단순히 “가장 논리적 답”만을 제공하도록 설계한다면, 인간의 실제 사고 과정과 맞지 않게 됩니다.

    결국, 시스템 2 기반으로 프롬프트 엔지니어링을 설계한 것은 인간-AI 협력의 실제 작동 원리를 제대로 이해하지 못한 오류에서 비롯된 것입니다.

    이제 AI를 인간의 사고에 더욱 가깝게 활용하려면,
    이분법적 패턴 최적화를 넘어서 경험적(인지적) 프롬프트 방식을 모색해야 합니다.


    3. 프롬프트 엔지니어링의 패턴 최적화 문제

    프롬프트 엔지니어링은 흔히 “AI가 더 나은 답을 내놓도록 최적의 질문을 찾는 과정”으로 정의됩니다.
    즉, AI가 학습한 데이터에 기반해 가장 적합한 답변을 생성하도록 지원하는 기술입니다.

    그러나, 이것이 과연 AI와 협력하는 올바른 방식일까요?

    기존 프롬프트 엔지니어링이 가진 주요 문제점:

    1. 결국 패턴 최적화에 그친다.
      AI는 과거 학습된 데이터를 재활용해 답변을 생성합니다.
      이는 근본적으로 새로운 사고를 유도하기보다, 기존 패턴의 다시쓰기에 가깝습니다.
      사용자는 AI 내부 구조를 배우기보다, “AI가 원하는 질문”을 반복해서 입력하는 법만 익히게 됩니다.
    2. 맥락 없는 답변이 생성된다.
      AI는 확률적으로 가장 가능성 높은 답만을 제공하기 때문에,
      실제 상황맥락을 깊이 고려하기 어렵습니다.
      인간과 협력하여 사고를 확장하기보다는, 그저 정형화된 답을 제공하는 기계에 머무릅니다.
    3. 사용자의 사고 확장을 방해한다.
      프롬프트 엔지니어링은 “질문을 어떻게 최적화하느냐”를 강조합니다.
      하지만 정작 중요한 것은, “무슨 문제를 해결해야 하는지”에 대한 사고 과정입니다.
      결국 사용자는 AI가 내놓은 답을 수용하기에만 익숙해져, 문제를 깊이 고민하는 과정에서 점점 멀어집니다.
    4. AI의 ‘할루시네이션’을 단순 오류로 본다.
      AI가 실제로 존재하지 않는 정보를 만들어내면, 이를 “할루시네이션”이라고 부릅니다.
      기존 프롬프트 엔지니어링은 이를 “오류”로 단정하고 가능한 한 근본적으로 제거하려고만 합니다.
      그러나 인간도 새로운 개념을 만들기 위해 때때로 착각하거나 엉뚱한 연결을 시도하고, 이것은 창의성의 본질이기도 하죠. 따라서 이러한 착오 자체를 무조건 배제하기보다는 새로운 사고를 탐색하는 기회로 삼아야 합니다.
      (할루시네이션을 긍정하는 것이 아니라, LLM 의 특성인 할루시네이션은 근본적으로 없앨 수 없고, 그래서도 안되니 관리를 잘하자는 이야기입니다)

    결국, 전통적 프롬프트 엔지니어링은 패턴 최적화에만 집중해
    인간과 AI가 함께 협력적으로 사고하는 과정을 방해할 수 있습니다.


    4. 이제 프롬프트 엔지니어링을 버려야 한다

    • 더 이상 우리가 하는 일을 “프롬프트 엔지니어링”이라 부르지 말아야 합니다.
    • 실제로는 “경험적(인지적) 프롬프트”를 이미하고 있습니다. (시스템 1, 2 의 이분법적 관점은 실험실 안에만 존재하기 때문입니다)
    • 즉, 우리는 AI와 협력하여 학습하고 사고를 확장하는 과정을 이미 함께하고 있습니다.
    • 우리가 하는 행동을 언어로 어떻게 표현하냐에 따라, 그 목적성과 의도성이 달라지고, 이는 학습에 큰 효과를 가져옵니다. 따라서 우리의 행동을 ‘프롬프트 엔지니어링’ 이 아닌 다른 표현으로 바꿀 필요가 있습니다.

    과거의 프롬프트 엔지니어링이
    AI에게 최적화된 질문을 찾는 기술이었다면,
    경험적(인지적) 프롬프트는
    AI와 상호작용하며 우리의 사고를 확장하는 과정입니다.

    “우리는 AI와 함께 사고를 확장하는 존재입니다.
    단순히 질문만 입력하는 사람이 아니라,
    AI와 협력해 학습하고 성장하는 학습자입니다.”

    인간과 AI가 함께하는 방식은
    더 이상 입력-출력에 국한된 구조가 아니라,
    경험과 학습을 기반으로 한 상호작용이 되어야 합니다.
    즉, 질문을 최적화하는 것이 아니라, 문제를 해결하는 과정으로 나아가야 합니다.

    따라서 우리가 사용하는 것은 더 이상 프롬프트 엔지니어링이 아닙니다.
    우리는 자연스럽게 경험적(인지적) 프롬프트를 활용하게 됩니다.


    경험적/인지적 관점을 통해
    AI와 인간이 함께 학습하고 사고를 확장하는 길을 함께 만들어 가고 싶습니다.

    – 해경 –

    다음 글 예고: “프롬프트의 정체, 질문이 아니라, 협력적 대화”
    (프롬프트를 협력적 대화로 재정의하자!)

    “Garbage in, But Gold out”: LLM과 협력하여, 창의성 증가시키기

    할루시네이션 유발 LLM 미신: “SearchGPT나 Perplexity와 같은 서비스는 실시간 스크래핑(크롤링)을 한다”

    원전을 따라 가르침을 받는 것의 함정

    “Garbage in, But Gold out”: LLM과 협력하여, 창의성 증가시키기

    Garbage in, but gold out mental model.

    “Garbage in, But Gold out”: 인간과 AI의 공진화를 통한 새로운 가치 창출

    1. 인간은 본디 “쓰레기”에서 “금”을 캐내는 연금술사

    인간은 불완전하고 모호하며, 때로는 “쓰레기”처럼 보이는 정보의 홍수 속에서도 놀라운 능력을 발휘합니다. 바로, 그 “쓰레기” 더미 속에서 보석과 같은 의미와 가치를 발견하고, “금”과 같은 눈부신 통찰을 이끌어내는 ‘Garbage in, But Gold out’ 능력입니다. 이는 단순한 정보 처리 능력을 넘어, 심오한 직관, 고유한 주관성, 축적된 경험, 무한한 창의성 등 인간 고유의 본능과 역량이 복합적으로 어우러져 만들어낸, 세상을 이해하고, 적응하며, 발전시켜 온 핵심 동력이자 생존 전략입니다. 마치 노련한 연금술사가 평범한 금속에서 순도 높은 금을 정련해내듯, 인간은 불완전하고 쓸모없어 보이는 “쓰레기” 정보 속에서도 가치 있는 “금”을 창조해내는 놀라운 존재입니다.

    예술가는 버려진 폐품 속에서 영감을 얻어 예술 작품으로 승화시키고, 과학자는 실패한 실험 데이터의 미세한 흔적 속에서 숨겨진 진리의 단서를 찾아냅니다. 사업가는 혼란스러운 시장 상황의 불확실성 속에서도 새로운 기회를 포착하여 혁신적인 비즈니스를 창출하고, 노련한 장인은 투박한 원석을 다듬어 영롱한 보석으로 재탄생 시킵니다. 우리 각자도 일상 속에서 수많은 불완전한 정보들을 접하지만, 그 속에서 의미 있는 패턴을 찾아내고, 배우고 성장하며, 더 나은 의사결정을 내립니다.

    이러한 ‘Garbage in, Gold out’ 능력은 인간만이 가진 고유한 강점이자, 불확실성으로 가득한 세상을 살아가는 데 필수적인 생존 전략입니다. 이는 단순히 정보를 처리하는 기계적 능력을 넘어, 인간의 본질을 규정하는 핵심 요소이며, 인류 문명을 발전시켜 온 위대한 유산입니다.

    2. LLM: “Garbage in, But Gold out” 능력을 증강하는 강력한 공동 파트너

    최근 눈부시게 발전하고 있는 LLM(대규모 언어 모델)은 인간의 ‘Garbage in, But Gold out’ 능력을 획기적으로 증강할 수 있는 강력한 조력자로 등장하고 있습니다. LLM은 방대한 양의 텍스트 데이터를 학습하여, 언어의 복잡한 패턴과 뉘앙스를 이해하고, 새로운 텍스트를 생성하며, 주어진 질문에 답변하고, 요약 및 번역 등 다양한 작업을 수행할 수 있습니다. 특히, LLM은 단순히 명시적, 고정적, 객관적인 정보만 처리하는 것이 아니라, 텍스트 데이터에 내재된 인간의 주관성, 심상, 경험, 가치관, 감정까지도 계산 할 수 있다는 점에서 주목할 만합니다.

    LLM은 인간의 ‘Garbage in, But Gold out’ 능력을 어떻게 증강할 수 있을까?

    • 방대한 데이터 속 숨겨진 패턴 발견: 인간은 인지적 한계로 인해 방대한 양의 데이터를 분석하고 그 속에서 의미 있는 패턴을 찾아내는 데 어려움을 겪습니다. LLM은 이러한 한계를 극복하고, 인간이 미처 발견하지 못한 숨겨진 패턴과 연결 고리를 찾아내어 새로운 통찰을 제공할 수 있습니다.
    • 모호하고 불완전한 정보 처리: LLM은 문맥을 파악하고, 모호성을 처리하며, 불완전한 정보 속에서도 의미를 추론하는 능력을 갖추고 있습니다. 이를 통해, 인간이 ‘Garbage’로 치부했던 데이터 속에서도 가치 있는 정보를 발굴하고, 새로운 가능성을 제시할 수 있습니다.
    • 다양한 관점과 아이디어 생성: LLM은 방대한 지식을 바탕으로, 인간이 생각하지 못했던 다양한 관점과 아이디어를 생성하여 창의적인 문제 해결을 지원할 수 있습니다.
    • 주관적, 심상적 정보의 활용: LLM은 텍스트에 담긴 감정, 가치, 심상 등을 파악하고 활용할 수 있습니다. 이는 인간의 주관적 경험과 직관을 이해하고, 이를 바탕으로 더욱 풍부하고 인간적인 상호작용을 가능하게 합니다.

    결론적으로, LLM은 인간의 인지적 한계를 보완하고, ‘Garbage’ 일지라도 그 속에서 숨겨진 가치를 발견하도록 도움으로써, 인간의 ‘Garbage in, But Gold out’ 능력을 한 차원 더 높은 수준으로 끌어올릴 잠재력을 지닌 혁신적인 도구입니다. LLM과의 협력을 통해, 우리는 이전에는 불가능했던 새로운 차원의 가치 창출을 이뤄낼 수 있을 것입니다.

    3. 공진화 관점: 인간과 AI가 함께 여는 새로운 가치 창출의 시대

    이러한 잠재력을 현실로 만들기 위해, 우리는 다양한 학문 분야의 인간 전문성 연구를 적극적으로 활용하고 융합하는 ‘공진화 관점’을 제안합니다. ‘공진화 관점’은 인간과 AI가 서로의 강점을 바탕으로 상호 협력하고 함께 성장하는 미래를 지향합니다. 이는 단순히 AI를 인간을 대체하는 도구로 보는 것이 아니라, 인간의 능력을 증강하고, 함께 새로운 가치를 창출하는 진정한 파트너로 인식하는 패러다임의 전환을 의미합니다.

    ‘공진화 관점’은 다음과 같은 핵심 요소들을 기반으로 합니다.

    • 인간 중심: AI 개발의 중심에는 항상 인간이 있어야 합니다. AI는 인간의 삶을 개선하고, 인간의 잠재력을 극대화하는 방향으로 발전해야 합니다.
    • 학제 간 융합: 인지 심리학, 행동 경제학, 자연주의적 의사결정(NDM), 관계 구성 이론(RFT), 디자인 씽킹, HCI, 상담 심리 등 다양한 학문 분야의 연구 성과를 융합하여, 인간의 ‘Garbage in, Gold out’ 능력에 대한 깊이 있는 이해를 도모합니다.
    • 전문성 모델링: 다양한 분야의 전문가들이 가진 암묵지, 직관, 경험 기반 의사결정 패턴 등을 모델링하여, LLM이 더욱 정교하고 인간적인 추론 능력을 갖추도록 돕습니다.
    • 윤리적 책임: AI의 개발과 활용 과정에서 발생할 수 있는 윤리적 문제들을 사전에 예측하고, 이를 예방하기 위한 방안을 마련해야 합니다.

    ‘공진화 관점’을 통해 우리는 다음과 같은 미래를 만들어갈 수 있습니다.

    • 새로운 차원의 문제 해결: 인간의 창의성과 직관, AI의 방대한 데이터 처리 능력이 결합되어, 기존에는 해결 불가능했던 복잡한 문제들에 대한 혁신적인 해결책을 찾을 수 있습니다.
    • 개인 맞춤형 경험 제공: AI가 개인의 취향, 가치관, 경험 등을 이해하고, 이를 바탕으로 개인에게 최적화된 맞춤형 경험을 제공할 수 있습니다.
    • 인간 잠재력 극대화: AI가 인간의 학습, 의사결정, 창의적 활동 등을 지원함으로써, 개개인의 잠재력을 최대한 발휘할 수 있도록 도울 수 있습니다.

    결론적으로, ‘공진화 관점’은 인간과 AI가 함께 협력하며, ‘Garbage’ 속에서도 ‘Gold’를 발견하고, 새로운 가치를 창출하는 미래를 열어가는 길을 제시합니다. 이를 통해, 우리는 더욱 풍요롭고 의미 있는 삶을 향해 나아갈 수 있을 것입니다.

    일반적 인식 (프롬프트 엔지니어링) vs. 공진화 관점 (Garbage in,But Gold out)

    구분일반적 인식 (프롬프트 엔지니어링)공진화 관점 (GBGO)
    초점효율성, 자동화, 성능 향상, 정제된 데이터 활용인간의 인지 과정 이해 및 모방, 인간-AI 협력, 새로운 가치 창출, ‘Garbage’ 데이터/경험에서 ‘Gold’와 같은 가치를 발견
    LLM/벡터 DB 역할고성능 도구, 정보 처리 및 생성, 정확한 답변 도출인간의 마음, 심상 간의 관계 계산 (마음과 유사한 역할 수행), 창의적/직관적 통찰 까지 도출
    핵심 능력자연어 처리, 기계 번역, 정보 검색, 콘텐츠 생성관계 구성, 주관성 패턴 학습, 심상 기반 추론, 적응적 의사결정, 공감 능력, 직관적 추론, 모호성 처리, 경험 기반 학습, 불확실성/불완전성/주관성이 내재된 데이터/경험에서 가치 발견 및 활용
    주요 학문 분야컴퓨터 과학, 인공지능, 데이터 과학컴퓨터 과학, 인공지능, 관계 구성 이론 (RFT), 상담 심리, 인지 심리, 자연주의 의사결정 (NDM), 인간-컴퓨터 상호 작용 (HCI), 디자인 사고, 행동 경제학, 데이터 과학 등 학제 간 융합
    주요 관심사정확도, 속도, 확장성 (Scalability)인간과의 협력, 윤리적 가치, 인간 중심 디자인, 책임감 있는 AI 개발, 사회적 영향 고려, ‘Garbage’ 데이터/경험의 가치 재발견, 주관성과 창의성의 증강
    데이터를 바라보는 관점정제되고 정형화된 데이터 중시, “Garbage in, garbage out”불완전하고 주관적인 데이터/경험(‘Garbage’)도 가치를 지닐 수 있음을 인정, “Garbage in, Gold out”을 지향, 인간의 적응력과 창의력으로 ‘Gold’와 같은 가치를 발견/창출
    데이터 분석의 목표현상 설명, 예측, 패턴 발견데이터에 내재된 주관성, 맥락, 미묘한 뉘앙스까지 포착, 새로운 통찰과 아이디어 도출, 인간의 경험과 직관을 바탕으로 한 전문성 구축, 가치 창출
    LLM의 학습 내용객관적 사실, 일반적 지식주관적 경험, 감정, 가치관, 신념, 직관, NDM 기반의 전문가 의사결정 패턴, 심상, ‘Garbage’ 데이터/경험 속에 숨겨진 패턴/관계/가치
    LLM의 역할정보 제공, 질의응답, 텍스트 생성, 대리인, 외주주관적 전문성 모델링, 적응적 추론 및 의사결정 지원, 인간과의 협력을 통한 가치 창출, ‘Garbage’를 ‘Gold’로 변환하는 연금술사, 인간의 창의성과 문제해결능력을 증강하는 조력자

    핵심 차이 요약:

    • 프롬프트 엔지니어링은 주로 효율성과 자동화에 중점을 두고, LLM을 정확한 답변을 생성하는 도구로 활용합니다. 정제된 데이터를 선호하며, “Garbage in garbage out” 원칙을 따릅니다.
    • 공진화 관점인간과 AI의 협력에 중점을 두고, LLM을 인간의 마음과 유사한 역할을 수행하는 조력자로 봅니다. 불완전하고 주관적인 “Garbage” 데이터/경험에서도 가치를 발견하고, “Garbage in, But Gold out” 능력을 증강하는 것을 목표로 합니다.

    결론적으로, 공진화 관점은 프롬프트 엔지니어링의 한계를 극복하고, 인간과 AI가 함께 새로운 가치를 창출하는 미래를 제시합니다.

    원전을 따라 가르침을 받는 것의 함정

    Screenshot 2024 12 23 at 00. 47. 34 png 20
    Image 3 png e1734883521335 21
    원전을 따라 가르침을 받는 것의 함정 37

    우리는 귀중한 배움을 마주할 때면 그것을 완벽하게 보존하려 합니다. 마치 깨지기 쉬운 유리그릇을 다루듯 조심스럽게 말이죠. 그 안에 담긴 지혜를 한 방울도 흘리지 않으려 애쓰게 됩니다. 혹시 내가 이 완벽한 걸 잘못 이해하진 않을까, 원래의 의미를 훼손하진 않을까 하는 두려움이 우리를 움츠리게 만듭니다. 이런 마음이 깊어 질 수록 우리는 그 가르침을 더욱 신성시하게 됩니다. 너무나 완벽해 보이는 그 모습 그대로 간직하고 싶어서, 감히 우리의 해석을 더하거나 새로운 의미를 찾으려 하지 않게 되죠. 마치 한 번의 실수로 모든 것이 무너질 것만 같은 느낌입니다.1

    하지만 이런 두려움이 반드시 필요한 걸까요? 우리의 이해는 실수와 개선을 거듭하며 자라납니다. 마치 아이가 걸음마를 배우듯, 때로는 넘어지고 비틀거리면서도 한 걸음 한 걸음 나아가는 것처럼 말이죠. 실제로 이렇게 가르침이라는 형태로, 빛바랜 액자처럼 벽에 걸어두는 것이, 정작 그 안에 담긴 진정한 지혜와 우리를 멀어지게 할 수 있습니다. 학습 과학 연구들은 분명한 증거를 보여 줍니다. 우리가 새로운 지식을 진정으로 이해하고 활용하기 위해서는 그것을 우리의 맥락에서 재해석하고 적용해보는 과정이 필수라는 것을 보여주죠. 따라서, 단순 암기나 보존이 아닌, 적극적인 의미 만들기는 우리의 진전을 위해서 꼭 필요한 과정입니다.

    마치 씨앗이 새로운 땅에서 뿌리를 내리고 자라나듯, 배움도 우리 안에서 새롭게 생명력을 얻어야 합니다.2

    이런 생각은 새로운 시각이 아닙니다. 이미, 우리 언어 속에도 이미 이런 지혜가 담겨있죠. Originality라는 말을 살펴보면, 그 어원인 ‘origin’ 은 ‘근원’ 이나 ‘시작점’ 을 의미합니다. 이는 귀할 수록 보전 하고 싶은 우리에게 중요한 시사점을 줍니다.

    원전이란 끝이 아닌 시작이라는 것을 말이죠.

    실제로 적응적 전문성 연구는 전문가들이 지식을 고정된 유물이 아닌, 살아 움직이는 생명체처럼 다룬다는 것을 보여줍니다. 그들은 지식을 새로운 상황에 맞춰 지속적으로 재구성하고 발전시키죠. 마치 오래된 친구와 이야기를 나누듯, 때론 동의하고 때론 다르게 생각하며 서로를 이해하고, 이것이 바로 우리가 원하는 학습이고 진전이고 성장이죠.3

    그렇다면 우리는 어떻게 시작할 수 있을까요? 오래된 친구와의 대화처럼, 먼저 편안한 마음으로 시작하면 좋겠습니다. 각자의 자리에서, 각자만의 방식으로 질문을 던져보세요. 지금 당신이 마주한 상황 속에서 이 배움이 어떤 의미가 있을지 묻고 답해보세요. 그리고 그 과정에서 발견하는 당신만의 통찰에 집중해봅시다.

    이 과정에서 일어나는 원전과의 대화는 마치 봄날의 새싹처럼 우리 안에서 새로운 생명력을 부여 받습니다. 메타인지 연구가 보여주듯, 이런 살아있는 대화야말로 배움의 출발점이 됩니다.4


    관련 연구 및 설명

    위는, 배움은 단순히 지식을 그대로 보존하려는 것에 그치지 않고, 우리 안에서 새로운 맥락을 통해 생명력을 얻어야 한다는 내용입니다. 아래는 각 주장과 이를 뒷받침하는 연구를 정리한 표입니다.



    💡 관련 내용에 대해 관심이 싶으시다면 댓글로 알려주세요!

    • 당신만의 ‘배움의 순간들’은 언제인가요?
    • 소중한 가르침을 자신만의 방식으로 재해석한 경험이 있나요?
    • 지식에 생명력을 불어넣은 나만의 방법이 있다면?
    • 이 글을 읽으며 떠오른 질문이나 통찰이 있나요?

    여러분의 경험을 더해, 함께 자라면 좋겠습니다. 🌱


    주요 주장연구 및 근거설명
    완벽한 보존의 한계와 두려움Dweck, C. S. (2006): 성장 마인드셋에서 실수를 학습의 기회로 본다. 
    Edmondson, A. (1999): 심리적 안전이 부족하면 학습을 방해할 수 있다.
    완벽을 추구하며 실수를 두려워하는 태도는 배움의 기회를 제한합니다. 심리적 안전감은 실패와 도전을 긍정적으로 받아들이게 하며, 이를 통해 성장의 가능성이 열립니다.
    지식의 맥락화와 재구성Ausubel, D. P. (1968): 기존 지식과 연결될 때 학습이 효과적이다. 
    Vygotsky, L. S. (1978): 학습은 사회적 상호작용과 맥락적 도구를 통해 이루어진다.
    지식은 단순 암기나 보존이 아닌, 새로운 환경과 연결되고 맥락화될 때 의미를 갖습니다. 이를 통해 학습자는 자신의 관점에서 지식을 재해석하고 활용할 수 있습니다.
    전문가의 적응적 지식 활용Hatano, G., & Inagaki, K. (1986): 적응적 전문성은 지식의 재구성을 강조. 
    Bereiter, C., & Scardamalia, M. (1993): 전문가들은 지식을 지속적으로 발전시킨다.
    전문가들은 지식을 정적인 유물이 아닌 동적인 생명체처럼 다룹니다. 새로운 상황에 맞춰 지식을 재구성하며 문제를 해결하는 과정에서 지식은 더욱 발전합니다.
    능동적 학습과 자기조절Flavell, J. H. (1979): 메타인지는 사고를 감시하고 조정하는 과정. 
    Zimmerman, B. J. (2002): 자기조절 학습은 능동적 참여를 통해 학습 효과를 극대화.
    배움은 자신의 사고 과정을 점검하고 조정하며, 목표와 전략을 지속적으로 재구성할 때 비로소 가능해집니다. 이는 학습자의 주도성을 키우는 데 핵심적인 역할을 합니다.

    관련 문헌

    1. Ausubel, D. P. (1968). Educational Psychology: A Cognitive View. New York: Holt, Rinehart & Winston.
      출처 보기
    2. Bereiter, C., & Scardamalia, M. (1993). Surpassing ourselves: An inquiry into the nature and implications of expertise. Chicago: Open Court.
      출처 보기
    3. Dweck, C. S. (2006). Mindset: The new psychology of success. New York: Random House.
      출처 보기
    4. Edmondson, A. (1999). Psychological safety and learning behavior in work teams. Administrative Science Quarterly, 44(2), 350-383.
      출처 보기
    5. Flavell, J. H. (1979). Metacognition and cognitive monitoring: A new area of cognitive-developmental inquiry. American Psychologist, 34(10), 906-911.
      출처 보기
    6. Hatano, G., & Inagaki, K. (1986). Two courses of expertise. In H. Stevenson, H. Azuma, & K. Hakuta (Eds.), Child development and education in Japan (pp. 262-272). New York: Freeman.
      출처 보기
    7. Zimmerman, B. J. (2002). Becoming a self-regulated learner: An overview. Theory Into Practice, 41(2), 64-70.
      출처 보기