리더의 AI 맹신이 조직 문해력을 파괴한다

expert's avatar
Apr 30, 2026
리더의 AI 맹신이 조직 문해력을 파괴한다

Expert

장재웅

동아비즈니스리뷰(DBR) 기자 · 작가

동아비즈니스리뷰(DBR) 기자입니다. 《비즈니스 문해력을 키워드립니다》 저자로, 현재 후속작 《프롬프트 문해력(가제)》(미래의창)를 집필 중입니다.

AI가 조직을 위험에 빠뜨리는 순간은 AI가 틀린 답을 내놓는 순간만이 아니다. 더 위험한 순간은 그 답이 너무 매끄러워 아무도 초안이라고 의심하지 않을 때다. 생성형 AI가 내놓는 산출물은 ‘완성품처럼 보이는 초안’일 뿐이다. 하지만 리더가 이 초안을 완성품으로 착각하는 순간, 조직은 읽고 의심하고 검증하는 근육을 잃기 시작한다.

2023년 2월, 미국 미시간주립대에서 총기 난사 사건이 벌어져 학생 3명이 숨졌다. 참사 직후 밴더빌트대 피바디칼리지는 충격에 빠진 학생들을 위로하려고 메일을 보냈다. 그런데 이 메일이 공개되자마자 위로 대신 분노가 돌아왔다. 말미에 ‘챗GPT를 활용해 작성했다’는 문구가 지워지지 않은 채 그대로 남아 있었기 때문이다. 사람들이 분노한 건 AI가 메일을 썼다는 사실 자체가 아니었다. 애도와 위로처럼 조직이 자기 언어로 책임져야 할 순간조차 AI에 떠넘겼다는 점이 문제였다. 담당 부학장은 이를 “잘못된 판단(poor judgment)”의 결과라고 인정했다.[1]

이 사건은 극단적 사례일 뿐이다. 같은 구조는 보고서, 기사, 고객 안내문, 내부 의사결정 문서에서도 반복된다. 여기서 말하는 조직 문해력은 단순히 글을 잘 읽고 쓰는 능력이 아니다. 어떤 산출물이 사실인지, 맥락에 맞는지, 고객과 구성원 앞에 내놓고 책임질 수 있는지를 가려내는 집단 역량이다. 그래서 AI 문해력은 기술 활용의 문제가 아니라 리더십의 문제다. 무엇을 통과시키고 무엇을 되물을지, 어디까지 AI에 맡기고 어디서부터 사람이 책임질지 결정하는 건 결국 리더이기 때문이다.

리더의 AI 맹신이 조직을 무너뜨리는 세 가지 경로

리더의 AI 맹신은 노골적인 지시에서 시작되지 않는다. “이 정도면 괜찮다”는 작은 승인이 첫 단추다. 리더가 AI 초안을 검증도 없이 통과시키는 순간, 팀원들은 조직의 새 기준을 재빠르게 학습한다. 팩트를 확인하는 습관, 맥락을 짚는 감각, 고객의 언어로 문장을 벼리는 치열함이 서서히 무뎌진다. 리더의 무비판적 맹신은 결국 세 가지 경로를 통해 조직 전체의 역량을 조금씩 무너뜨린다.

① 환각 방치: 검증 문화의 소멸

2024년 캐나다 민사분쟁해결재판소는 에어캐나다가 자사 챗봇의 잘못된 안내에 책임을 져야 한다고 판결했다. 가족 장례식에 참석하려던 승객에게 챗봇이 실재하지 않는 할인 환급 정책을 안내한 사건이었다. 회사는 "그건 챗봇의 말일 뿐 우리의 말이 아니다"라며 책임을 떼어내려 했지만, 재판소는 고객에게 나간 정보의 책임은 결국 회사에 있다고 봤다.[2] AI는 틀릴 수 있다. 그러나 기업이 "AI가 그랬다"고 말하는 순간, 오히려 더 큰 책임이 기업에 얹힌다. 고객이 들은 건 챗봇의 말이 아니라 회사의 말이기 때문이다.

② 평균값의 착각: 품질 기준의 하락

AI가 만든 비즈니스 문서는 문법도 구조도 반듯하다. 그러나 이 '무난함'은 현장에서는 자주 무력하다. 미국 코넬대 연구팀은 AI에 의존해 글을 쓴 사람들의 표현이 서구식 관용구로 수렴하면서 문화적 고유성을 잃는다고 지적했다.[3] 또 다른 연구는 AI의 도움을 받은 뒤 개인의 창의성이 오래가지 못하고 산출물이 서로 닮아가는 현상을 '창의적 흉터'라 부른다.[4] 조직으로 옮겨놓으면 이야기는 더 분명해진다. 리더가 AI의 평균값을 그대로 통과시킬수록, 팀원들은 자기만의 판단 기준을 벼리는 훈련을 덜 하게 된다. 그렇게 조직의 품질 기준은 서서히 AI의 평균값까지 주저앉는다.

③ 업무 감소의 환상: 검토 비용의 은폐

미국 버클리 하스 경영대학원의 8개월 현장 연구를 보면, AI는 업무를 줄이기보다 오히려 속도와 범위를 넓히는 쪽으로 작동했다.[5] 일을 덜어주는 동시에 더 많은 일을 시도하게 만들고, 원래 있어야 할 '여기서 끝'이라는 경계선까지 흐려놓는다. 여기에 AI 초안을 대조하고, 환각을 걸러내고, 맥락을 채우는 검토 비용까지 얹히면, 직원의 인지 부담은 줄기는커녕 되레 불어난다.

더 근본적인 문제는 판단력 파이프라인의 붕괴다. HBR은 주니어 직원이 보고서를 직접 쓰고, 깨지고, 다시 고쳐보는 '비효율적 과정'이야말로 판단력 훈련의 핵심 경로라고 지적한다.[6]

"AI로 빨리 만들어 와"라는 지시가 반복되면, 주니어 직원은 깨지면서 배울 기회 자체를 잃는다. 업무가 빨라진 것처럼 보이는 동안, 조직의 판단 근육은 오히려 쪼그라들고 있다.

AI와 공존하는 조직을 위한 리더의 과제

문제는 AI를 쓰느냐 마느냐가 아니다. AI가 만든 초안을 누가, 어떤 기준으로, 어디까지 책임질 것인가다. 조직의 문해력을 지키면서 AI의 생산성을 누리려면 리더는 다음 세 가지 기준을 세워야 한다.

첫째, "괜찮네" 대신 검증의 질문을 던져야 한다.

"이 데이터 출처는 확인했나?" "이건 타사에도 통하는 일반론인가, 아니면 우리만의 맥락이 담겨 있나?" "AI를 돌리기 전에 당신이 세운 가설은 무엇이었나?" 리더의 질문 수준이 곧 조직의 방어벽이다.

둘째, ‘그림자 AI’를 조직의 책임 체계 안으로 끌어올려야 한다.

마이크로소프트와 링크드인의 2024년 업무 트렌드 보고서에 따르면, AI 사용자의 78%는 회사가 공식적으로 관리하지 않는 개인 AI 도구를 업무에 활용하고 있다. 반면 리더의 60%는 자사에 AI 실행 비전과 계획이 부족하다고 우려한다.[7] 문제는 AI 사용 자체가 아니다. 사용은 이미 시작됐는데, 누가 어떤 업무에 AI를 쓰고 그 결과물을 누가 검증하고 책임질지에 대한 기준이 보이지 않는다는 점이다.

그래서 AI 가이드라인은 “써도 된다/안 된다”의 허용 목록이 아니라 업무별 책임 경계표여야 한다. 초안 작성, 아이디어 정리, 자료 요약은 AI에 맡길 수 있다. 그러나 고객에게 나가는 수치, 법률·재무 판단, 인사평가 문구, 위기 커뮤니케이션은 사람이 끝까지 검증하고 책임져야 한다. AI를 양지로 끌어올린다는 것은 사용을 금지하는 일이 아니라, 사용 사실과 책임 기준을 조직 안에서 보이게 만드는 일이다.

셋째, AI 결과물에도 사람이 쓴 것과 똑같은 잣대로 피드백해야 한다.

"AI가 써준 거니 이 정도면 됐지"라는 타협이야말로 가장 위험하다. "근거가 빈약하다" "고객 관점에서 설득력이 약하다"는 날카로운 피드백이 살아 있어야, 팀원들도 AI가 생성한 결과물을 비판적으로 평가하고 다시 벼리는 새로운 인지 노동을 체득한다.

AI 기술의 발전 속도는 빠르고, 조직이 이를 완전히 통제하기는 어렵다. 그러나 AI가 내놓은 결과물을 어떻게 읽고, 조직의 맥락에 맞게 잘라내며, 끝내 무엇으로 책임질 것인가는 오롯이 리더의 몫이다. 초안은 AI가 쓸 수 있다. 그러나 그 초안이 고객에게 내보낼 말인지, 구성원에게 전할 메시지인지, 조직이 끝까지 책임질 판단인지를 가르는 일은 여전히 리더가 해야 한다.

장재웅


[1] Sam Levine, “Vanderbilt apologizes for using ChatGPT in email on Michigan shooting,” The Guardian, February 22, 2023.

[2] Moffatt v. Air Canada, 2024 BCCRT 149, British Columbia Civil Resolution Tribunal, February 14, 2024.

[3] Dhruv Agarwal, Mor Naaman, and Aditya Vashistha, “AI Suggestions Homogenize Writing Toward Western Styles and Diminish Cultural Nuances,” Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, ACM, 2025.

[4] Yiyong Zhou, Qinghan Liu, Jihao Huang, and Guiquan Li, “Creative scar without generative AI: Individual creativity fails to sustain while homogeneity keeps climbing,” Technology in Society, Vol. 84, 2026.

[5] Aruna Ranganathan and Xingqi Maggie Ye, “AI Doesn’t Reduce Work—It Intensifies It,” Harvard Business Review, February 9, 2026.

[6] David S. Duncan, “How Do Workers Develop Good Judgment in the AI Era?,” Harvard Business Review, February 3, 2026.

[7] Microsoft and LinkedIn, “2024 Work Trend Index Annual Report: AI at Work Is Here. Now Comes the Hard Part,” May 8, 2024.


Share article