정답 배달은 끝났다, 시청자의 손에 ‘질문이라는 열쇠’를 쥐여주는 콘텐츠

정답 배달은 끝났다, 시청자의 손에 ‘질문이라는 열쇠’를 쥐여주는 콘텐츠

5
0

[최홍규 칼럼: AI 시대의 콘텐츠 1회]

 

정답 배달은 끝났다,
시청자의 손에 ‘질문이라는 열쇠’를 쥐여주는 콘텐츠


최근 몇 년 사이, 우리는 인류가 수천 년간 쌓아온 지적 권위가 단 한 줄의 프롬프트 앞에 무력하게 무너지는 광경을 목격했다. 2023년 6월, 뉴욕타임스(The New York Times)가 보도한 한 사건을 복기해 보자. 1) 변호사 스티븐 슈워츠(Steven A. Schwartz)는 AI가 조작해낸 존재하지 않는 판례를 변론에 사용했다가 벌금형을 선고받고 30년 경력에 지울 수 없는 오점을 남겼다. 이 사건은 생성형 AI의 환각(Hallucination)을 전문가조차 판별해 내지 못할 때, 우리 사회가 직면할 지적 붕괴를 상징적으로 보여주었다. 2024년 5월 BBC가 보도한 구글의 AI 답변 엔진 해프닝도 궤를 같이한다.2) “피자에 접착제를 넣어라”라거나 “건강을 위해 매일 돌을 먹어라”라는 황당한 오답은, 질문자가 검증 능력을 상실한 채 기술에 의존할 때 우리의 사유가 얼마나 위태로운 벼랑 끝으로 내몰릴 수 있는지를 여실히 증명했다.

정답처럼 매끈하게 포장된 결론의 홍수 속에서 우리는 길을 잃고 있다. 이제 미디어는 정답을 대리 검색해 주는 대행자를 넘어, 시청자가 스스로 사유의 닻을 내릴 수 있도록 돕는 지적 나침반이 되어야 한다.

 

지식 전달은 끝났다, ‘질문 조립법’을 공유하는 참여형 포맷
과거의 미디어가 ‘무엇이 정답인가’를 선언하던 거대한 스피커였다면, 이제는 좋은 질문이 어떻게 설계되는지 그 공정을 시뮬레이션하는 장이 되어야 한다. 지식은 더 이상 특정 계층의 전유물이 아니며, 클릭 한 번으로 도달이 가능한 흔한 재화가 되었기 때문이다. 이제 정보의 가치는 ‘소유’가 아닌 ‘활용’에서 나오며, 그 활용의 시작점은 다름 아닌 ‘질문’이다.

따라서 AI 시대의 콘텐츠는 정보를 단순히 나열하는 관성에서 완전히 탈피해야 한다. 시청자가 자신의 목표와 제약 조건을 설정했을 때, AI가 어떻게 후보 질문들을 생성해 내는지 그 변주의 과정을 보여주어야 한다. 사회심리학자 에드워드 데시(Edward Deci)의 ‘자기결정성 이론(Self-Determination Theory)’에 따르면, 인간은 스스로 주도권을 쥐고 선택할 때 비로소 지적 몰입의 정점에 도달한다. 시청자가 질문들 사이의 미세한 차이를 비교하고 자신의 의도에 맞게 다듬어 가는 과정을 영상의 핵심 서사로 삼아야 하는 이유다. 미디어는 지식을 배달하는 하역 노동자가 아니라, 지능이라는 거대한 바다에서 ‘질문’이라는 열쇠를 정교하게 깎아내는 법을 알려주는 숙련된 장인이 되어야 한다.

 

결론은 생략하라, 전문가의 ‘사고 공정’을 생중계하는 콘텐츠
이러한 패러다임의 변화는 콘텐츠의 시선을 ‘결론’에서 ‘과정’으로 옮길 것을 요구한다. 그동안 미디어는 전문가의 입을 거쳐 정제된 ‘최종 결과물’만을 소비하게 하는 데 집중해 왔다. 그러나 AI와 공존하는 시대의 진짜 지능은 결론 그 자체가 아니라, 그곳에 도달하기까지의 사고 절차에서 증명된다.

이제 우리는 전문가가 문제를 처음 마주했을 때 어떻게 정의하는지, 어떤 가정을 세우고 수많은 소스 중 무엇을 선택해 추론을 이어가는지 그 사고의 블랙박스를 투명하게 공개해야 한다. 2023년 하버드 비즈니스 스쿨(HBS, Harvard Business School)과 보스턴 컨설팅 그룹(BCG, Boston Consulting Group)의 공동연구 결과3)는 시사하는 바가 크다. AI와 협업한 전문가 중 최고의 성과를 낸 이들은 AI의 최종 답변을 잘 고른 사람이 아니라, AI의 추론 과정 속 오류를 가장 기민하게 잡아낸 이들이었다.

이 지점에서 미디어가 나아갈 길은 더욱 선명해진다. 전문가는 AI를 다루며 겪은 시행착오와 판단의 근거를 가감 없이 공유하고, 미디어는 그 개선된 사고의 궤적을 시청자가 직접 따라갈 수 있도록 정교하게 설계된 경험을 제공해야 한다. 영상이 끝난 뒤 시청자가 스스로 미션을 수행하고 AI 코치로부터 실시간 피드백을 받는 ‘반복 학습형 루프’를 구축할 때, 시청자는 비로소 단순한 정보의 수용자를 넘어 독립적인 사유가로 격상된다.

 

조회수보다 정정률, 신뢰를 성과로 측정하는 투명한 리포팅
시청자를 질문자로 세우기 위해 미디어가 갖춰야 할 최후의 보루는 역설적으로 기술이 아닌 도덕적 투명성이다. 질문의 토대가 되는 정보가 얼마나 정확하고 탄탄한지 시청자가 직접 확인할 수 있어야 하기 때문이다. 모든 주장에는 근거 링크와 원문, 판단의 준거를 메타데이터 형식으로 부착해 배포하는 시스템이 필요하다. 출처를 추적할 수 있는 프로비넌스(Provenance)의 확보는 신뢰를 위한 최소한의 예의다.

또한, AI 답변의 불확실성 등급이나 편향 가능성을 표준화된 포맷으로 정직하게 노출해야 한다. 이는 시청자를 혼란에 빠뜨리는 일이 아니라, 오히려 그들이 안심하고 재질문할 수 있도록 돕는 친절한 가이드라인이 된다. 이제 미디어의 성공 지표는 맹목적인 조회수가 아닌, 얼마나 많은 시청자가 비판적인 질문을 던졌으며 제작 과정의 오류를 얼마나 투명하게 기록하고 정정했는지와 같은 신뢰의 성과로 재편되어야 한다.

 

기술에 침식되지 않는 ‘질문하는 인간’을 향한 미디어의 책무
결국, AI 시대의 콘텐츠가 도달해야 할 종착지는 인간을 더 똑똑하게 만드는 것이 아니라, 인간을 더 끊임없이 질문하게 만드는 데 있다. AI는 인간보다 수만 배 빠른 속도로 정답을 내놓을 수 있지만, 그 결과물에 가치와 의미라는 생명력을 불어넣는 것은 여전히 오롯이 인간의 몫으로 남아 있기 때문이다.

미디어가 시청자의 손에 질문의 주도권을 쥐여줄 때, 시청자는 기술이라는 거대한 파도에 휩쓸리지 않고 그 위를 자유로이 유영하는 서퍼가 된다. 시청자를 질문자로 변모시키는 일은 단순한 제작 전략을 넘어, 이 시대 미디어가 감당해야 할 가장 고귀한 인문학적 책무다. 우리가 설계한 ‘질문의 열쇠’로 시청자들이 각자의 삶에서 사유의 문을 열고 나갈 때, 비로소 미디어는 ‘존재의 이유’를 증명할 수 있다. 질문하는 인간을 길러내는 것, 그것이 AI라는 거대한 문명사적 전환기 속에서 미디어가 마지막까지 사수해야 할 영토다.

 


1) www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html
2) www.bbc.com/news/articles/cd11gzejgz4o
3) www.hbs.edu/ris/Publication%20Files/24-013_d9b45b68-9e74-42d6-a1c6-c72fb70c7282.pdf

댓글 없음