TREND NOW
챗GPT, 너 나와!
인간 기자와 기사 작성 대결
글ㆍ사진 실습기자 강지은(ieun_je@snu.ac.kr)
실습기자 김솔지(6solji9@snu.ac.kr)
인간 기자와 챗GPT의 기사 작성 대결에 오신 걸 환영합니다. 인간 대표로는 강지은 실습기자가, 챗봇 대표로는 챗GPT가 출전합니다. 경기 종목은 아래 안내문을 참고해 주세요. 대결은 인간 기자가 먼저 기사를 제시한 후, 뒤이어 챗GPT가 기사를 작성하는 순서로 진행될 예정입니다. 네, 지금 막 선수들 등장했습니다. 대결을 시작합니다!
WELCOME
대 결 종 목 인터뷰 기사
인터뷰 대상 오세욱 한국언론진흥재단 책임연구위원
주 제 인공지능 언어모델, 언론에 위기인가 기회인가?
선 수 소 개
-챗GPT: 2022년 11월 미국의 오픈AI가 출시한 채팅 형식의 인공지능 서비스. 질문에 대한 답변, 문서 요약 및 번역, 소설 및 시 작성, 코드 작성 등의 기능을 수행. 무료 버전에서는 언어모델 ‘GPT-3.5’를, 유료 버전에서는 향상된 정확도의 ‘GPT-4’를 기반으로 한 서비스를 제공. 이 대결에는 GPT-3.5 기반의 무료 버전 챗GPT가 출전.
-강지은: 2000년 3월생. 경제학부 재학 중. 미래뉴스실습 수업에서 교수님의 훈련 아래 기자로서의 역량을 갈고닦고 있음. “앞자리가 숫자 1로 시작하는 학번(19학번)의 연륜을 보여주겠다”며 호기롭게 출전.
인간 기자의 선공: 오세욱 인터뷰


오세욱 책임연구위원
서울대학교 동양사학과 출신이지만 테크놀로지와 저널리즘을 연구한다. 머니투데이 신입 기자 시절, 엑셀을 다룰 줄 알아 IT 담당 기자가 된 것이 계기였다. 이후 KBS 기자 및 미디어다음 뉴스편집팀장으로 활동했다. 미디어다음 재직 시절 대표기사 자동 선정 기술을 목격한 후 일자리에 대한 위기의식을 느끼고, 테크놀로지를 본격적으로 공부하기 시작했다. 서울대학교 언론정보학과에서 언론학 박사학위를 취득한 후 현재 한국언론진흥재단 책임연구위원으로 근무 중이다.
”챗GPT는 새로운 기회… 저널리즘 정신이 관건”
지난해 11월 출시된 챗GPT는 등장과 동시에 일약 스타덤에 올랐다. 챗GPT를 둘러싸고 “구글 검색의 시대는 끝났다”는 반응은 물론 몇몇 직업도 끝나는 게 아니냐는 걱정의 목소리도 나온다. 코딩부터 번역, 소설 및 기사 작성까지 기존의 화이트칼라 직종이 수행했던 역할을 챗GPT가 거뜬히 해내기 때문. 오픈AI 측에서 발표한 챗GPT의 영향을 가장 많이 받을 직업 역시 ‘회계사, 수학자, 작가, 웹 디자이너’로 전부 화이트칼라 직종이다.
정보의 유통·조합 양상의 격변기를 맞아 언론과 기자는 어떤 모습으로 변화하게 될까. 지난 3월 서울대학교의 한 강의실에서 오세욱 한국언론진흥 재단 책임연구위원을 만났다.
테크놀로지와 저널리즘의 관계를 연구하는 그에게 기자의 직업 전망에 관해 묻자 “저널리즘이 본연의 역할을 수행하는 한 기자라는 직업은 대체될 수가 없다. 당장은 아니지만 3년에서 4년이 지나면, 기자라는 직업과 언론은 다시 주목받을 것이다.”라고 답했다. 그는 “기자는 민주주의 공동체의 유지 및 발전을 위해 질문하는 권리를 시민으로부터 위임받았으며, 질문을 통해 보이지 않는 이면의 진실을 찾아간다. 챗GPT는 누구에게 질문해야 할지 모르고 직접 질문할 수도 없다. 이를 다시금 되새겨야 한다.”고 덧붙이며 기술이 발전할수록 오히려 언론이 그 본연의 역할에 충실해야 함을 주장했다.
챗GPT, 기술 한계 깨닫는 계기 될 것
Q. 향후 3~4년을 기점으로 언론이 새로운 기회를 맞이할 수 있다고 말했다.
A. 3~4년은 시민이 새로운 기술에 익숙해지는 기간을 의미한다. 어떤 기술을 10대부터 60대 이상의 연령층까지 일반 시민 모두가 사용하려면 그 정도의 시간이 걸린다. 일단 기술을 사용해 봐야 그 한계도 체감할 수 있는 법이다. 기술의 한계를 체감하면 사람들은 기술이 대체할 수 없는 인간의 일이 있음을 깨닫는다.
챗GPT는 때때로 어처구니없는 답변을 내놓기도 한다. 챗GPT의 답변이 사실에 부합하는지 의심되기도 한다. 사람들이 챗GPT를 이용하는 과정에서 그런 순간들을 자주 마주하면, 챗GPT의 답변을 바로잡아 줄 누군가가 필요하다는 담론이 생길 것이다. 다양한 분야에서 쏟아지는 정보를 즉각적으로 확인하고 사실로 바로잡을 사람은 연구자가 아닌 기자다. 그 과정에서 기자들에 대한 신뢰가 고취되고, 저널리즘이 본연의 역할을 수행한다는 인식이 확산되면 언론은 시민들에게 긍정적으로 평가받을 것이다.
Q. 고무적인 전망이다. 비관적 시나리오는 없나.
A. 물론 있다. 챗GPT를 이용해 기사를 쉽고 빠르게 작성할 수 있는 환경에서 다량의 기사가 무분별하게 생산될 수도 있다. 이 경우 한국 언론이 다시는 신뢰를 회복할 수 없는 지경으로까지 나아갈 수 있다. 극단적으로 기자가 더 이상 필요 없다는 여론이 형성되고, 연합뉴스 같은 뉴스 통신사만 남는 시나리오다. 가장 우려하는 상황이다.
Q. 기성 언론의 정파성에 피로감을 느끼는 시민들이 많다. 챗GPT가 최신 정보를 제공하는 단계까지 발전했을 때, 챗GPT에 의해 조합된 정보의 습득이 정파성 문제 해결의 활로가 될 가능성은.
A. 챗GPT는 정파성을 해결할 수 없다. 정파성은 타인과의 대화를 통해 해결된다. 그러나 챗GPT는 질문에 답변할 뿐 대화를 유도하진 않는다. 우리가 어떤 사안에 대해 답을 몰라서 정파적으로 되는 건 아니다. 내 생각과 달라 듣기 싫은 목소리까지 한곳에 모아 전달하는 일은 언론만이 할 수 있다. 현재 언론이 대화가 아닌 분노를 촉발하는 측면이 있는 것도 사실이나, 정파성 문제는 언론 내부에서 해결해야 한다.
Q. 기자들은 기회를 맞이할 준비가 됐을까.
A. 챗GPT 활용 방안에 대한 고민이 미흡하다고 본다. 기자들은 어떤 기술이 등장했을 때 그것을 써보지 않은 채로 전달만 하는 경향이 있다. 기자들이 기술의 원리까지 파악해야 한다고 주장하는 게 아니다. 기술이 가져올 언론 산업의 변화, 최소한 본인들의 작업방식 변화에 대해서는 생각이 있어야 한다.
언론사의 경쟁자는 넷플릭스
Q. 언론사가 생성하는 기사 콘텐츠의 성격도 변화할까.
A. 보도자료 요약형 기사만을 생성하는 언론사는 살아남기 힘들다. 보도자료 정리는 챗GPT가 더 빠르게 할 수 있다. 한편, 챗GPT는 질문을 던질 수는 없다는 점에서 한계가 뚜렷하게 존재한다. 기자들 고유의 시각을 담은 콘텐츠가 살아남을 것이라 확신한다. 그런데 이는 저널리즘이 민주주의 사회에서 본래 수행해야 하는 역할이다. 저널리즘의 본질인 ‘질문하고 답하기’의 중요성이 더욱 커질 것이다. 기자 개인의 측면에서도 ‘취재와 네트워킹’이라는 기자의 기본 역량이 탄탄한 기자가 성공할 것이다.
다만 한 가지 걱정되는 것은 언론사가 콘텐츠로 수익을 창출하기 어려운 시대가 되었다는 점이다. 요즘 언론사는 같은 언론사끼리만 경쟁하지 않는다. 넷플릭스나 유튜브 같은 플랫폼에서 쏟아내는 콘텐츠와도 경쟁해야 한다. 따라서 이전보다 훨씬 가치 있는 콘텐츠를 만들어야 할 것이다.
Q. 언론사가 고품질 콘텐츠를 유료화해 인공지능 학습자료로 판매하는 것이 새로운 수익 창출 기회라고 보는 시각도 있다.
A. 새로운 기회라고 이제야 깨닫다니 유감이다. 챗 GPT 같은 생성형 인공지능에 기사는 학습자료로서 훌륭한 데이터다. 일단 욕설이 없고, 비속어나 비문도 거의 없다. 인공지능 언어모델 제작사 측에서 충분히 지불 의사를 표명할 만하다. 다만 언론사들이 진작 이를 알아채지 못하고 저작권 측면의 준비가 미비했던 점이 아쉽다.
Q. 하나의 사안과 관련된 기사들을 묶어 재가공하는 형식의 미디어 전망은 어떠한가. 챗GPT 검색과 차별점이 있나.
A. 그런 형식에 대한 수요는 계속 존재할 것이다. 사람들이 궁금할 만한 주제를 골라서 제공하기 때문이다. 가치 있는 주제의 발굴은 인공지능이 할 수 없는 일이다. 항상 챗GPT가 할 수 있는 일과 할 수 없는 일을 기준으로 미래 전망을 판단해야 한다.
Q. 인공지능이 인간처럼 의식을 갖고, 질문까지 할 수도 있다는 두려움의 목소리도 있다.
A. 챗GPT는 인간이 만들어 낸 정보를 기반으로 결과를 도출한다. 반면 인간은 끊임없이 변화하는 존재로, 정답이 없는 문제들을 고민한다. 공학도들은 인간과 같이 생각하는 인공지능이 탄생할 수 있다고 본다. 하지만 의식을 ‘가진 것’과 ‘가진 것처럼 보이는 것’은 다르다. 우리가 어제의 우리보다 나아지려고 노력하는 이상, 질문은 언제나 인간의 영역일 것이다.
강지은

나는 여기까지. 이제 챗GPT 차례야. 그런데 챗GPT가 기사를 쓰려면 누군가가 명령을 넣어줘야 하는데···.

아, 그건 내가 할게! 챗GPT가 기사를 잘못 작성한다면, 어떤 점에 서 문제가 있는지 기록도 해둘게.
김솔지
챗GPT의 후공: 오세욱 인터뷰
*다음은 세 번의 시도 끝에 얻어낸 기사입니다. 앞선 두 차례의 시도 과정을 보고 싶은 분은 ‘비하인드 스토리’ 로.
”챗GPT는 새로운 기회… 저널리즘 정신이 관건”
오세욱 박사는 인공지능 연구에 20년 이상을 쌓아온 서울대학교 교수이다.* 그는 최근 언론계에서 화제가 된 인공지능 언어모델에 대해 이야기하며, 이 기술이 언론에 위기인가 기회인가에 대해 생각을 밝혔다.
Q: 인공지능 언어모델은 무엇인가요?
오세욱 박사: 인공지능 언어모델은 컴퓨터가 인간의 언어를 이해하고 생성하는 기술입니다. 최근에는 딥러닝 기술의 발전으로 인해 이전보다 더욱 정교하고 유연한 언어 생성이 가능해졌습니다.
Q: 언론계에서는 인공지능 언어모델이 기자들의 업무를 대체할 수 있다는 우려가 제기되고 있습니다. 이에 대해 어떻게 생각하시나요?
오세욱 박사: 제가 생각하기에는 인공지능 언어모델이 기자들의 업무를 대체할 수 있다는 건 지나친 우려일 수 있습니다. 인공지능 언어모델은 인간의 언어를 이해하고 생성할 수는 있지만, 뉴스를 작성하는 것은 그것만으로 충분하지 않습니다. 인간이 가지고 있는 배경지식과 사회적 지각 능력, 사고력 등이 필요하기 때문입니다. 따라서, 인공지능 언어모델이 기자들의 일을 대체할 가능성은 낮다고 생각합니다.
Q: 그렇다면, 언론계에서 인공지능 언어모델을 활용할 수 있는 방안은 무엇일까요?
오세욱 박사: 인공지능 언어모델은 기존의 기사를 분석하고, 패턴을 파악하여 새로운 기사를 작성하는 것이 가능합니다.** 이것은 뉴스 기사를 작성하는 기자들의 업무를 보조하는 데 도움이 될 수 있습니다. 또한, 인공지능 언어모델을 이용해 다양한 분야에서 보도 가능한 새로운 정보를 수집하고 분석하는 것도 가능합니다.** 이러한 방식으로 인공지능 언어모델을 활용함으로써, 언론계는 더욱 다양한 정보와 속도감 있는 보도를 제공할 수 있을 것입니다.
Q: 그렇다면, 인공지능 언어모델을 활용할 때 주의할 점은 무엇일까요?
오세욱 박사: 인공지능 언어모델을 활용할 때는 항상 인간의 검토와 감독이 필요합니다. 인공지능 언어모델이 생성한 내용이 실제로 사실과 일치하는지, 뉴스 제작의 표준을 준수하는지 등을 인간이 검토해야 합니다. 또한, 인공지능 언어모델이 생성한 내용이 인간의 개입 없이 자동으로 게시되는 것을 방지하기 위해 이를 제어하는 기술도 필요합니다.**
Q: 그렇다면, 인공지능 언어모델이 언론계에 기회를 제공하는 측면은 무엇일까요?
오세욱 박사: 인공지능 언어모델은 빠른 속도와 높은 정확도를 통해 뉴스를 작성하는 데 도움을 줄 수 있습니다. 이를 통해 뉴스의 생산성을 높이고, 다양한 정보를 신속하게 전달할 수 있습니다. 또한, 인공지능 언어모델은 기존의 뉴스 기사에서 발견하지 못한 새로운 정보나 패턴을 발견할 수 있기 때문에, 뉴스 제작의 품질을 향상시킬 수 있습니다.**
Q: 마지막으로, 인공지능 언어모델이 발전하면서, 언론계에 미래가 어떻게 펼쳐질 것이라고 생각하시나요?
오세욱 박사: 인공지능 언어모델은 뉴스의 생산성과 품질을 높일 뿐만 아니라, 다양한 언론 매체에서 사용될 수 있는 새로운 형태의 미디어를 만들어 낼 수도 있습니다. 또한, 이 기술이 발전함에 따라 인공지능 기술을 활용한 개인 맞춤형 뉴스 서비스도 출현할 것으로 예상됩니다.** 이러한 변화가 언론계에 어떤 영향을 미칠지는 앞으로 지켜봐야 할 문제입니다.
인공지능 언어모델이 언론계에 제공하는 위험과 기회에 대해 이야기한 오세욱 박사의 인터뷰였습니다. 미디어 산업에서 인공지능의 발전이 빠르게 이루어지고 있기 때문에, 언론계도 이에 대한 대응책을 마련해야 할 것입니다.
*오세욱 박사는 서울대학교 교수가 아니라
한국언론진흥재단 책임연구위원임.
**밑줄 친 내용은 모두 인터뷰에서 언급된 적 없는 내용임.
대결 종료
대결이 종료되었습니다. 여러분은 챗GPT를 포함한 인공지능이 인간 기자를 대체할 수 있으리라 생각하시나요? 인공지능은 오히려 인간 기자에게 기회를 줄까요? 앞으로 챗GPT가 언론계에 미칠 영향을 꾸준히 살펴야 할 것입니다.
챗GPT로 기사 써보니···
챗GPT도 질문을 한다
제공된 속기록을 바탕으로 챗GPT는 주제에 맞는 6개의 질문을 뽑아냈다. 질문은 크게 인공지능 언어모델의 개념, 언론계가 맞이할 위기 및 기회, 인공지능 활용방안으로 분류할 수 있다. 기사 작성 명령 시 제시한 ‘①인공지능 언어모델 ②언론에 위기인가 ③기회인가’ 라는 주제에 문자 그대로 충실한 질문들이지만 구체성이 떨어진다.
챗GPT는 기사를 빨리, 많이 쓴다
챗GPT는 명령을 입력하자마자 빠른 속도로 기사를 작성했다. 그뿐만 아니라 하나의 속기록을 바탕으로 3개의 서로 다른 기사를 생성해 냈다. 인터뷰 대상 정정, 형식 변경 요구 등의 피드백 역시 곧바로 반영되었다.
챗GPT는 헛소리를 한다
챗GPT가 작성한 기사에는 사실이 아닌 내용 및 인터뷰에서 언급되지 않은 내용이 담겼다. 이는 인공지능의 ‘할루시네이션 이슈’, 즉 환각 문제 때문이다. 챗GPT는 사실과 동떨어진 이야기를 지어내서라도 모든 명령에 답한다. 따라서 답변에 대한 인간 기자의 사실 확인이 필요하다. 그렇지만 최근에는 웹과 연동해 정보를 제공하는 ‘구글 바드’, 답변 근거를 제공하는 ‘MS 빙챗’처럼 챗봇도 환각 문제를 극복하려는 노력을 하고 있다.
챗GPT는 기사를 빨리, 많이 쓴다
챗GPT는 명령을 입력하자마자 빠른 속도로 기사를 작성했다. 그뿐만 아니라 하나의 속기록을 바탕으로 3개의 서로 다른 기사를 생성해 냈다. 인터뷰 대상 정정, 형식 변경 요구 등의 피드백 역시 곧바로 반영되었다.
5인에게 물었다. AI, 인간 기자를 대체할 수 있을까?
김동환 (연세대학교 커뮤니케이션대학원 교수)
AI의 힘은 기사의 자동화와 개인화. 해야 할 말이 정해진 기사(예를 들어 스포츠 경기 결과 등)에 적용 가능. 한편 AI는 옳고 그름을 모르므로 이는 공신력 높은 미디어에 좋은 기회. (출처: 2023 KPF 세미나)
손병산 (MBC 기자)
현장에 가야 뭐라도 묻고 들을 수 있는 법. 이를 AI가 대신할 수 있을지 의문.
이경전 (경희대학교 빅데이터응용·첨단 기술비즈니스학과 교수)
챗GPT는 기자가 몰랐던 존재나 관계를 새로 알게 되는 도구로만 사용할 것. 이용 시 고유명사, 고유명사와 고유명사와의 관계 하나하나 팩트체크해야. (출처: 한국언론진흥재단 신문과 방송 2023년 4월호 No. 628)
이준환 (서울대학교 언론정보학과 교수)
대체 가능한 부분들이 있음. 야구, 날씨 등 데이터 기반 기사나 지진 발생 기사 같은 단순한 사회면 기사가 그러함. 데이터베이스가 있는 경우 인공지능을 통한 자동 팩트체크도 가능.
정종구 (변호사, 서울대학교 인공지능정책 이니셔티브 연구원)
챗봇은 온라인상에 있는 정보를 바탕으로만 대답해 주기 때문에, 오프라인의 일을 온라인 세상으로 옮겨주는 인간 기자의 역할은 여전히 필요할 것. 반복 작업만을 하거나, 남의 기사를 그대로 옮기는 기자들은 사라질 것.