생성형 AI가 일상적 기사 생산까지 잠식하는 시대, 저널리즘이 무엇을 끝까지 붙들어야 하는지가 전 세계 언론계의 핵심 과제로 떠오르고 있다. 그리스 탐사보도 조직에서 활동하며 하버드에서 AI와 탐사보도를 연구 중인 소티리스 시데리스가 강조하는 지점은 분명하다. AI는 배척해야 할 적이 아니라, 공공성을 위해 재편해야 할 새로운 인프라이지만, 동시에 언론이 결코 맡겨서는 안 될 영역이 존재한다는 것이다.
시데리스가 몸담은 현장은 복잡하다. 자동 생성 기사의 양은 폭발적으로 늘고, 기자의 수는 줄어든다. 검증되지 않은 정보가 사회 전반에 전파되는 속도는 과거와 비교할 수 없을 만큼 빠르다. 이런 환경에서 그는 AI를 감시견 역할을 확장할 수 있는 도구로 활용해 정부·기업의 방대한 데이터를 분석하며 구조적 문제를 드러냈다. 러시아 제재 회피 유조선의 네트워크, 에어비앤비 확산 속 숨겨진 아테네의 주거 불안, 은행의 비공개 경매 구조 등이 그의 분석을 통해 표면화됐다. 기자의 직감만으로는 포착하기 어려운 패턴들이 AI 분석을 통해 드러난 사례들이다.
그러나 그는 동시에 AI의 위험성도 직시한다. AI는 단순한 도구가 아니라, 사회가 가진 편견과 권력 구조를 확대 재생산할 수 있는 잠재적 편집자다. 이 때문에 시데리스는 “AI를 사용할 것인가 말 것인가”가 아니라 “AI를 활용하면서 인간 기자가 무엇을 결코 넘겨주지 않을 것인가”를 묻는다. 그가 제시하는 대답은 세 가지 축으로 정리된다. 의심, 윤리, 책임.
여기서 가장 중요한 기준은 ‘완전한 투명성’이다. 기사 제작 과정에서 어떤 데이터를 어떻게 사용했고, 어떤 AI 도구를 어디에 적용했고, 어떤 판단과 생략이 있었는지를 독자에게 먼저 알려야 한다는 것이다. AI 활용이 보편화된 지금, 이를 숨기는 언론은 더 이상 권력자에게 투명성을 요구할 자격을 잃는다. 투명성 없는 AI 저널리즘은 오히려 불신을 확대하는 길이다.
결국 AI 시대의 저널리즘 위기는 기술 부족에서 오지 않는다. 보도 과정의 선택과 책임을 가리고 싶어 하는 태도에서 발생한다. 언론의 신뢰는 AI를 얼마나 잘 다루는지가 아니라, AI를 사용하는 기자 스스로를 얼마나 정직하게 드러내는지에 달려 있다. AI 시대에도 절대 외주 줄 수 없는 영역은 인간 기자의 의심, 윤리적 판단, 그리고 그 모든 과정을 투명하게 설명하려는 책임감이다.