맥락 없는 이미지, 반복되는 문장 구조, 모호한 표현. 생성형 인공지능이 쏟아내는 저품질 콘텐츠가 일상 속으로 깊숙이 파고들었다. 겉으로는 자극적이고 빠르게 소비되지만, 내용과 사실성은 빈약한 경우가 적지 않다. 이른바 슬롭이라 불리는 현상이다.
2025년 9월 미국 노스이스턴대 연구진은 글쓰기·언론·철학·자연어처리 전문가 19명과 함께 슬롭의 기준을 정리했다. 연구에 따르면 슬롭은 세 가지 속성으로 구분된다. 정보 유용성 부족, 표현 방식의 품질 저하, 정보의 품질 저하다.
정보 유용성이 낮은 콘텐츠는 소비자에게 실질적 도움을 주지 못한다. 표현 방식이 부자연스러우면 동일한 문장 구조가 반복되고 ‘~할 수 있다’ 같은 모호한 표현이 잦다. 가장 심각한 유형은 사실 왜곡이나 편향이 섞인 정보의 품질 저하다. AI가 생성한 내용을 그대로 신뢰할 경우 직접적 피해로 이어질 수 있기 때문이다.
실제 사례도 발생했다. 식품의약품안전처는 2025년 12월, 12개 식품업체가 AI로 가상의 전문가 영상을 제작해 질병 치료 효과가 있는 것처럼 광고했다고 밝혔다. 해당 업체들은 두 달도 채 되지 않는 기간 동안 약 84억 원 상당의 제품을 판매했다. 정교하게 합성된 ‘의사’ 영상은 소비자에게 실제 의료인의 발언처럼 인식됐다.
전문가들은 슬롭이 뇌 인지 구조에도 영향을 미친다고 지적한다. 짧고 강한 자극을 반복적으로 접하면 도파민 분비가 증가해 일시적 쾌감을 느끼지만, 장기적으로는 집중력과 사고력이 저하될 수 있다는 분석이다. 특히 전두엽이 발달하는 청소년기에는 비판적 사고 훈련이 약화될 가능성이 크다.
교육 현장에서도 우려가 나온다. AI가 생성한 부자연스러운 언어 표현과 맥락 없는 이미지가 반복 노출될 경우, 어린이와 청소년이 이를 정상적 의사소통 방식으로 받아들일 위험이 있다는 지적이다. 의미 없는 운율과 자극적 이미지가 결합한 밈 콘텐츠가 빠르게 확산되는 현상도 같은 맥락에서 해석된다.
편향 문제도 구조적이다. 2023년 미국 스탠퍼드대 연구진은 생성형 이미지 AI가 ‘매력적인 사람’에는 백인을, ‘범죄’나 ‘테러리스트’ 검색에는 특정 인종 이미지를 반복 생성하는 경향을 확인했다. 온라인에 축적된 다수 데이터를 그대로 학습한 결과다. AI가 만든 편향적 결과를 다시 학습하면 왜곡은 강화된다.
제도적 대응도 시작됐다. 2026년 1월 22일부터 시행된 인공지능 기본법은 AI 생성 콘텐츠에 대한 표시 의무를 규정했다. AI로 제작된 사실을 명확히 밝혀 이용자의 혼동을 줄이겠다는 취지다. 2025년 12월 개정된 정보통신망법은 플랫폼 사업자에게도 가짜 AI 콘텐츠 확산에 대한 책임을 일부 부과했다.
그러나 탐지 기술과 표시 의무만으로는 한계가 있다는 지적이 나온다. AI 생성 기술과 이를 우회하는 기술이 동시에 발전하고 있기 때문이다. 결국 핵심은 이용자의 판단 능력이라는 분석이다.
전문가들은 디지털 문해력 강화를 해법으로 제시한다. 콘텐츠의 맥락을 읽고, 출처를 확인하며, 사실 여부를 검증하는 능력이 필수 역량이 됐다는 것이다. 기술이 생산 속도를 높인 시대일수록 콘텐츠의 가치는 투명성과 진정성에서 갈린다.
슬롭은 사라지지 않을 가능성이 높다. 남는 것은 선택의 문제다. 무엇을 소비하고 무엇을 걸러낼 것인지, 판단의 책임은 결국 이용자에게 돌아오고 있다.