일본 AI 안전연구소, 생성형 AI 12대 사회위험 첫 종합 진단

일본 정부 산하 AI 세이프티 인스티튜트(AI Safety Institute·AISI)가 생성형 AI 확산이 초래하는 사회적 위험을 12개 연구 주제로 정리한 ‘AI 안전에 관한 구체적 영향의 조사 보고서’를 10월 말 공개했다. 보고서는 기술적 위험을 넘어 윤리·법, 경제, 정보 공간, 환경 전반에 파급되는 영향을 평가하고 일본의 AI 안전정책 수립을 위한 근거 마련을 목표로 했다.

조사는 AISI가 NRI 시큐어테크놀로지에 위탁해 수행됐다. 연구팀은 국내외 뉴스와 논문, 보고서 등 약 50건을 예비 분석하고 영향도와 특이성을 기준으로 20건을 심층 검토한 뒤, 이를 12개 연구 주제로 재구성했다. 이 가운데 중요도가 높은 다섯 개 분야는 교육기관, 보안업체, 금융·IT 기업, 아동보호 단체, 팩트체크 기관 등 10개 조직을 대상으로 한 인터뷰 조사로 보완했다.

보고서는 AI의 사회기술적 영향(socio-technical impact)을 핵심 개념으로 삼았다. 단순히 기술적 위험에 그치지 않고, 생성형 AI가 사회적 맥락과 결합해 정책·경제·문화 시스템 전체에 영향을 미친다는 점을 강조했다. 이를 기반으로 네 가지 범주, 즉 윤리·법적 영향, 경제 활동, 정보 공간, 환경 분야로 나누어 문제를 정리했다.

윤리·법 영역에서는 생성형 AI의 과신으로 인한 정신·신체적 악영향, 편향 출력이 사회적 차별을 확대할 위험, 사이버 공격 도구로의 악용, 아동·청소년 대상 성착취물 생성 문제 등을 주요 위험으로 지적했다. 경제 분야에서는 생성물의 권리 귀속 논란, 노동환경 변화와 특정 직종의 대체 가능성, AI 생성 콘텐츠 범람으로 인한 정보 가치 하락, AI 활용 역량 격차가 불평등을 심화시키는 현상을 분석했다.

정보 공간 분야에서는 딥페이크를 포함한 허위정보의 대량 확산, 알고리즘 최적화로 정보 다양성이 훼손될 가능성이 제기됐다. 환경 분야에서는 대규모 모델 학습과 추론이 초래하는 전력 소비 증가와 데이터센터 확장에 따른 환경 부담이 장기적 과제로 제시됐다.

AISI는 위험 요인을 기술적·사회적·제도적 과제로 구분했다. 기술적 과제는 저작권 침해, 개인정보 오용, 편향, CSAM(아동 성착취물) 등 부적절한 학습데이터 문제와 유해·오류 출력 문제를 포함했다. 사회적 과제는 AI 활용 능력 격차, 경제·교육 격차와 결합한 불평등 심화, AI에 대한 과신과 리터러시 부족으로 인한 피해 가능성을 지목했다. 제도적 과제에 대해서는 저작권, 초상권, 성착취물 규제 등에서 기존 법제가 현실을 따라가지 못하는 공백을 지적했다.

보고서는 국가·기업·개인의 대응 방향도 제시했다. 국가에는 초·중·고 단계에서 AI 리터러시를 정규 교육으로 확대하고, 접근성 격차를 줄이는 디지털 포용 정책을 강화할 것을 권고했다. 저작권과 인격권, 편향 규제, 성착취물 규제 등 법·제도 정비와 AI 출력물 감독 체계 구축 역시 핵심 과제로 제시됐다.

기업에는 데이터 품질·저작권 검증 체계 구축, 가드레일·레드팀 절차 강화, 기밀정보 보호 설계, 전사 AI 교육과 업무 프로세스 재설계가 요구됐다. 개인에게는 AI 윤리와 정보 검증 능력 향상, 출처·증거·관련 정보를 단계적으로 확인하는 ‘검증 습관’ 정착, 기술 변화에 대응하기 위한 평생학습이 필요하다고 강조했다.

AISI는 결론에서 일본 사회가 집중적으로 다뤄야 할 핵심 도전 과제로 AI 기반 성착취물 문제, 사이버 공격 증가, AI 편향의 구조화, 정보 질 저하, 리터러시 격차, 에너지 소비 증가 등을 제시했다. 보고서는 생성형 AI가 사회 전반에 깊숙이 확산된 만큼 기술 규제와 사회·교육·환경 정책을 결합한 종합적 AI 안전 거버넌스가 필요하다고 강조했다.

댓글 남기기

EduKorea News에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기