Google Threat Intelligence Group이 대규모언어모델을 실시간 호출해 스스로 코드를 바꾸는 형태의 악성코드를 처음 확인했다고 밝혔다. 해커들이 인공지능을 단순 개발 보조 수단을 넘어 공격 실행 단계에 직접 결합하는 양상이 본격화됐다는 분석이다. 실시간으로 코드를 생성해 탐지를 회피하는 구조가 실제 공격에서 포착된 것이 핵심이다.
구글 위협인텔리전스그룹(GTIG)은 12일(현지시간) 발표한 ‘AI 위협 추적 보고서’에서 2025년 들어 LLM API를 호출해 해킹 명령어를 즉석 생성하고 이를 실행하는 멀웨어 사례를 관찰했다고 밝혔다. 기존 멀웨어가 악성 기능을 사전에 코드에 내장하는 방식이었다면, 이번 사례는 외부 AI 모델에 질의해 필요한 명령을 그때그때 생성하는 방식이라는 점에서 차이를 보인다.
보고서에 따르면 ‘PROMPTFLUX’와 ‘PROMPTSTEAL’로 명명된 악성코드는 작동 중 AI를 호출해 시스템 정보 수집, 파일 복사, 명령 실행 등에 필요한 코드를 생성한다. 보안 솔루션이 특정 패턴을 탐지하기 어렵도록 명령 구조를 수시로 변경하는 이른바 ‘실시간 변신’ 전략을 구사한 것으로 분석됐다.
특히 러시아 정부 지원 해킹 조직으로 알려진 APT28이 우크라이나 대상 공격에 ‘PROMPTSTEAL’을 활용한 정황이 확인됐다. 이 악성코드는 Hugging Face API를 통해 LLM에 접근해 시스템 정보 수집 및 문서 탈취 관련 명령어를 생성한 뒤 이를 실행한 것으로 파악됐다. 구글은 AI를 실시간 호출하는 멀웨어가 실제 작전에 사용된 첫 사례라고 설명했다.
국가 지원 해킹 조직 전반에서도 생성형 AI 활용이 확대되고 있다. 북한, 이란, 중국과 연계된 위협 행위자들은 정찰, 피싱 메일 작성, 명령·제어 서버 개발, 데이터 탈취 등 공격 전 과정에 AI를 접목하고 있는 것으로 조사됐다. 공격 준비 단계에서 표적 맞춤형 이메일을 생성하거나 악성 스크립트를 자동 작성하는 방식이 대표적이다.
AI 안전장치 우회를 위한 기만 전략도 동원됐다. 중국 관련 해커는 해킹대회 참가자를 사칭해 취약점 정보를 요청했고, 이란 연계 조직은 학술 연구 목적을 가장해 AI 모델의 보안 제한을 우회하려 했다. 북한 연계 그룹은 채용 담당자를 사칭해 방위산업체를 노린 사회공학 공격을 벌인 사례가 보고됐다.
다크웹 등 사이버 범죄 시장에서는 피싱 제작, 멀웨어 개발, 취약점 분석을 지원하는 AI 기반 도구 거래도 증가하는 추세다. 일부 서비스는 무료 체험판을 제공하고 고급 기능은 구독 방식으로 판매하는 등 합법 AI 플랫폼과 유사한 사업 구조를 갖춘 것으로 나타났다. 기술 숙련도가 낮은 공격자도 AI 도구를 활용해 공격 효율을 높일 수 있는 환경이 형성되고 있다는 분석이다.
GTIG는 악성 활동과 연계된 프로젝트 및 계정을 비활성화하고 모델을 지속 개선하고 있다고 밝혔다. 이번 사례를 토대로 분류기와 모델 정책을 강화해 유사 유형의 공격 지원 요청을 차단하도록 조치했다는 설명이다.
AI의 확산이 보안 위협의 자동화·지능화를 동시에 가속하는 양상이다. 보안 업계는 모델 제공사와 보안 기업 간 협력, API 호출 모니터링 강화, 이상 행위 탐지 고도화가 시급하다고 보고 있다.