AI 전력 ‘대량소비’ 논란, 구글 수치 공개로 반전

최근 인공지능(AI)의 확산과 함께 “AI가 전기를 지나치게 많이 소비한다”는 우려가 꾸준히 제기돼왔다. 데이터센터 자체가 전력 집약적 시설인데, AI 도입과 이용량 증가가 맞물리면 전력난이 불가피하다는 주장이다. 일부는 국가 경쟁력 약화 가능성까지 경고해왔다.

실제로 국제에너지기구(IEA)는 2022년 460TWh였던 전 세계 데이터센터 전력 소비가 2026년에는 1050TWh를 돌파할 수 있다고 전망했다. 국내에서도 산업통상자원부는 데이터센터 수가 2023년 150곳에서 2029년 637곳으로 늘어나면 전력 수요가 약 5만MW에 이를 수 있다고 내다봤다. 이런 수치가 공개되면서 ‘AI 전기 먹는 하마론’은 언론과 산업계를 빠르게 달궜다.

그러나 구글이 내놓은 실제 사용량 자료는 다른 그림을 보여준다. 최신 제미니 앱이 질문 하나를 처리하는 데 쓰는 전력의 중앙값은 0.24Wh에 불과하다. 이는 전자레인지 1초, TV 시청 9초와 비슷한 수준이다. 더욱 주목할 점은 1년 전보다 전력 효율이 33배 개선됐다는 사실이다. 모델 구조 고도화와 소프트웨어 최적화 덕분이다. 프롬프트 사용량이 33배 늘어도 전력 소비는 지난해와 동일하다는 의미다. 업계 전반에서도 유사한 효율 향상이 보고되고 있다.

이는 과거 전망이 기술 발전 속도를 간과했음을 보여준다. 무어의 법칙처럼 반도체 성능이 일정 주기마다 배가된 것처럼, AI 역시 불과 1년 만에 30배 이상 효율을 끌어올렸다. ‘전력 폭증’ 시나리오는 기술 진화를 반영하지 못한 과장된 위기론일 가능성이 크다.

정작 더 시급한 과제는 지구 온난화로 인한 여름철 냉방 전력 수요 급증이다. 세계적으로 냉방은 향후 전력 증가의 최대 단일 요인이 될 것으로 전망된다. 따라서 AI 자체를 전력 소비 주범으로 몰기보다, AI를 활용해 에너지 효율을 높이고 전력 피크 수요를 줄이는 방안에 주목해야 한다는 목소리가 힘을 얻고 있다.

댓글 남기기

EduKorea News에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기