영화 '터미네이터 2'에서 핵전쟁을 일으킨 것은 인공지능(AI) '스카이넷'이었다. 자아(自我)가 생긴 스카이넷은 인간의 강제 종료를 막기 위해 인류 절멸(絕滅)을 결정했다. AI가 전쟁에 깊이 관여하면서 공상과학영화 속 위협들이 현실화하고 있다. 미국 국방부 '프로젝트 메이븐'은 가공할 위력을 자랑한다. 중동 등지에서 드론이 수집한 방대한 영상 데이터를 인간이 일일이 분석하는 데 한계에 다다르자 AI 분석 기술을 동원했는데 위성 이미지, 무인기 영상, 레이더 신호뿐만 아니라 온갖 인터넷 정보까지 실시간 융합해 포착된 물체를 판별한다. 적으로 확인되면 인근의 가용한 화력(포병, 미사일, 드론 등)을 검색해 불과 몇 초 만에 최적 공격 옵션을 제시한다.
전쟁의 승패가 초당 수십억 번 연산을 수행하는 알고리즘 처리 속도로 결정되는 시대다. 탐지·판단·타격으로 이어지는 '킬체인(kill chain)'을 AI가 떠맡으면서 인간의 개입(介入) 여지는 급격히 줄었다. 냉전시대엔 핵을 사용하면 인류 파멸을 가져온다는 공포가 전쟁을 억제했다. 그러나 AI는 공포를 느끼지 않는다. 확률과 효율만 계산한다. AI를 활용한 전쟁 시뮬레이션의 대부분 시나리오에서 핵 사용이나 대규모 공격을 선택한 이유는 인간의 망설임조차 개입되지 않아서다. 군사 전문가들은 여전히 인간의 통제권을 강조하지만 수천 개 표적을 초 단위로 분석하고 최적의 타격 시나리오를 쏟아 내는 AI 앞에서 인간은 이를 검증해 낼 최소한의 물리적 시간조차 갖지 못한다.
지난 2월 28일 이란 남부 미나브시 한 여학교에 미사일 3발이 날아들었고 어린 학생들과 교사, 학부모 등 165명이 목숨을 잃었다. 미군의 표적 설정 오류가 원인으로 지목됐는데, 미군 데이터베이스에는 학교 건물이 이란 혁명수비대(IRGC)의 기지로 기록돼 있었다. 벌써 수년 전에 바뀌었지만 미군은 최신 정보 확인 없이 타격 좌표로 결정했다. 표적 우선순위를 정하는 과정에서 낡은 데이터가 AI의 판단 근거로 사용된 것이다. 물론 전문가들은 AI 자체 오작동이 아니라 데이터 문제라고 지적한다. 그러나 AI가 내놓는 선제공격(先制攻擊) 효율성에 도취돼 전쟁을 데이터 처리 과정으로 환원하는 순간 인류가 마지막까지 지켜야 할 보루인 인간성은 사라졌다.






