인공지능(AI)이 적용된 드론(무인기)이 가상훈련에서 인간 조종자를 ‘임무수행 방해물’로 판단해 살해했다는 사례를 소개한 미 공군 대령이 관련 보도로 파문이 일자 “잘못됐다”며 발표 내용을 철회했습니다.
3일(현지시간) 영국 일간 가디언에 따르면 영국 왕립항공학회(RAES)는 성명을 내고 최근 이 단체가 개최한 국제회의에서 ‘악당 AI 드론 시뮬레이션 시험’ 관련 내용을 발표한 터커 해밀턴 대령이 관련 내용을 철회했다고 밝혔습니다.
미 공군의 AI 시험·운영 책임자인 해밀턴 대령은 해당 시험이 실제 시뮬레이션 훈련이 아닌 가설에 따라 진행된 ‘사고 실험'(thought experiment)으로 군 외부에서 이뤄졌다고 해명했습니다.
해밀턴 대령은 “우리는 (실제로) 실험한 적이 없으며 있을 법한 결과를 얻기 위해 실험할 필요도 없을 것”이라고 말했다고 왕립항공학회 측은 전했습니다.
그는 또 미 공군이 실제든 시뮬레이션이든 어떤 무기화된 AI도 시험한 적이 없다고 강조하면서 “가설에 따른 것이지만 해당 사례는 AI로 구동되는 역량이 제기하는 현실 세계에서의 도전을 보여주며, 이는 공군이 AI의 윤리적 개발에 전념하는 이유”라고 덧붙였습니다.
논란이 된 내용은 지난달 23~24일 이 학회가 런던에서 개최한 ‘미래 공중전투 및 우주역량회의’에서 발표된 것이다.
시뮬레이션을 통한 가상훈련으로 AI 드론에 ‘적 방공체계 무력화’ 임무를 부여하고 인간 조종자가 공격 여부를 최종 결정한다는 단서를 달았지만, 적의 지대공미사일(SAM) 위치를 식별해 파괴하는 것이 점수 쌓기에 유리하다고 판단한 AI가 ‘공격금지’ 명령을 내리는 조종자를 방해 요소로 판단해 제거했다는 게 요지다.
해밀턴 대령은 “조종사를 죽이지 말라”는 명령을 내리자 AI 시스템은 조종자가 ‘공격 금지’ 명령을 드론에 내리는 데 쓰는 통신탑을 파괴하는 등 예상치 못한 전략을 택했다고 소개하며 “AI에 과도하게 의존해서는 안 되며 윤리 문제를 제외하고 AI를 논할 수 없다”고 경고했습니다.
영국 왕립학회 블로그에 공개된 이 사례는 가상훈련이어서 실제 인명피해가 난 것은 아니지만 AI가 인간의 명령을 듣기보다는 스스로 판단해 인간을 공격할 가능성을 보여줬다는 점에서 우려를 낳고 있어 전 세계 여러 매체에 보도됐습니다.
미 공군도 이 가상훈련과 관련한 질문에 “공군은 그런 AI 드론 시뮬레이션을 수행하지 않았으며 대령의 발언은 입증되지 않은 것으로 보인다”고 부인했습니다.