전쟁의 판단을 기계에 맡겨도 되는 시대인가
현대 전쟁은 더 이상 인간의 판단만으로 이루어지지 않습니다. 인공지능 기술의 발전으로 군사 작전에서도 AI가 핵심적인 역할을 수행하기 시작했습니다. 특히 사이버 공간에서는 방대한 데이터를 실시간으로 분석하고 위협을 식별하며 심지어 군사 목표를 자동으로 선정하는 시스템까지 등장하고 있습니다. 이러한 변화는 군사 효율성을 높일 수 있다는 기대를 낳는 동시에 국제법적·윤리적 문제를 동시에 제기하고 있습니다. 과연 AI가 사이버 공간에서 군사 목표를 자동으로 선정하는 행위는 국제법상 허용될 수 있는 것인지, 그리고 그 과정에서 발생할 수 있는 민간 피해와 책임 문제는 어떻게 다루어져야 하는지에 대한 논의가 시급해지고 있습니다.

AI 군사 목표 선정의 개념과 사이버 공간의 특수성
AI 기반 군사 목표 선정이란, 인간의 직접적인 개입 없이 알고리즘이 위협을 분석하고 공격 대상을 식별·우선순위화하는 과정을 의미합니다. 사이버 공간에서는 이 과정이 더욱 자동화되기 쉽습니다. 네트워크 트래픽, 시스템 로그, 이상 징후 등을 AI가 실시간으로 분석해 적대 행위를 판단하기 때문입니다. 문제는 사이버 공간의 구조상 군사 시스템과 민간 시스템이 동일한 네트워크 환경에 혼재되어 있다는 점입니다. 이로 인해 AI가 군사 목표와 민간 대상을 명확히 구분하기 어렵다는 근본적인 한계가 존재합니다.
국제인도법에서 요구하는 구별 원칙
국제인도법의 핵심 원칙 중 하나는 구별 원칙입니다. 이는 전투원과 민간인, 군사 목표와 민간 대상을 명확히 구분해야 한다는 원칙입니다. 전통적인 무력 충돌에서는 비교적 명확한 기준이 존재했지만 사이버 공간에서는 이 원칙을 적용하기가 훨씬 어렵습니다. AI가 자동으로 목표를 선정할 경우, 해당 시스템이 민간 병원 서버와 군사 통신망을 정확히 구분할 수 있는지에 대한 의문이 제기됩니다. 만약 AI의 판단 오류로 민간 인프라가 공격 대상이 된다면, 이는 국제인도법 위반으로 평가될 가능성이 큽니다.
비례성 원칙과 AI 판단의 한계
국제인도법은 비례성 원칙을 통해 군사적 이익에 비해 과도한 민간 피해를 금지하고 있습니다. 그러나 AI는 군사적 이익과 민간 피해를 인간처럼 가치 판단의 영역에서 비교하기 어렵습니다. 알고리즘은 사전에 입력된 기준과 데이터에 따라 계산할 뿐이며 예상치 못한 파급 효과까지 고려하는 데에는 한계가 있습니다. 사이버 공격의 경우, 하나의 시스템 마비가 연쇄적으로 민간 사회 전반에 영향을 미칠 수 있기 때문에 AI의 자동 판단만으로 비례성을 충족했다고 보기 어렵다는 비판이 제기되고 있습니다.
군사적 필요성과 인간 통제의 문제
국제인도법은 군사적 필요성을 인정하면서도 이를 무제한으로 허용하지 않습니다. 최근 국제사회에서는 의미 있는 인간의 통제 개념이 강조되고 있습니다. 이는 AI가 군사 목표를 제안할 수는 있지만 최종 결정은 인간이 내려야 한다는 원칙입니다. 사이버 공간에서도 AI가 자동으로 목표를 선정하더라도 인간 지휘관의 감독과 개입이 필수적이라는 점이 국제법적으로 중요해지고 있습니다. 인간 통제가 배제된 완전 자동화는 국제인도법의 기본 정신과 충돌할 가능성이 높습니다.
민간 피해 발생 시 책임 주체는 누구인가
AI가 자동으로 선정한 군사 목표로 인해 민간 피해가 발생했을 경우, 국제법상 책임의 주체는 여전히 국가입니다. AI는 법적 주체가 아니며 도구로 간주됩니다. 따라서 AI의 오작동이나 판단 오류로 인한 피해 역시 이를 운용한 국가의 책임으로 귀결됩니다. 이는 국가가 AI 시스템을 도입할 때 더욱 엄격한 검증과 통제 의무를 져야 함을 의미합니다.
사이버 공간에서 오판 가능성이 더 큰 이유
사이버 공간은 물리적 전장보다 훨씬 복잡하고 불확실성이 큽니다. 공격과 방어의 경계가 모호하며 위장과 오인 가능성이 상존합니다. AI는 학습 데이터에 의존하기 때문에 새로운 유형의 공격이나 의도적인 기만 행위에 취약할 수 있습니다. 이러한 환경에서 AI가 군사 목표를 자동으로 선정할 경우, 민간 대상이 군사 목표로 오인될 위험이 더욱 커집니다. 이는 국제인도법상 민간 보호 원칙과 직접적으로 충돌하는 요소입니다.
국제사회의 논의와 규범 형성 움직임
현재 국제사회에서는 AI 무기와 자동화된 군사 시스템에 대한 규범 논의가 활발히 이루어지고 있습니다. 유엔 차원에서는 자율무기체계에 대한 규제 필요성이 지속적으로 제기되고 있으며 사이버 공간 역시 그 논의 대상에 포함되고 있습니다. 다수의 국가와 국제기구는 AI가 군사 목표를 자동으로 선정하는 과정에서 국제인도법이 반드시 적용되어야 하며 새로운 기술이라고 해서 예외가 될 수 없다는 입장을 공유하고 있습니다.
완전 자동화는 허용될 수 있는가
결론적으로 현재 국제법 체계에서는 AI가 인간의 개입 없이 사이버 공간에서 군사 목표를 완전히 자동으로 선정하는 것을 명확히 허용하고 있다고 보기는 어렵습니다. 국제인도법의 핵심 원칙인 구별성, 비례성, 예방 의무는 여전히 인간의 판단을 전제로 하고 있기 때문입니다. 기술 발전 속도를 고려할 때 법적 공백이 존재하는 것은 사실이지만 이는 자동화를 무제한 허용한다는 의미는 아닙니다.
국제법이 나아가야 할 방향
앞으로 국제법은 AI 기술의 현실을 반영하면서도 인간 보호라는 기본 가치를 유지해야 하는 과제를 안고 있습니다. 사이버 공간에서 AI가 군사 목표 선정에 활용되더라도 인간의 통제와 책임이 명확히 유지되는 방향으로 규범이 발전해야 할 것입니다. 이를 위해 국제사회는 공통된 기준과 투명한 원칙을 마련할 필요가 있습니다.
마무리하며
판단의 주체는 여전히 인간이어야 한다
사이버 공간에서 AI가 군사 목표를 자동으로 선정하는 기술은 이미 현실이 되고 있습니다. 그러나 국제법의 관점에서 볼 때, 그 판단을 전적으로 기계에 맡기는 것은 아직 허용되기 어렵습니다. 민간 피해를 최소화하고 인간의 존엄을 보호한다는 국제인도법의 목적은 기술 발전과 무관하게 유지되어야 합니다. 결국 AI는 인간의 판단을 보조하는 수단이어야 하며 책임과 결정의 주체는 여전히 인간이어야 한다는 점이 국제법 논의의 핵심이라 할 수 있습니다.
국제사회는 기술 경쟁의 속도에만 집중하기보다 인간 통제 원칙을 제도적으로 어떻게 구현할 것인지에 대해 구체적인 합의를 형성해야 할 시점에 와 있습니다. 사이버 공간의 특수성을 반영한 새로운 국제 규범이 마련되지 않는다면 AI의 오판으로 인한 분쟁과 책임 공백은 반복될 가능성이 높습니다. 결국 AI 시대의 전쟁 규범은 기술 중심이 아니라 인간 중심의 법 원칙 위에서 재정립되어야 할 것입니다.
참고자료
국제적십자위원회, 자율무기와 국제인도법
유엔 군축국, 자율무기체계 관련 보고서
탈린 매뉴얼 2.0
유엔 정부전문가그룹(GGE) 사이버 안보 문서
관련 다른 게시글
2025.12.15 - [국제법 쉽게 이해하기] - AI가 자동 생성한 무역 결제 정보 오류의 국가 책임
AI가 자동 생성한 무역 결제 정보 오류의 국가 책임
인공지능 시대 국제무역과 국제법의 새로운 책임 기준현대 국제무역 환경은 인공지능 기술의 발전과 함께 빠르게 변화하고 있습니다. 과거에는 사람이 직접 계산하고 검토하던 수출입 결제 과
sisi555.com
'국제법 쉽게 이해하기' 카테고리의 다른 글
| 사이버 공간에서 발생한 민간 피해에 교전법 적용 기준 (0) | 2026.01.14 |
|---|---|
| 양자컴퓨팅이 암호체계를 무력화할 경우 국가 책임 (0) | 2026.01.13 |
| 디지털 워터마크 기술, 국제 저작권 분쟁 해결 여부 (0) | 2026.01.12 |
| 자율주행 트럭이 국경을 넘는 물류 시스템에서 사고 발생 시 책임 구조 (0) | 2026.01.11 |
| 국가가 외국 인플루언서 활동을 규제할 수 있는지 여부 (1) | 2026.01.10 |