인공지능이 이스라엘의 가자 전쟁에서 중요하고 매우 불안한 역할을 하고 있다는 최근 조사 보도가 있었습니다.


중요한 이유는 이 보도가 전쟁의 미래에 대한 무서운 모습을 보여주고, 특히 생사가 걸린 문제에서 인간이 AI 같은 새로운 기술에 뒷자리를 내주면 얼마나 나쁜 일이 벌어질 수 있는지를 분명히 보여주기 때문입니다.

  • 익명의 이스라엘 정보 당국자와의 인터뷰를 인용한 최근 조사 보도에 따르면, 이스라엘 군이 "라벤더"라는 AI 프로그램을 사용하여 가자 지구에서 의심되는 하마스 표적을 생성했다고 합니다.
  • 이 보도는 IDF가 라벤더에 크게 의존했으며, 누구를 죽일 것인지에 대한 정보를 "마치 인간의 결정인 것처럼" 취급했다고 주장합니다.
  • IDF는 공식적으로 이러한 주장을 부인하고 있지만, 이스라엘의 표적 생성 능력이 연간 50개에서 하루 100개 이상으로 늘어났다는 작년 가을 "복음" 프로그램의 세부 사항이 밝혀졌습니다.


AI는 통제 수단보다 더 빠르게 발전하고 있습니다.

  • 전문가들은 라벤더의 사용이 오랫동안 미래 전쟁에서 AI에 대한 논쟁의 핵심이 되어 왔던 여러 우려 사항들을 제기한다고 말합니다.
  • 미국, 러시아, 중국을 포함한 많은 국가들이 AI 프로그램을 군대에 도입하는 것을 우선시해 왔지만, 기술은 정부가 따라잡을 수 있는 속도보다 더 빠르게 발전해 왔습니다.
  • 작년 11월 유엔 회의에서 많은 정부가 치명적인 자율 프로그램 사용을 규제하기 위한 새로운 법이 필요하다는 우려를 제기했지만, 미국, 러시아, 이스라엘 등 선도적인 국가들은 새로운 국제법 제정에 주저했습니다.


전쟁에서 AI가 의사 결정을 하도록 내버려 두는 것

  • 미래의 전쟁에서는 AI가 인간과 협력하여 방대한 양의 데이터를 처리하고 전투 중 잠재적인 행동 방침을 제안할 수 있습니다. 그러나 이러한 파트너십을 망칠 수 있는 여러 가능성이 있습니다.
  • 수집된 데이터가 인간이 처리하거나 이해하기에는 너무 많을 수 있습니다. 인간이 데이터에 기반한 가정을 하고 너무 빨리 움직이면 실수할 가능성이 높아집니다.
  • 속도를 높이려는 추구 속에서 인간은 감독 없이 AI를 신뢰하며 운전대에서 손을 떼게 될 수 있습니다.


주목할 점은 AI가 많은 군사적 이점을 가질 수 있다는 것입니다. AI는 인간이 광범위한 데이터와 출처를 처리하여 정보에 입각한 결정을 내릴 수 있도록 도울 수 있고, 상황을 처리하는 방법에 대한 다양한 옵션을 조사할 수 있습니다.

  • 의미 있는 "인간 중심 통제"가 유용할 수 있지만, 결국에는 인간이 AI와의 관계에서 자신의 역할을 다하는 것, 즉 AI에 대한 권한과 통제력을 유지하는 것이 중요합니다.
  • 현재 많은 군대의 전술, 훈련, 리더십 모델은 주로 인간으로 구성된 군사 조직을 위해 설계되어 있고, 그 인간들은 기계를 세밀하게 통제합니다.
  • 하지만 향후 10년 내에 무인 시스템이 인간보다 많아지는 상황이 실현될 수 있습니다. 인간을 준비시키고 기계와 협력하도록 교육과 훈련을 바꾸는 것은 필요하지만 어려운 문화적 진화입니다.


https://apple.news/Afp3ZW80ZSsCZ1b7zSfeihg

[Claude Pro에서 입력 내용을 악시오스 스타일로 정리해주는 클로드프로/챗GPT용 인스트럭션 - AI 채팅 채널 (arca.live) 을 이용해 정리된 기사임]