中東と石油のニュース

石油(含、天然ガス)と中東関連のニュースをウォッチし、その影響を探ります。

現地記事転載:ビルトインされたガザのアパルトヘイト(中)

(原題) How Israel’s use of AI in Gaza has transformed warfare and the ‘automation of apartheid’

https://www.arabnews.com/node/2624225/middle-east

2025/11/27 Arab News

 

イスラエルが2023年10月7日のハマス主導の攻撃への報復としてガザ地区への軍事作戦を開始した時、このビジョンは現実のものとなった。開戦当初の1週間、イスラエル軍は1日1,000発の爆弾を投下した。2023年12月初旬までに、空爆は1万回に達したと報告されている。紛争開始から数か月間は、歴史上最も激しい爆撃作戦の一つとなり、その破壊力は第二次世界大戦中のドイツの3都市、ドレスデンハンブルク、ケルンへの爆撃に匹敵すると推定されている。

 

この作戦を牽引していたAI搭載システムの詳細は、イスラエルの雑誌「+972」の報道で明らかになり始めた。イスラエル軍は「ゴスペル」と呼ばれるシステムを使用していたことが明らかになった。このシステムは、以前よりもはるかに迅速に建物を標的として選定していた。ある元イスラエル情報部員は、このシステムを「大量暗殺工場」と表現した。

 

5ヶ月後、+972は「ラベンダー」プログラムの存在を暴露した。このプログラムは、建物ではなく個人を標的としていた。情報筋によると、このシステムは紛争初期に、3万7000人の武装勢力容疑者とその自宅を空爆の標的として選定したという。

 

「パパはどこ?」という別のシステムも明らかにされた。このシステムは、ラベンダーによって標的にされた数千人の個人を同時に追跡し、彼らが自宅に到着すると信号を送信することができる。情報筋は+972に対し、開戦初期の数週間、軍は下級ハマス戦闘員1人につき民間人15~20人の殺害を容認し、時には上級司令官1人につき民間人100人の殺害を容認すると判断していたと語った。

 

また、意思決定支援システム(Decision Support Systems)と呼ばれるAIプログラムが提供した標的に対する人間による監視のレベルについても、憂慮すべき詳細が明らかになった。情報筋によると、システムによって旗印が付けられた標的は、爆撃承認までにわずか20秒しかかけられなかったという。

 

インディアナ大学マウラー法科大学院の准教授で、元イスラエル情報分析官のアサフ・ルビン氏はアラブニュースに対し、「これでは標的選定プロセスにおいて、人間による意味のある実質的なインプットがほぼ不可能になるだろう」と語っている。

 

(続く)