tenjuu99(天重誠二)'s avatar
tenjuu99(天重誠二)

@tenjuu99@hollo.tenjuu.net

AIをめぐる議論、AIには当然感情など存在しないので、設計しだいで自律型兵器のようなものは可能になる。ChatGPTに確認したところ、ChatGPTのモデルは以下の条件において設計されているらしい(これはChatGPTだけではなくたぶんOpenAIの基本設計方針)。

  • 物理世界にアクセスしない
  • 武器システムと接続しない
  • 制御信号を出さない
  • 実時間で外部システムを操作しない

これはたぶん自律型兵器をつくるときの障害として設計されている。リアルタイム判断ができないから、現場の兵器としては役にたたないし、なによりトリガーができない。情報を収集してOSINT的な用法が現状のメインの用法で、claude がベネズエラのマズロを逮捕するのに利用されたというのはたぶんこの用法。この用法は今後かなり拡張されるのは疑いない。 これは重要なガードレールだけど、これらを取り払ったときにAIが倫理的行動をとる理由はない。人間の意思が関与しない殺傷兵器をつくるというのは、典型的に「非人間化」であって、それは戦争じたいもそうだけど、それゆえに非人道的兵器の使用は禁止されているはずではある。トラウマをもたない冷酷な兵士を作るのはどんな軍にとっても理想の兵士だとおもう。

tenjuu99(天重誠二)'s avatar
tenjuu99(天重誠二)

@tenjuu99@hollo.tenjuu.net · Reply to tenjuu99(天重誠二)'s post

自分はイスラエルが自律型殺傷兵器の開発・運用をしているとおもう。アメリカでこれをしようとしたら、反発を食らっているということではないかと思う。ガザの人民は、すでにAIを通じた非人間化・大規模な監視の下に置かれていると考えるほうが妥当だと思う。