日本出台人工智能武器研发指导方针,强调人类必须参与控制
2025-06-08 18:05
日本防卫省6月6日首次发布关于人工智能(AI)武器开发的“AI适用指南”,旨在推动AI技术应用的同时,加强对相关风险的管理。该指南明确要求在无人机等AI武器开发中落实“人类责任明确化”原则。
防卫大臣中谷元在当天的记者会上表示,依据该指南,可以在控制AI风险的同时充分发挥其优势。
此前,防卫省于去年7月制定了AI应用的基本方针,确立了包括“指挥控制”在内的七个重点领域,并强调“人类干预”的重要性。此次发布的指南在此基础上进一步明确了武器研发中使用AI的技术方向和审查机制。
根据指南内容,AI武器的研发项目将被划分为“高风险”和“低风险”两类。例如,若AI具备识别目标并自动触发导弹发射的能力,则归为“高风险”;而AI仅协助识别目标、最终由人类决定是否攻击的项目则属于“低风险”。
对于“高风险”项目,防卫省将从法律和政策层面进行可行性评估。如果项目不符合国际法或国内法律规定,或涉及人类无法干预的致命性自主武器系统,则不予推进。此外,还将设立专家小组从七个维度开展技术评估。
随着AI武器可能带来的误判问题引发全球关注,日本希望通过该指南确立AI风险管理标准,促进AI在国防领域的合理应用。
一位来自京都产业大学、研究军事国际法的专家指出,该指南符合当前国际社会普遍接受的伦理框架,具有积极意义。同时他也强调,考虑到AI技术快速演进的特性,未来必须持续加强法律层面的严格审查。