由机器做出独立决策可能会产生全球威胁
库宾卡(莫斯科地区)。 8月22日 国际文传电讯社-军事事务中使用人工智能(AI)需要制定特殊的安全规则,以抵消这种工具失控的人可能造成的后果,军事医学科学院系主任亚历山大*菲
"目前,武装部队的AI正在迅速发展,这需要制定特殊的安全规则,因为很快一个自主的AI将能够在单独的军事装备单位和整个国家安全系统的全球一级就使用毁灭性武器做出独立决定。 具有自我意识能力的AI将有可能被人们失控,这将对整个人类造成重大威胁,"Fisun说。
据他介绍,"绝对有必要对人工智能的军事使用也不断受到特殊控制,并排除任何AI自治的可能性。"虽然看起来很明显,人类的未来与AI有着千丝万缕的联系,但现在有必要配置与它的交互,这样很快就会出现梦幻般的反乌托邦场景,不会成为人类悲伤的现实,"Fisun强调。
他还指出,最成功的AI应用程序严重依赖于大数据,这本身就会产生巨大的隐私问题。
"大数据可能包含机密信息,因此应该得到充分的保护。 人工智能的发展速度远远快于道德原则以及监管和安全协议,这些协议与这种不断的进步没有跟上。 公司正在传播人工智能安全和道德自律的想法,但考虑到企业世界优先考虑的利润机会与不可避免地与道德规范和安全规则相关的提取限制之间
此外,他指出,在不久的将来,它可能会变成有可能自我调节AI,当管理问题将被分配给它自己,这实际上将使它自治。 一个显着的问题可能是人们需要AI远远超过AI需要人。 "在这方面,可能会证明人类将在AI的控制下成为自己世界中的二等物种,"Fisun说。