据日经亚洲报道,最近威廉希尔官方网站 的迅速发展使人工智能可以进行以前被认为是人类独特的活动。
无论是通过大型语言模型(llm)和聊天创造性地编写复杂的文件,还是以算法为基础控制和管理复杂的基础设施和信息传递,还是指挥和控制致命的自主武器,人工智能都成为许多人关注的焦点。
事实上,人工智能能够导致人类灭绝或文明崩溃的能力是再怎么强调也不过分的。
虽然夸张的语言和夸张没有帮助,减弱了实际限制的根据,但认识到不符合人类价值和利益的自我强化和自我学习形态的智能可能带来的最坏结果是非常重要的。
在中美战略竞争加剧、全球地缘政治风险加剧的时代,利害关系必然会更加复杂。作为世界上的两个大国,中美两国应该负起维护和平的责任,就控制人工智能带来的生存风险问题进行建设性合作和坦诚对话。
首先,两国应该设置警戒线,就人工智能的研究方向和部署达成协议。
中国和美国的威廉希尔官方网站 公司正在训练人工智能,使用从越来越大的数据访问差距两边衍生出的并列数据集。因此可以开发偏好和控制不同的人工智能。
这里有一个对比问题:人工智能可以被训练成符合人类使用者群体对数据源的偏好,但不会扩展到群体之外的人口统计。
尤其令人担忧的是,如果数据被细分,无论是哪个国家,都可以通过人工智能开发出比其他国家国民利益更重视本国国民利益的新目标。如果发生军事冲突,敌对反应的自动化可能会使事态迅速扩大。中美必须建立强有力的故障安全体系,抵御各自为政的人工智能领域带来的偏见。
中国国家网络信息办公室已经确定了生成式人工智能规则,将从8月开始生效。
包括双重使用人工智能的开发过程、训练方法、公共及民间参与者的潜在配置等领域的有约束力的条约,对于缓和相互期待,享受合作的实惠非常重要。
第二,中国和美国的监管机构应与欧盟、英国、以色列、日本以及其他人工智能新兴国家的监管机构合作,寻找方法的同质性。认为任何一个国家或地区都有充分的专业性来全面管理人工智能的所有方面是愚蠢的。
上月欧洲议会批准了新的人工智能法案的基本框架,其中包括明确禁止利用预测警察或街头摄像机的实时画面进行脸部识别等侵犯“基本权利或欧盟价值”的内容。
欧盟的先行精神令人感叹,但欧盟也应该明白,欧洲限制规定不足以管理全球人工智能的危险。
欧洲的软实力长期源于平衡或抵消地政学上的差异的能力。在这一领域,欧洲可以在召集有关人工智能规制的全球工作组上发挥作用。
工作组应由中国、美国、南部世界以及其他所有主要利益相关者的决策者和学者组成。工作小组的见解有助于平息中国和美国政府对人工智能的限制会削弱自己竞争力的猛烈主张。
有些人可能将1968年的《不扩散核武器条约》视为限制人工智能使用的全球模型。
但是,我们必须记住,开发强大的llm的障碍远低于制造核武器的障碍。随着开放源代码人工智能的发展,个人用户可以在很多情况下复制chatgpt的结果。与此相比,拥有核武器的国家只有9个。
第三,特别是在美国,必须谨慎处理与人工智能相关的国家和个人参与者之间的关系。中国在3月份举行的全国人民代表大会年例会议上新设了国家数据局,并改编了科学威廉希尔官方网站 部。4月,中国国家网络信息办公室发布了生成人工智能的法规草案,该草案已经更新,将于5月生效。
在这方面,美国也可以借鉴中国的经验。虽然美国的长期政策,考虑到传统全面规制的自上而下的框架实现的可能性很低,但政策决定者最符合公共利益决定的方式时,交由中国威廉希尔官方网站 的领导力会硅谷的主张不能只看这一点很重要。
为了长期确保人工智能的安全,需要更多的民官合作。英国的代表性投资者伊恩·霍加斯最近被任命为研究人工智能(ai)相关风险并考虑安全及安全标准的财团模型工作集团的会长。
仅仅调整中美两国国家行为人的利益是不够的。要想让世界突然陷入用人工智能驱动的超级大国之间的冲突,需要各方的合作。
-
人工智能
+关注
关注
1791文章
47249浏览量
238399 -
安全体系
+关注
关注
0文章
4浏览量
6411
发布评论请先 登录
相关推荐
评论