中国和美国参与多边协议,合作应对人工智能风险

中美携手参与多边协定,共同应对人工智能风险

地球在城市背景下

包括中国和美国在内的28个国家已经同意共同努力,识别和管理”前沿”人工智能(AI)潜在风险,这是首个此类多边协议。

英国发表了《AI安全布莱切利宣言》,其中包括国家承认”紧迫需要”确保AI以”安全、负责任的方式”为全球社会造福。根据该宣言,这项努力需要更广泛的国际合作,已得到亚洲、欧盟和中东等地的国家认可,包括新加坡、日本、印度、法国、澳大利亚、德国、韩国、阿拉伯联合酋长国和尼日利亚。

此外:生成AI可以帮助低代码进化为无代码-但有一个转折

这些国家认识到,有意滥用或无意控制前沿AI可能带来重大风险,特别是来自网络安全、生物技术和虚假信息的风险。宣言指出,AI模型可能导致严重和灾难性的伤害,同时还存在与偏见和隐私相关的风险。

除了认识到风险和能力仍然不完全被了解,各国还同意合作建立对前沿AI风险的共同的”基于科学和基于证据的理解”。

此外:开发人员学习生成AI的详细信息,非开发人员将紧随其后

宣言将前沿AI描述为包括”高度能力的通用AI模型”在内的系统,包括能够执行各种任务的基础模型以及特定的、狭窄的AI。

宣言表示:”我们决心共同努力确保以人为中心、值得信赖和负责任的AI,它是安全的,并通过现有的国际论坛和其他相关倡议支持所有人的利益。”同时,宣言还指出:”在这样做的过程中,我们认识到各国应考虑到以创新为导向、相称的治理和监管方式的重要性,以最大限度地发挥其益处,并考虑与AI相关的风险。”

这种方法可能包括基于各国的本地情况和适用法律框架的风险分类和归类的建立。还可能需要在新的方法上进行合作,例如共同原则和行为准则。

此外:<a href="/?s=英国技术大臣米歇尔·多内兰(Michelle+Donelan)补充道:“我们一直说过,没有任何一个单个国家能够单独面对人工智能所带来的挑战和风险,而今天这一具有里程碑意义的宣言标志着全球合作努力的新开端,旨在通过确保人工智能的安全发展来建立公众信任。”本周还宣布了一项由新加坡领导的名为“沙盒”的计划,旨在提供一套标准基准来评估生成式人工智能产品。该计划整合了包括Anthropic和Google在内的主要全球参与者的资源,并由一个将当前基准和用于评估大型语言模型的方法进行分类的草稿目录指导。另外:生成式人工智能的伦理问题:如何利用这一强大技术该目录编制了常用技术测试工具,根据其测试内容和方法进行分类,并推荐一套基准测试来评估生成式人工智能产品。其目标是建立一个共同的语言,并支持“更广泛、更安全和可信赖的生成式人工智能采用”。联合国(UN)上个月成立了一个咨询团队,以探讨人工智能应该如何治理以减轻潜在风险,承诺采取“全球包容”的方式。该机构目前由39个成员组成,包括来自政府机构、私营组织和学术界的代表,例如新加坡政府的首席人工智能官员、西班牙的数字化和人工智能国务秘书以及OpenAI的首席技术官。" p="" 这是一个具有里程碑意义的成就,世界上最重要的ai大国就理解ai风险的紧迫性达成一致。"

英国技术大臣米歇尔·多内兰(Michelle Donelan)补充道:“我们一直说过,没有任何一个单个国家能够单独面对人工智能所带来的挑战和风险,而今天这一具有里程碑意义的宣言标志着全球合作努力的新开端,旨在通过确保人工智能的安全发展来建立公众信任。”

本周还宣布了一项由新加坡领导的名为“沙盒”的计划,旨在提供一套标准基准来评估生成式人工智能产品。该计划整合了包括Anthropic和Google在内的主要全球参与者的资源,并由一个将当前基准和用于评估大型语言模型的方法进行分类的草稿目录指导。

另外:生成式人工智能的伦理问题:如何利用这一强大技术

该目录编制了常用技术测试工具,根据其测试内容和方法进行分类,并推荐一套基准测试来评估生成式人工智能产品。其目标是建立一个共同的语言,并支持“更广泛、更安全和可信赖的生成式人工智能采用”。

联合国(UN)上个月成立了一个咨询团队,以探讨人工智能应该如何治理以减轻潜在风险,承诺采取“全球包容”的方式。该机构目前由39个成员组成,包括来自政府机构、私营组织和学术界的代表,例如新加坡政府的首席人工智能官员、西班牙的数字化和人工智能国务秘书以及OpenAI的首席技术官。