针对AI开发 G7发布国际指导原则和规范

自由交流
freemind
帖子: 3749
注册时间: 周六 3月 27, 2021 6:55 pm

针对AI开发 G7发布国际指导原则和规范

帖子 freemind »

(记者李言综合报导)七国集团(G7)周一(10月30日)为开发先进人工智能(AI)系统的公司发布国际指导原则和行为准则,以解决这一新兴技术带来的隐私问题和滥用风险。

七国集团表示,这些文件旨在“在全球范围内促进安全、可靠和值得信赖的人工智能”,并指出开发人员在利用创新机会的同时,应确保该技术的部署方式不会破坏民主价值观、助长恐怖主义或对人权构成“重大风险”。

ChatGPT等生成式人工智能工具迅速普及之际,包括日本、美国和欧盟在内的七国集团一直在讨论制定国际标准来利用该技术。

欧盟委员会欢迎七国集团领导人周一就人工智能国际指导原则(International Guiding Principles on Artificial Intelligence)和广岛人工智能(Hiroshima AI)进程下的人工智能开发人员自愿行为准则达成协议。

欧盟委员会主席冯德莱恩是签署人之一。她表示,G7国际指导原则和自愿行为准则“反映了欧盟促进值得信赖的人工智能价值。我呼吁人工智能开发者尽快签署并实施这一行为准则。”

在与原则和行为准则文件一起发布的领导人声明中,七国集团誓言要在今年年底前加快制定全面政策框架的进程,其中将包括所有人工智能参与者的整体指导原则。

日本首相岸田文雄在X(以前称为推特)上发文称,作为今年七国集团主席国,日本将“继续为制定生成式人工智能国际规则而努力”。

G7采取行动 规范AI开发和使用

生成式人工智能技术可以利用来自互联网和其它来源的大量数据,以类似人类的方式产生文字、图像或其它媒体。

七国集团在列出细节的11点原则和行为准则中,敦促人工智能开发人员采取“适当措施”,包括独立的外部测试,以识别和减轻风险。

在值得关注的风险中,七国集团指出了化学、生物和核子风险,并警告说,先进的人工智能系统可以“降低进入壁垒,包括非国家行为者的武器开发、设计获取或使用”,为虚假资讯提供便利以及威胁隐私。

此外,也鼓励各组织考虑使用赏金制度或奖金等方式鼓励第三方报告漏洞问题,并努力开发电子水印工具,使用户能够识别人工智能产生的内容。

在七国集团领导人5月同意启动“广岛人工智能进程”(以举办高峰会的日本西部城市命名)后,七国集团成员一直致力于制定人工智能相关主题规范,以避免该技术被滥用。

欧洲议会于6月通过世界上第一部全面人工智能法案草案。

同样在周一,白宫发布一项备受期待的人工智能全面行政命令,重点是获取这一新兴技术的优势并管理其风险。同时,为大力引进全球专业人才创造条件。

周一的行政令标志着拜登政府对人工智能产业实施国家秩序最重要的努力。

副总统贺锦丽本周将出席在英国举行的人工智能全球高峰会。主持此次峰会的英国首相苏纳克表示,只有政府才能应对人工智能带来的风险。

共同社报导,日本计划在七国集团指导原则和行为准则的基础上制定自己的国内指导方针。

七国集团包括英国、加拿大、法国、德国、意大利、日本和美国,欧盟是非正式成员。
freemind
帖子: 3749
注册时间: 周六 3月 27, 2021 6:55 pm

Re: 针对AI开发 G7发布国际指导原则和规范

帖子 freemind »

防AI失控 多国政府拟定相关限制

(记者吴瑞昌报导)英国首相苏纳克(Rishi Sunak)10月26日就人工智能(AI)问题在伦敦发表演讲。他先是肯定AI在医疗保健等领域上拥有极高的潜力,不仅能诊断失明,还可以预测心脏病、中风或帕金森氏症等。

不过,苏纳克就AI的问题对民众发出严重警告。他说,“人类可能会完全失去对AI的掌控,那将会带来极其严重的后果。因为AI就像每一波科技浪潮一样,会带来新的知识,但也会带来新的危机和恐惧。”

他还提到,“恐怖分子和犯罪组织可能会利用AI,制造出杀伤力强大的生化武器、网络攻击、传播虚假资讯、诈欺甚至儿童性虐待。”

不过,苏纳克认为,只要政府做好监管和控制,AI就不会导致人们出现危险。他说,“目前政府已经投资1亿英镑,组建新的监管AI工作小组,用于保证民众的安全。”

苏纳克强调,“AI没有国界之分,需要更多国家、高科技公司代表和民间社会参与英国举行的‘全球首届AI安全高峰会’,共同商讨应对AI带来的风险,确保AI系统在发布之前是安全的。”

另外,英国政府在10月25日发布《AI能力与风险》报告提到未来的18个月内(2025年)黑客、诈骗者和恐怖分子可以利用AI以更便宜、更容易地方式攻击无辜受害者。

人类越来越依赖AI的决策

人类除了担心别有用心的人利用AI做坏事,还担心依赖AI的问题。许多人把诸多重要的决策和控制权交给AI来处理的问题,例如:网球比赛中的判定,法院裁判权、或者网购和仓储系统、重要的国家决策和科学研究等。

这种依赖可以从英国首相的演讲听到。当时苏纳克提到,英国政府投资近25亿英镑购买量子电脑,用于AI研究和政府业务上。原因是AI可以为人类生活上的问题,提供一百万种不同的解决方法,而这台量子电脑比世界上最快的超级电脑要快上数亿倍。

许多人,包括科学家都担心,若人们继续毫无限制地发展和依赖AI,恐产生人类难以收拾的场面,而数据公司丰富(Profusion)的执行长娜塔莉·克兰普(Natalie Cramp)也表达了对AI的担忧。

她认为AI并非万无一失,未来极有可能出现《魔鬼终结者》等电影中描绘的人类末日情况,把人类视为消除的对象。目前,AI短期的危险在军事应用上,因为AI可以远端控制无人机或机器人,但它们可能做出伤害人类的行动。

实际上,克兰普讲的早已成为现实,如美国研发的F-16无人战斗机、以色列士兵装备的“智能射手”、俄乌战场上使用的AI无人机。另外,美国空军6月在一次AI模拟测试中,发现一架负责摧毁敌方设施的AI无人机,不仅拒绝操作员中止任务的命令,还透过“杀害”操作员去完成任务。

AI能力已超乎想像

许多高科技公司希望结合“云计算”、“大数据库”和更强运算力“GPU芯片”打造更强大的AI,但人们担心这可能会让AI产生自我“意识”或在发生严重故障和问题时,会造成无法挽回的后果。

美国著名的西北大学(Northwestern University)的一个研究团队10月初在《美国国家科学院院刊》中发表一篇关于AI能够高效率地自动设计机器人的论文。这款AI拥有近乎让人们感到恐惧的“设计能力”,只要在轻型个人电脑上运行,且无需使用庞大的数据库或超级电脑。

该团队表示,只需要使用者对它下达类似“设计一个可以在平坦表面上行走的机器人”这种简单指令,AI就能在短短几分钟内设计出符合需求的机器人。这种能力是人类和过去的AI无法轻易办到,因为他们需要花费大量的时间进行训练和研发才能够完成。

对此,日本高科技公司社长德森翔(Sho Tokumori)10月28告诉,“AI看似能够突破人类固有的观念和限制,带来更多的可能性,但也会出现人类无法预料的情况,最终脱离人类的掌控并走向未知的方向,这是很危险的。”

麻省理工学院物理学家兼AI专家马克斯·泰格马克(Max Tegmark)曾多次表示,人类能让渡渡鸟等“低等”物种灭种,若出现一个比人类更强大、更聪明的人工智慧“物种”,那时将会有超过50%的人类面临相同的命运。

苏纳克演讲中提到的AI创造生化武器的技术很容易被恐怖分子操纵来寻找有毒的神经毒剂。此前,英国药理学家肖恩·埃金斯(Sean Ekins)在《未知:杀手机器人》(unknown:Killer Robots)纪录片中讲述,AI如何可在一夜之间创造(计算)出四万多个全新且极其致命的化学武器分子。

各国政府开始重视AI带来的问题

不仅是英国首相对AI感到担忧,联合国秘书长安东尼欧·奥古特雷斯(António Guterres)和日本首相岸田文雄也在10月份表达出相同的担忧。他们希望创立新的AI规则和应对小组,去应对AI在未来带来的风险和挑战。

让他们紧张的主要原因,是一些别有用心的人滥用生成式AI,在网上发布大量虚假的图片和消息或进行诈骗等,这可能导致社会出现大面积的混乱。

奥古特雷斯在10月26日的AI发展和风险的新闻发布会上表示,虽然AI能够带来进步,但也会被恶意使用,从而削弱民主社会的凝聚力和稳定。他宣布,成立联合国的AI咨询机构,用来应对AI快速发展所带来的风险和好处,该机构已选中30个国家的39人加入,大多来自大科技公司的工程师和教授。

日本首相岸田文雄在10月9日也曾表达过担忧。他表示,许多证据指出,生成式AI会带来虚假信息,从而引发社会混乱和威胁社会经济,因此有呼声要求政府在“推动”与“监管”之间取得平衡。

为此,他公布了G7为开发者制定了生成式AI的标准政策。该政策要求开发者必须公开系统功能和风险讯息,以确保人工智慧的透明度。未来会透过一种识别网路上资讯原始发布者的数位技术的“始发者档案(OP)”完成,同时在10月底制定“AI基础设施技术发展”的新措施,强化日本的数据处理系统。

这次岸田文雄公布的规定,可以说是回应了日本新闻协会、日本杂志协会、日本摄影著作权协会、日本书籍出版协会在8月17日共同要求日本政府正视AI、修改法律和限制AI被滥用的可能。

目前,美国正准备立法以更好地控制AI技术。特斯拉的CEO马斯克(Elon Musk)9月在美国国会山举行的一次私人聚会上对参议员和记者们表示,AI对整个社会构成了“文明风险”,我们必须采取积极的反应,而不是被动,原因是AI出错的后果是“严重的”。

德森翔表示,“现在正值需要制定有关于AI的国际规范。虽然AI是一种工具,但它的使用取决于人的道德规范,因此在AI尚未脱离人类的掌控之前,规范出AI的开发标准,可能是最佳时机。”

不过,日本的电脑工程师清原仁(Kiyohara Hitoshi)10月28日告诉大纪元,“目前政府部门或组织制定的政策,可能难以解决实质的问题,因为法律很难真正约束到坏人。另外,人们在完善AI的过程,可能需要付出很大的代价,除非叫停AI或人们的道德水准出现提高,才能有效解决根本问题。”
freemind
帖子: 3749
注册时间: 周六 3月 27, 2021 6:55 pm

Re: 针对AI开发 G7发布国际指导原则和规范

帖子 freemind »

白宫颁布全面行政令 规范人工智能系统开发

(记者李言综合报导)拜登总统周一(10月30日)发布了一项备受期待的人工智能(AI)全面行政命令,重点是获取这一新兴技术的优势并管理其风险。同时,为大力引进全球专业人才创造条件。

该行政命令包括几项新行动,重点关注安全、隐私、保护工人和保护创新等领域。在人工智能迄今为止监管有限,而能力和普及度迅速提高之际,这一行政令是政府为人工智能设定参数的最新举措。

一位政府官员表示,该命令适用于拥有最强大人工智能系统的公司,无论这些公司是否与联邦政府合作。ChatGPT在不到一年前推出,并以其类似人类的能力和知识震惊用户。周一的行政令标志着拜登政府对人工智能产业实施国家秩序的最重要努力。

OpenAI、Alphabet和 Meta Platforms等人工智能公司先前自愿同意承诺对人工智能生成的内容添加水印,以使技术更加安全。

根据白宫情况说明书,拜登新的行政令比这些承诺更进一步。

它要求对美国国家安全、经济、公共卫生或安全构成风险的人工智能系统开发商在向公众发布之前,根据《国防生产法》与美国政府分享安全测试结果。

据白宫称,它还指示各机构制定测试标准,并解决相关的化学、生物、放射性、核子和网络安全风险。

白宫在情况说明书中表示,为了确保政府沟通清晰,商务部将为人工智能产生的标签项目“制定内容认证和水印指南”。

白宫副幕僚长布鲁斯‧里德(Bruce Reed)称,该命令还深入探讨了隐私、住房歧视和工作岗位流失问题,是任何政府为确保人工智能安全而采取的“最强有力的一系列行动”。

他在一份声明中表示:“这是积极战略的下一步,即在各方面尽一切努力利用人工智能的优势并降低风险。”

该命令指示联邦机构加速技术开发,以便在训练人工智能系统的同时保护训练资料的隐私。该命令还将评估各机构如何收集和使用包含个人资料的商业资讯。

一位高级政府官员对记者表示,该行政命令具有法律效力,白宫认为国会的立法行动对于人工智能治理也是必要的。

白宫表示,拜登特别呼吁国会通过资料隐私立法。

同一天,七国集团(G7)宣布了开发先进人工智能系统公司的行为准则。

这一举措旨在“在全球范围内促进安全、可靠和值得信赖的人工智能”,并指出开发人员在利用创新机会的同时,应确保该技术部署方式不会破坏民主价值观、助长恐怖主义或对人权构成“重大风险”。

“人才永远不会太多”

美国官员警告说,人工智能可能会增加偏见和侵犯公民权利的风险。白宫在新闻稿称,拜登的行政命令试图通过呼吁向房东、联邦福利计划和联邦承包商提供指导来解决这一问题,“以防止人工智能算法被用来加剧歧视”。

为了支持工人,该命令制定了相关原则和“最佳实践”,通过解决工作替代(失业)、劳工标准和数据收集等问题,减轻人工智能为工人带来的危害并最大限度地提高其效益。

该行政令还将利用现有当局,通过简化签证标准和面试,扩大在这些关键领域拥有专业知识的高技术移民和非移民在美国学习、居留和工作的能力。

此外,白宫还推出AI.gov。这是一个为想要在联邦政府处理人工智能问题的求职者提供的网站。这位官员表示,他们希望将人工智能专家纳入联邦劳动力队伍,因为“人工智能人才永远不会太多”。

该行政命令旨在让美国在人工智能领域发挥引领作用,并提升美国在新兴科技领域的全球领导地位。副总统贺锦丽将于周二前往英国,出席人工智能全球高峰会,就美国的人工智能愿景发表演讲。

预计中共也将派代表出席此次由英国首相里希‧苏纳克(Rishi Sunak)主持的会议。

苏纳克表示,只有政府才能应对人工智能带来的风险。他表示这项技术可以让制造化学或生物武器变得更容易,传播恐惧,在更糟糕的情况下,还可以逃脱人类的控制。

(本文参考了路透社和国会山报相关报导。)
回复