0 卖盘信息
BOM询价
您现在的位置: 首页 > 电子资讯 >业界动态 > 欧盟和美国采取行动解决人工智能伦理问题

欧盟和美国采取行动解决人工智能伦理问题

来源: eetasia
2023-02-15
类别:业界动态
eye 10
文章创建人 拍明芯城

  欧盟的AIA将是世界上第一个对人工智能的横向监管。

  美国和欧盟被数千英里的大西洋所分割,它们监管人工智能的方法同样广泛。形势也是动态的,美国方面的最新变化将于今天推出 - 大约在欧盟采取重大举措七周后。

  大西洋两岸的赌注都很高,其影响与确定监禁判决和选择谁被雇用一样不同。

  欧盟的《人工智能法案》(AIA)于12月6日获得欧盟理事会批准,最早将于3月由欧洲议会审议,该法案将在基于风险的层次结构下监管人工智能应用、产品和服务:风险越高,规则越严格。

  如果获得通过,欧盟的AIA将成为世界上第一个横向的AIA,涵盖所有行业和应用。人工智能的监管.

  相比之下,美国没有专门针对 规范人工智能的使用,而是依靠现有的法律、蓝图、框架、标准和法规,这些法律、蓝图、框架、标准和法规可以拼接在一起,以指导人工智能的道德使用。然而,虽然企业和政府可以受到框架的指导,但它们是自愿的,不会为那些在使用人工智能对付他们时受到伤害的消费者提供任何保护。

  除了联邦行动的拼凑之外,地方和州政府正在制定法律来解决就业中的人工智能偏见,如纽约市和整个加利福尼亚州,以及科罗拉多州的保险。新闻媒体上没有出现任何拟议或颁布的地方法律来解决在监狱中使用人工智能或监狱判决的问题。然而,在2016年,威斯康星州男子埃里克·卢米斯(Eric Loomis)起诉该州六年监禁未成功,该判决部分基于人工智能软件。 《纽约时报》报道.Loomis辩称,他的正当程序权利受到侵犯,因为他无法检查或质疑软件的算法。

  “我想说我们仍然需要联邦政府的基础,”DataRobot的全球人工智能伦理学家Haniyeh Mahmoudian告诉EE Times。“围绕隐私的事情,几乎每个美国人都有权享有,这是联邦政府应该照顾的事情。

  


  Elham Tabassi(来源:NIST信息技术实验室)

  最新的国家指南预计将于今天由美国国家标准与技术研究院(NIST)发布。

  NIST的自愿框架旨在帮助美国组织管理可能影响美国个人,组织和社会的AI风险。该框架通过将可信度考虑因素(例如可解释性和减轻有害偏见)纳入人工智能产品、服务和系统来实现这一目标。

  “在短期内,我们想要做的是培养信任,”NIST信息技术实验室参谋长Elham Tabassi说。“我们通过了解和管理人工智能系统的风险来做到这一点,以便它可以帮助保护公民自由和权利,提高安全性,同时为创新提供和创造机会。

  从长远来看,“我们谈论框架是装备人工智能团队,无论他们主要是设计,开发或部署人工智能的人,从考虑风险和影响的角度思考人工智能,”NIST研究科学家Reva Schwartz说。

  


  Reva Schwartz(来源:NIST信息技术实验室)

  在NIST框架发布之前,乔·拜登总统领导下的白宫于10月发布了“人工智能权利法案蓝图”。它列出了五项原则来指导人工智能的道德使用:

  系统应该是安全有效的。

  算法和系统不应该歧视。

  人们应该受到保护,免受滥用数据行为的侵害,并控制他们的数据的使用方式。

  自动化系统应该是透明的。

  选择退出人工智能系统以支持人为干预应该是一种选择。

  拜登的轻监管方法似乎遵循 轻触调节 受到他的前任的青睐。

  不要等待立法

  美国没有人工智能法律,因为技术变化如此之快,以至于立法者无法确定足够长的时间让他们制定立法,律师事务所DLA Piper的合伙人Danny Tobey告诉EE Times。

  


  丹尼·托比(来源:欧华律师事务所)

  “每个人都在制定框架,但很少有人会制定你可以计划的硬性规定,”他说。“我们被承诺了人工智能权利法案,但我们得到了一个没有法律效力的'人工智能权利法案蓝图'。

  托比认为,全球监管提案围绕第三方审计和影响评估保持一致,以测试基于人工智能的应用程序的安全性、非歧视性和道德人工智能的其他关键方面。他说,这些是公司已经可以使用的工具。

  “解决方案是让公司甚至在立法最终确定之前就开始测试这些预期标准的人工智能技术,旨在构建面向未来、合规的人工智能系统,以预测即将到来的法规,”他说。

  欧盟至少有一家公司与托比的想法一致:总部位于荷兰的恩智浦半导体公司已经开发了自己的公司。 人工智能伦理倡议.

  美国需要特定的人工智能法律吗?

  难道美国已经有了保护公众免受人工智能不道德使用所需的法律吗?

  9月,美国证券交易委员会主席加里·根斯勒(Gary Gensler)在麻省理工学院人工智能政策论坛峰会上谈到了这个问题,探讨了围绕人工智能部署的政策挑战。

  “通过我们的立法机构,我们通过了保护公众的法律,”他说。“这是安全,健康,投资者保护,金融稳定。这些仍然是久经考验的真正公共政策。

  他说,与其认为我们需要一部新法律,因为我们有一个新的工具——人工智能——立法者和其他人应该关注现有法律的适用方式。

  美国证券交易委员会着眼于现有的投资者保护法,而银行业的必然结果是《平等信贷机会法》。《公平住房法》保护人们在申请抵押贷款时免受歧视。

  自我监管是答案吗?

  Diveplane的领导者是人工智能驱动的商业和国防软件开发商,他们想要拜登的蓝图,欧盟的AIA等等。

  


  迈克·卡普斯(来源:潜水飞机)

  “这将有助于保护消费者,”Diveplane的总法律顾问兼首席法务官Michael Meehan告诉EE Times。“人们认为这与公司可能想要的背道而驰。但事实是,包括潜水飞机在内的大多数公司都需要指导。

  米汉指出,这两个政府都没有在人工智能法律或法规中规定“安全港”来降低用户的风险。

  安全港是法律中的一项规定,如果满足某些条件,则给予保护,免于惩罚或承担责任。例如,如果一个正确实施的、基于实例的人工智能贷款审批系统检测到偏见,它可以标记问题以供人工审查。

  Diveplane首席执行官迈克·卡普斯(Mike Capps)也欢迎监管,但他也是该行业自我监管的支持者。

  为了说明原因,他指出了美国的患者隐私法。1996 年健康保险流通与责任法案 (HIPAA) 为从医疗记录中擦除识别信息的用户提供了一个安全港。不幸的是,将清理过的数据库与另一个数据宝库交叉引用可以帮助梳理出应该匿名的人的身份。

  这可能是20世纪立法者没有预料到的。

  “如果你对当今计算机的工作方式设定一些硬性的东西,你就没有能力适应......当你写它时不存在的技术,“卡普斯说。

  根据其网站,这种想法促使Diveplane共同创立了数据与信任联盟,这是一个非营利性联盟,其成员“学习,开发和采用负责任的数据和人工智能实践”。卡普斯是联盟领导委员会的成员,与NFL,CVS Health和IBM等实体的代表一起。

  该小组正在制定道德人工智能的标准。

  “这些规则将继续改变和发展,因为它们必须这样做,”卡普斯说。“我会把它写成法律吗?不,我肯定不会,但我肯定会把它看作是一个例子,说明如何建立一个灵活的系统来最大限度地减少偏见。

  Mahmoudian表示,随着新数据的出现,欧盟AIA有语言重新审视分配给申请的风险级别。她说,这在Instagram这样的案例中很重要,例如,Instagram曾经被认为是无害的,但在发病几年后被证明会对青少年的心理健康产生负面影响。

  本文最初发表于 电子电气时报.

  Ilene Wolff是一名自由撰稿人,在技术和工程方面拥有丰富的经验。她为各种出版物做出了贡献,包括《智能制造》杂志、《制造工程》杂志、《安娜堡观察家》、《DBusiness》杂志和《克莱恩的底特律商业》。



责任编辑:David

【免责声明】

1、本文内容、数据、图表等来源于网络引用或其他公开资料,版权归属原作者、原发表出处。若版权所有方对本文的引用持有异议,请联系拍明芯城(marketing@iczoom.com),本方将及时处理。

2、本文的引用仅供读者交流学习使用,不涉及商业目的。

3、本文内容仅代表作者观点,拍明芯城不对内容的准确性、可靠性或完整性提供明示或暗示的保证。读者阅读本文后做出的决定或行为,是基于自主意愿和独立判断做出的,请读者明确相关结果。

4、如需转载本方拥有版权的文章,请联系拍明芯城(marketing@iczoom.com)注明“转载原因”。未经允许私自转载拍明芯城将保留追究其法律责任的权利。

拍明芯城拥有对此声明的最终解释权。

标签: 人工智能

相关资讯