大参考

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 366|回复: 0

不损害人工智能创新的十项监管原则

[复制链接]
发表于 2023-3-17 20:50:38 | 显示全部楼层 |阅读模式
  信息技术与创新基金会(ITIF)2月8日近日发表题为“不损害人工智能创新的十项监管原则”,主要内容如下:

  人工智能(AI)有潜力创造许多重大的经济和社会效益。但是,对这项技术的担忧促使政策制定者提出了各种法律法规来创造“负责任的人工智能”。然而,许多提议可能会损害人工智能创新,因为很少有人考虑“负责任的人工智能监管”需要什么。这份报告提出了十条原则,以指导政策制定者起草和评估不损害创新的人工智能监管提案。

  随着人工智能(AI)的不断改进,利用该技术提高生产率和生活质量的机会将在许多经济领域蓬勃发展,包括医疗卫生、教育、交通等。作为回应,政策制定者提出了各种各样的法规,以解决对这一波即将到来的人工智能系统可能造成伤害的担忧。最小化人工智能系统的潜在危害是一个重要的目标,但最大化人工智能系统的潜在利益也是如此。实施这些提议中的许多想法,特别是以其当前的形式,可能会产生严重的后果,因为人工智能的许多潜在好处——包括利用该技术拯救生命和提高生活水平的机会——可能会因制定不当的监管而被推迟或剥夺。

  政策制定者希望人工智能系统不会造成伤害,但他们没有掌握创造不伤害人工智能创新的法规的艺术。如果政策制定者认为监管是必要的,那么为了避免减缓人工智能创新和采用,他们应该遵循以下十条原则:(1)避免亲人类的偏见。(2)调节绩效,而不是过程。(3)。监管部门,而不是技术。(4)避免AI目光短浅。(5)精确定义AI。(6)实施现有规则。(7)确保收益大于成本。(8)优化法规。(9)平等对待公司。(10)寻求专业知识。

  一、人工智能监管原则

  人工智能法规的动机各不相同。有些是出于合理的安全考虑,例如确保自动驾驶汽车不会对乘客或行人造成不必要的风险,或者基于人工智能的医疗设备按预期工作。一些人的动机是担心政府会使用人工智能系统入侵监视其公民。还有一些人是出于更模糊的担忧,即人工智能系统可能不够“道德”、“可信”或“以人为中心”。

  监管是手段,不是目的。因为监管会限制创新,决策者应该总是探索非监管选项来实现他们的目标。例如,行业自我监管或行为守则可能证明与自上而下的监管同等有效或更有效。

  这些“软法律”方法通常优于“硬法律”的一个原因是,私营部门通常可以比立法者和监管者更快地制定和实施新规则,并根据不断变化的条件更新这些规则。鉴于技术行业的快速变化,尤其是人工智能,这种灵活性和敏捷性使行业团体能够迅速应对新出现的威胁。

  政策制定者在为人工智能制定法规时应该牢记十条关键原则,以免阻止或阻碍创新。下面将更详细地解释其中的每一个原则。

  1.避免亲人类的偏见

  决策者不应该歧视人工智能;人工智能系统应该和人类保持同样的标准。一般来说,如果一件事对人类来说是合法的,那么它对人工智能系统来说也应该是合法的。例如,如果保安人员验证进入建筑物的人的身份是合法的,那么使用人工智能系统来做同样的事情应该是合法的。禁止或惩罚公司使用人工智能系统而不是人类来完成任务,会抑制技术的使用。惩罚可以采取不同的形式,但包括让人工智能系统达到更高的标准,或者在使用人工智能之前,公司必须满足额外的义务。相反地,如果一件事对人类来说是非法的,那么对人工智能系统来说也应该是非法的。例如,如果销售某件艺术品或音乐侵犯了他人的知识产权,那么是人类还是人工智能系统制作了该作品就无关紧要了。

  亲人类偏见的一个示例是对提供服务的职业许可的排他性要求,例如在医疗卫生和法律领域,当可以提供类似的人工智能服务时。职业许可证旨在通过限制从业人员来保护消费者。然而,医疗许可委员会或州律师协会——由该领域的专业人士组成,他们可能不想与人工智能系统竞争——可以阻止组织提供人工智能服务,即使这些服务的表现与获得许可的专业人士一样好,甚至更好,因为人工智能系统无法获得执业许可。例如,大多数州律师协会限制非律师提供法律服务,从而限制了基于人工智能的法律工具的发展。

  2.调整绩效,而不是过程

  为了解决对安全性、有效性和偏见的担忧,监管者应该监管人工智能系统的性能,而不是制定公司必须遵循的具体流程和方法的规定性规则。为人工智能系统建立基于性能的指标,让消费者、企业和政府有机会更好地比较不同系统的性能,并设定最低性能要求。比如,监管者不应该制定严格的基于合规的规则,比如要求贷款人使用不同的数据集来训练他们的信用评分模型,而是应该制定基于绩效的规则,比如要求贷款人验证他们的信用评分模型能够准确评估所有受保护个人类别的风险。允许企业确定实现预期目标的最佳方式,这给了它们最有效地遵从所必需的灵活性。此外,基于绩效的监管可以确保企业达到预期目标,而不是简单地在合规措施列表上打勾。

  3.监管部门,而不是技术

  由于决策者无法预测人工智能的所有未来用途,一些人建议监管技术本身,而不是具体用途。但人工智能是一种通用技术,有许多潜在的应用。正如厨师、士兵和外科医生手中的刀是不同的,人工智能的风险和收益也取决于如何使用它。监管机构在不同的部门对刀进行不同的处理,例如为医院使用的解剖刀、用于食物准备的厨刀和工业应用中电动工具上的刀片创建独特的工作场所安全标准。同样,如果需要规则,决策者应该为特定部门的特定人工智能应用创建狭隘的规则,如医疗卫生和交通,而不是人工智能本身。驾驶汽车的人工智能系统应该与股票自动交易或诊断疾病的系统区别对待,即使它们使用类似的底层技术。强迫所有部门对人工智能使用相同的规则可能会对一些部门施加过多或重复的要求,而对其他部门提供不足分的要求。为特定的人工智能应用程序创建规则,允许对特定行业有更深入专业知识的监管机构为人工智能应用程序设置适当的规则。例如,保险监管机构可能已经考虑了如何应对难以理解的信用评分模型带来的风险,因此保险公司是否使用机器学习模型无关紧要。

  4.避免AI目光短浅

  促使人们呼吁监管人工智能的许多担忧实际上与人工智能无关。例如,白宫颁布的《人工智能权利法案蓝图》列出了一些问题,如招聘做法和信用评分中的偏见,当不利结果发生时缺乏追索权,以及消费者隐私不足。然而,这些问题都不是人工智能独有的。监管者应该专注于解决更广泛的问题,而不仅仅是涉及人工智能的那部分问题。监管机构的目标永远不应该是解决,例如,只涉及人工智能的有偏见的招聘实践,而是所有有偏见的招聘做法。此外,狭隘地将人工智能作为一个问题来关注,忽略了将人工智能作为解决方案的一部分的机会,例如考虑人工智能的使用如何能够为现有的招聘实践注入更多客观性,并减少人类偏见。

  但是,许多人专注于人工智能,而忽视了更大的远景。这种短视行为分散了解决整个问题的持续努力,并可能使那些一直致力于更广泛问题的人靠边站,同时将有限的公众和媒体注意力集中在问题相对较小的部分。例如,对人脸识别技术导致的错误逮捕的担忧占据了许多新闻标题和政策辩论,包括国会听证会,忽视了可能会减少国内非法逮捕数量的更广泛的警察改革问题。同样,禁止执法机构使用人脸识别的举措肯定会阻止该技术用于任何非法逮捕,但它不会解决更大的非法逮捕问题。通过将人工智能与问题的其他部分分开处理,它忽略了人工智能作为解决方案的一部分的潜在作用。

  5.精确定义人工智能(AI)

  政策制定者应该认真定义人工智能,以避免无意中将其他软件和系统纳入新法规的范围。人工智能涵盖了广泛的技术,并集成到许多硬件和软件产品中。

  如果政策制定者只想监管无法解释的机器学习或深度学习系统,他们就不应该在监管中使用广泛的人工智能定义。例如,欧盟的人工智能法案最初包含了如此广泛的人工智能定义,以至于Microsoft Excel等基本电子表格软件很可能属于其范围。在法规中使用太广泛的AI定义会给那些开发或部署集成基本分析或自动化的产品和服务的人带来巨大的成本。使用清晰明确的AI定义可以避免市场的不确定性。

  6.实施现有的规则

  AI不会免除组织遵守规则。许多法律和法规,如涉及工人安全、产品责任、歧视等的法律和法规,无论是否涉及AI都适用。在这些情况下,通常不需要针对人工智能的新法规。例如,公司必须遵守禁止雇佣歧视的法律,无论在决定雇佣某人时是涉及人还是计算机。同样,贷款人必须遵守公平贷款规则,不管他们是否使用人工智能系统来评估信用风险。为了应对对人工智能的担忧,监管机构应该解释他们将如何执行关于使用新兴人工智能产品和服务的现有法规,为采用这些工具的人提供指导,并就任何潜在的担忧领域寻求公众反馈。事实上,美国平等就业机会委员会和消费者金融保护局等机构最近已经宣布了办法,利用他们现有的权力和使命来解决算法公平性的问题。

  7.确保收益大于成本

  为了产生净积极影响,任何监管干预的好处都应该大于成本。在考虑成本时,决策者应该不仅要考虑直接的合规成本,还要考虑间接的生产率、创新和竞争力成本,例如利用新兴技术实现社会和经济效益的机会减少,以及国内企业将这些技术推向市场的投资减少。但是,技术监管的这些间接成本可能是巨大的,甚至超过直接合规成本。考虑这些成本似乎是显而易见的,但政策制定者往往很少关注技术监管的成本,尤其是当他们认为(往往是错误的)监管必然会刺激创新,因此成本分析是多余的。例如,欧盟委员会发言人回避了关于人工智能法案经济成本的问题,称几乎没有证据表明该法律“将通过增加用户的信任来促进人工智能的吸收,从而增加需求,并为人工智能提供商进入更大的市场提供法律确定性。"

  一些政策制定者忽视监管成本的一个原因是,他们认为与某些基本权利相比,成本无关紧要。例如,欧盟对《人工授精法》的影响评估打消了人们对该法可能将某些产品挡在市场之外的担忧。在考虑对一个假设的基于人工智能的招聘软件的影响时,影响评估指出,“尊重有关的基本权利(在这种情况下:不歧视)胜过经济活动的损失。”但这种肤浅的评估忽略了一个显而易见的可能性:人工智能招聘软件的使用可能会通过对求职者进行更客观的评估来减少招聘中现有的歧视。当考虑所有成本时,监管的净影响可能是负面的,尤其是如果设计不当的话。

  8.优化法规

  即使监管有净积极影响,决策者仍应努力实现利益最大化和成本最小化。通常有多种方法可以达到相同的结果,因此决策者的目标应该是找到实现监管目标的最有效方法。不必要的监管成本导致企业将资金从其他业务活动转移到合规性上,这让消费者的处境更糟。

  那些支持新法律法规的人通常不愿意讨论他们的成本,因为承认这些成本会阻碍对他们提案的支持。然而,忽视成本或对提高成本的人采取敌对态度会造成一种与如何改进政策提案的建设性对话背道而驰的政策环境。此外,立法往往要经过多轮修订,而决策者往往不会更新其影响评估。

  9.平等地对待公司

  政策制定者应该平等对待所有的公司,创造一个公平的竞争环境。政策制定者经常建议将小型企业从他们的立法提案中豁免,因为他们认识到他们的提案会带来小型企业可能无法承受的高额合规负担

  他们会更容易通过他们的提议,只对大公司适用他们的规则。但是解决这个问题的办法应该是全面减轻这些负担,而不是只把它们强加给大公司。此外,如果某些义务对于保护消费者免受某些产品或服务的侵害是必要的,那么所有公司无论规模大小都应该遵守这些规则。同样,政策也不应该根据公司所在的国家而区别对待公司。同样,如果某些规则的目的是保护消费者,那么这些规则应该平等地适用于所有公司。豁免国内企业遵守一些规则通常更多的是出于保护主义,而不是保护消费者。

  10.寻求专业知识

  制定有效的法规需要相关的技术和行业专业知识。然而,决策者不知道也不可能知道一切。正如欧盟委员会本身在《人工智能法案》的影响评估中指出的,“鉴于人工智能发展的复杂性和快速性,主管当局往往缺乏必要的资源、专业知识和技术工具来有效监督人工智能系统的使用对安全和基本权利构成的风险。”为了解决这一缺点,政策制定者应该让人工智能专家,特别是来自他们试图监管的部门的专家,参与监管过程。

  让专家参与的一种方式是监管沙盒,这意味着为不适合现有监管框架的企业提供一个将其产品推向市场的机会。作为暂时免除特定规则的交换,企业向监管机构提供有关其运营的详细信息,企业利用这些信息为消费者提供有效的监督和保护,并制定永久性的新规则来解决成功的业务模式。监管沙箱有利于企业、监管机构和消费者,企业可以将产品和服务推向市场,监管机构可以收到他们需要的信息来设计适当的规则,消费者可以获得创新的业务。

  监管机构还应该确保他们的团队拥有人工智能和数据读写技能,以了解新技术。例如,他们可以为自己的员工寻求技术培训,或者聘请首席技术专家提供技术建议。然而,监管机构应避免雇用对人工智能或创造该技术的公司有先入为主偏见的技术专家。理想情况下,监管机构应寻求独立和客观的技术专业知识。例如,美国国家标准与技术研究所(NIST)对人脸识别系统和其他生物识别技术的准确性进行技术审查。这些类型的独立技术审查可以帮助监管机构根据对人工智能的可信评估制定规则。

  结论

  人工智能有潜力对经济和社会产生实质性的积极影响。但是决策者不应该认为技术进步是理所当然的。设计不良的法律和法规可能会延迟或阻碍可以拯救生命、提高工资和改善生活质量的技术的采用。因此,政策制定者应该谨慎行事,并以这些核心原则为指导,以便他们对负责任的人工智能的追求不会导致不负责任的监管的产生。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则




QQ|手机版|小黑屋|大参考 |

GMT+8, 2024-3-29 00:38 , Processed in 0.109375 second(s), 16 queries .

 

Powered by 大参考 X3.4 © 2001-2023 dacankao.com

豫公网安备41010502003328号

  豫ICP备17029791号-1

 
快速回复 返回顶部 返回列表