不损害人工智能创新的十大监管原则
发布时间:2024-04-28 | 发布者: 东东工作室 | 浏览次数: 次(原标题:不损害人工智能创新的十大监管原则)
本文编译自美国数据创新中心,为《全球科创观察》2023年第13期“专题研究”栏目内容。本期全部内容可点此查看。
人工智能(AI)具有创造重大经济和社会效益的潜力。然而,出于对该技术的担忧,政策的制定者提出了各种法律法规,以此来创建“负责任的AI”。不幸的是,许多提议可能会损害AI的创新,因为很少有人考虑到“负责任的AI监管”意味着什么。本报告提供了十条原则,旨在帮助决策者制定和评估不损害创新的AI监管提议。
随着AI的不断完善,在医疗保健、教育、交通等部门,利用该技术来提高生产力和生活质量的机会将会大大增加。人们对即将到来的AI潮可能造成的伤害十分担忧。为了缓解这种担忧,政策的制定者提出了各种法规。其重要的目标是为了最大限度地减少AI系统的潜在危害,同时最大限度地提高AI系统的潜在好处。实施这些提议,特别是以现有的形式实施,可能会产生严重的后果,AI很多潜在的好处(其中包括利用该技术拯救生命和提高生活水平)可能会因为制定不当的法规暂时无法获得或者被剥夺。
政策的制定者希望AI系统不会造成伤害,但是他们还没有能力能够制定不损害AI创新的法规。如果政策制定者认为监管是必要的,那么为了避免阻碍AI的创新和应用,他们应该遵循以下10个原则:
1.避免人类偏见。
2.监管其表现,而不是规范程序。
3.监管行业,而不是监管技术。
4.避免AI的发展过于短视。
5.精确定义AI。
6.执行现有规则。
7.确保收益大于成本。
8.优化监管。
9.对所有企业一视同仁。
10.寻求专业知识。
AI监管的原则
AI监管的动机各不相同。有些是出于安全性的考虑,例如确保自动驾驶汽车不会对乘客或行人造成不应有的风险,或者确保基于AI的医疗设备按预期工作。还有一部分人的动机是担心政府会使用AI系统对公民进行侵入性监视。还有一些人的动机是更模糊的担忧,即AI系统可能不够“道德”、不足以“值得信赖”或不是“以人为中心”的。
监管是手段,而不是目的。由于监管可能会限制创新,政策的制定者应该始终探索非监管手段来实现他们的目标。例如,与自上而下的监管相比,行业的自我管理或者行为准则可能会取得同样的效果,甚至更加有效。这些“软性法律”方法往往优于“硬性法律”的一个原因是私营部门通常可以比立法者和监管者更快地制定和实施新规则,并根据不断变化的情况更新这些规则。考虑到科技行业的快速变化,尤其是AI,这种灵活性和敏捷性可以使行业集团能够迅速应对新出现的威胁。
如表1所示,决策者在制定AI法规时应牢记十项关键原则,以免阻止或阻碍创新。下面将对每项原则进行详细的解释。
表1:不损害AI创新的监管原则
1. 避免人类的偏见
政策制定者不应歧视AI;AI系统应与人类一样遵守同样的标准。一般来说,如果一件事情对于人类来说是合法的,那么对于AI系统来说就应该是合法的。例如,如果保安核实进入大楼的人的身份是合法的,那么使用AI系统来做同样的事情也应该是合法的。禁止或惩罚公司使用AI系统替代人类完成工作的行为,会抑制该技术的应用。惩罚可以采取不同的形式,包括以更高的标准来要求AI系统,或者在企业使用AI之前必须承担更多的责任。相反,如果一个人做某件事是违法的,那么对于AI系统来说也应该是违法的。例如,如果出售某件艺术品或音乐侵犯了他人的知识产权,那么该作品是由人类还是AI系统制作的就不重要了。
人类存在偏见的一个例子是在可以提供类似的AI服务的情况下,对提供某种服务的职业许可具有排他性的要求,例如在保健和法律领域。职业许可证的目的是通过限制该领域执业的身份,来保护消费者。然而,由该领域的专业人士组成的医疗许可委员会或州立法律协会(他们可能不想与AI系统竞争)可以阻止机构提供AI服务,即使这些服务的表现与获得许可的专业人士一样出色,甚至更好,但是AI系统无法获得执业许可。例如,大多数州的律师协会限制非律师人员提供法律服务,这限制了基于AI作为一种法律工具的发展。
2. 监管其表现,而不是规范程序
为了解决人们对安全性、有效性和偏见的担忧,监管者应该监管AI系统的表现,而不是对企业必须遵循的特定流程和方法制定规范性规则。为AI系统建立基于其表现的衡量标准,使消费者、企业和政府能够更好地比较不同系统的性能,并设定最低的性能要求。例如,监管者不应制定严格的合规性规则,要求贷款方使用不同的数据来优化他们的信用评分模型,而是应该制定基于其表现的规则,例如要求贷款方验证的信用评分模型能够准确地进行评估,降低受保护人群的风险。允许企业确定实现其预期目标的最佳方式,使其具有必要的灵活性。此外,基于结果驱动的监管可以确保公司达到预期目标,而不是简单地在合规措施清单上打勾。
3. 监管行业,而不是监管技术
由于政策制定者无法预测AI未来的所有用途,一些人提议对该技术本身进行监管,而不是具体用途。但AI是一项具有许多潜在应用的通用技术。正如厨师、士兵和外科医生手中的刀具不同一样,AI的风险和好处也取决于它的使用方式。监管者在不同的行业对刀有不同的处理方式,例如为医院使用的手术刀、用于制作食品的刀具以及工业应用中连接电动工具的刀片制定独特的工作场所安全标准。同样,如果需要制定规则,政策制定者应该为特定行业的AI应用制定特定的规则,例如医疗和运输行业,而不是针对AI本身。驾驶车辆的 AI 系统应该与自动股票交易或诊断疾病的系统区别对待,即使它们使用类似的底层技术。强迫所有部门对 AI 使用相同的规则,可能会对一些部门施加过多或重复的要求,而对另一些行业的要求不足。为特定的AI应用程序制定规则,可以使对特定行业有深入了解的监管者为AI应用程序制定更加适当的规则。例如,保险监管机构可能已经考虑过如何处理复杂的信用评分模型所带来的风险,因此保险公司是否使用机器学习模型并不重要。
4. 避免AI的发展过于短视
许多引发监管AI呼声的担忧实际上与AI无关。例如,白宫的“AI权利法案蓝图”列出了诸如招聘做法和信用评分方面的偏见、出现不利结果时缺乏追索权以及消费者隐私不足等问题。然而,这些问题都不是AI独有的。监管者应关注于解决更广泛的问题,而不仅仅是涉及AI的那部分。例如,监管者的目标永远不应该只是解决涉及AI的有偏见的招聘做法,而是解决所有有偏见的招聘做法。此外,狭隘地把AI作为一个问题来关注会忽略将AI用作解决方案一部分的机会,例如考虑AI的使用如何为现有的招聘注入更多的客观性并减少人为偏见。
不幸的是,许多人只关注AI而忽略了大局。这种短视会分散人们对解决整个问题的持续努力的注意力,并可能使那些一直致力于解决更广泛问题的人处于边缘,同时将有限的公众和媒体注意力集中在通常是问题中相对较小的部分上。例如,对面部识别技术错误逮捕的担忧占据了许多新闻头条和政策辩论,包括国会听证会,而忽略了可能减少该国错误逮捕数量的更广泛的警察改革问题。同样,禁止执法机构使用面部识别的举措肯定会阻止该技术被用于任何错误逮捕,但这对解决错误逮捕这一更广泛的问题却毫无帮助。将AI和其他问题分开处理,就忽视了AI可以作为解决方案的一部分的潜在可能性。
5. 精确定义AI
政策制定者应谨慎定义AI,以避免无意中将其他软件和系统纳入新法规的范围内。AI涵盖了广泛的技术领域,并被集成到许多硬件和软件产品中。如果政策制定者仅打算监管无法解释的机器学习或深度学习系统,则他们不应在监管中使用AI的宽泛定义。例如,欧盟的AI法案最初包含了AI的广泛定义,以至于Microsoft Excel等基本电子表格软件很可能属于其范围。在条例中使用过于宽泛的AI定义,会给那些开发或部署集成了基本分析或自动化的产品和服务的人带来巨大的成本。使用清晰明确的AI定义可以避免市场的不确定性。
6. 执行现有规则
AI并不免除组织遵守规则的责任。很多行业无论是否涉及AI都有适用的法律法规,例如那些涉及工人安全、产品责任、歧视等问题的法律法规。在这些情况下,通常不需要出台针对AI的新法规。例如,公司必须遵守禁止在雇佣决定中存在歧视行为的法律,无论他们是否涉及人或计算机来决定是否雇用某人。同样,贷款方必须遵守公平的贷款规则,无论他们是否使用AI系统来评估信贷风险。为了回应对 AI 的担忧,监管者应解释他们将如何执行有关使用新兴 AI 产品和服务的现有法规,为采用这些工具的人提供指导,并就任何潜在问题的领域征求公众反馈。事实上,美国平等就业机会委员会和消费者金融保护局等机构已宣布最近努力利用其现有权力和使命解决对算法公平性的担忧。
7. 确保收益大于成本
若想要AI的监管产生正面影响,任何监管干预的好处都应该大于成本。在考虑成本时,政策制定者不仅应考虑直接的合规成本,还应考虑间接的生产力、创新和竞争力成本——例如使用新兴技术实现社会和经济利益的机会的减少,以及国内企业将这些技术推向市场的投资的减少。考虑这些成本似乎是显而易见的,但政策制定者通常很少关注技术监管的成本,尤其是当他们错误地认为监管必然会刺激创新,对成本的分析是多余的时候。例如,欧盟委员会(European Commission)的一名发言人回避了有关《人工智能法案》经济成本的问题,他在几乎没有任何证据的情况下辩称,该法案“将通过增加用户的信任,从而提高对AI的接受程度,进而增加需求,并为AI供应商进入更大市场提供法律上的确定性。”
一些政策制定者忽视监管成本的一个原因是,他们认为与某些基本权利相比,成本无关紧要。例如,欧盟对《人工智能法案》的影响评估消除了有关该法规可能将某些产品排除在市场之外的担忧。在考虑对一个假设的基于AI的招聘软件的影响时,该影响评估指出,“对有关基本权利的尊重比经济活动的损失更为重要。”但是,这种肤浅的评估忽略了一种显而易见的可能性:使用基于AI的招聘软件,通过对职位候选人进行更客观的评估,可能会减少现有的招聘歧视。当考虑所有成本时,监管的影响可能是负面的,尤其是在监管法规设计不当的情况下。
8. 优化监管
即使一项规定总得来说产生了积极的影响,但是政策制定者仍应努力使收益最大化,成本最小化。同样的效果通常可以使用不同的方法来实现,因此决策者的目标应该是找到实现其监管目标的最有效方法。不必要的监管成本导致公司将资金从其他商业活动重新分配到合规性的行为上,使消费者的境况变得更糟。
那些拥护新法律法规的人往往不愿讨论他们的成本,因为承认这些成本可能会阻碍对他们提案的支持。此外,立法往往要经过多轮的修订,但是决策者往往不会对影响评估进行更新。
9. 对企业一视同仁
政策制定者应该对所有公司一视同仁,以创造一个公平的竞争环境。政策制定者经常建议将小型企业从他们的立法提案中豁免,因为他们认识到他们的提案带来了小公司可能无法承受的合规负担,并且他们可以通过仅将其规则应用于大公司来更容易地通过他们的提案。但是,解决这个问题的办法应该是全面减轻这些负担,而不是仅仅把它们强加给大公司。此外,如果必须履行某些义务以保护消费者免受某些产品或服务的伤害,则所有公司都应遵守规则,不论其规模大小。同样,如果某些规则的目的是保护消费者,那么这些规则应该平等地适用于所有公司。免除国内公司的某些规定通常更多是为了保护主义,而不是保护消费者。
10. 寻求专业知识
相关的技术和行业专业知识是制定有效法规的必要条件。不幸的是,政策制定者不可能知道所有专业知识。正如欧盟委员会在其对《AI法案》的影响评估中所指出的,“鉴于AI开发的复杂性和发展的速度,主管当局往往缺乏必要的资源、专业知识和技术工具来有效监督AI系统的使用所带来的风险。”为了解决这一缺陷,政策制定者应该让AI专家参与监管过程,特别是他们试图监管的行业的专家。
让专家参与其中的一种方法是使用监管沙箱,旨在为不符合现有监管框架的企业提供将其产品推向市场的机会。作为对特定规则临时豁免的交换条件,企业向监管者提供关于其运营的详细信息,他们和企业利用这些信息为消费者提供有效的监督和保护,并制定永久性的新规则来处理成功的商业模式。监管沙箱有利于企业、监管者和消费者:企业可以将产品和服务推向市场,监管者可以获得设计适当规则所需的信息,消费者可以接触到创新企业。
监管者还应确保其团队具备AI和数据素养技能,以了解新技术。例如,他们可能为其员工提供技术培训,或聘请首席技术专家提供技术咨询。然而,监管者应避免聘用对AI或创造该技术的公司有先入为主偏见的技术专家。理想情况下,监管者应寻求独立和客观的技术专长。例如,美国国家标准与技术研究所(NIST)对面部识别系统和其他生物特征的准确性进行技术审查。这种类型的独立技术审查可以帮助监管者根据可靠的AI评估制定规则。
结论
AI有可能对经济和社会产生实质性的积极影响。但政策制定者不应将技术进步视为理所当然。不完善的法律法规可能会延迟或阻碍那些可以拯救生命、提高工资和改善生活质量的技术的应用。因此,决策者应谨慎行事,遵循这些核心原则,以便他们对负责任的AI的追求不会导致制定不负责任的监管。
本文系未央网专栏作者:全球科创观察 发表,内容属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!转载请标注:东东工作室——不损害人工智能创新的十大监管原则