人为安全还是真的很抱歉
问道:当人工智能和人类一样反复无常时,你如何制定规则来管理其风险?2023 年美国关于安全、可靠和值得信赖地开发和使用人工智能的行政命令和 2024 年欧盟人工智能法案均基于预防原则 (PP)。人工智能应用程序开发人员必须积极管理其应。
用程序对最终用户和社会造成危害的风险
风险管理是这两套治理安排的核心。欧盟人工智能法案根据人工智能应用程序预计构成的风险级别对其进行分类。然后,它指定了向欧盟公民销售或供其使用的批准流程。被评估为“高风险”的应用程序必须经过严格测试才能获得上市许可。负责这些应用程序的人必须保持广泛的上市后监测、报告和负责任的运营。“低风险”应用程序的开发者必须遵守不太严格的披露程序。如果出现意外伤害,高风险人工智能系统的运营商将根据严格责任法承担责任。其他公司将面临过错责任,除非运营者能够证明其已履行注意义务,否则将承担过错责任。美国自愿应用的 NIST 人工智能风险管理指南基于 ISO 31000 风险管理标准,要求识别、分析。
评估、处理、监控和传达风险
在人工智能技术的早期,大多数应用程序都使用处理“大数据”的算法。这些算法采用符号人工智能——以科学的方式应用逻辑、可重复的规则和定理。他们寻求问题的精确答案或对象的准确分类,其中答案显然是正确的或不正确的。它们是可靠的可预测的。每次提供相同的输入时,都会得到相同的响应。可以识别和管理特定风险。PP(见方框)可以合理地自信地应用。更多的研究(例如改进算法)提供了更准确(精确)的响应(例如具有更窄误差范围的预测),使提供商能够更有信心将算法用于高度针对性的目的。
预防原则 (PP) 在管理缺乏明确
在塞浦路斯,利用目标电话号码列表进行短信营 塞浦路斯电话号码列表 销和电话营销的公司可以与客户建立更牢固的关系,同时通过明智的决策推动增长。对于在塞浦路斯运营的公司来说,利用这些名单可以提高客户参与度,并提供支持战略规划和执行的关键数据。
科学知识的技术创新相关风险方面有着悠久的历史。它在许多政策和监管领域都受到青睐,特别是产品和健康安全以及环境风险管理。面对部署新技术的结果存在科学不确定性,尤其是存在严重或不可逆转损害威胁的情况下,“安全总比后悔好”。这证明了对技术发布的严格监管控制是合理的。例子包括药物治疗开发和部署的严格流程。
在美国,FDA 要求在实验室对新药进行广泛测试
并在受控和监督的人体受试者中进行测试,然后才能获得市场批准。部署后,需要持续监控,因为在产品投放市场时,并非所有可能的后果都是可以知道或预见的。此外,开发商还需承担举证责任,证明干预措施符合可接受的安全标准(如果出现意外的有害后果,例如未能在上市前识别和测试后果,或未能在上市后立即通知当局并采取补救措施)。
到目前为止,基于 PP 的法规已经相对很
好地处理了与新技术相关的不确定性,其中科学不确定性与严格定义和可测量的科学准确性点有关,并且特定人群中的危害易于识别、可测量和可验证。对于新药,通常可以指定危害和安全性的临床和毒理学观察结果,以促进负责任的使用。可以定义可能受到伤害的人群的身份(例如服用药物的测试对象、使用化学品的区域),同样可以定义玩具的组件,这些组件可能包含不适合特定年龄以下儿童的部件。当信息稀少时,这些最初可能非常广泛。不过,随着后续科学研究的深入(不确定性的减少),这些知识可以得到更精确的改进(例如,“安全”剂量和“有毒”剂量之间的界限可能会变得更加精确,例如从 g/ml 到 mg/ml 的数量级,或者随着对反应的了解越来越多,易感人群的范围会缩小;玩具设计可以进行修改以消除有害成分)。
然而,最近的人工智能发展试图复制人类对刺激的直觉反应。这产生了复杂、动态的系统
生成式预训练转换器 (GPT) 等词干。这些算法使用大量数据进行训练,以基于人类响应的复杂概率重组产生输出。大型语言模型 (LLM),例如 ChatGPT、Claude 和 Llama 就是例子。这些 AI 并没有提供精确、可重复的输出,反而容易出现类似人类的怪癖。事实上,LLM 的优点可以说是它们潜在的近乎无限的创造力。对提示产生两个相同响应的 LLM 已经“失败”了。即使响应包含相同的事实,两个响应中数据和语言的组织也应该不同。虽然可以指定和很好地理解用于创建符号 AI 输出的精确规则,但没有任何人类或人类群体,甚至 GPT 本身。
完全理解 GPT 如何制定其输出
可能永远无法确定有害结果是由于 GPT 开发中缺乏应有的谨慎造成的,还是最终用户的使用(或误用或滥用)造成了损害。
使用源自 PP 的监管风险管理框架来监管 GPT AI 是否合 按行业划分的特定数据库服务 适甚至可能?当应用程序的目标范围狭窄时,可能产生危害的载体是众所周知的。这些应用程序可以进行进一步的科学研究,以改进在有限危害的情况下部署它们的条件。但是,假设不可能知道 GPT 如何制定其输出或能够提前预测该输出将是什么。在这种情况下。
将无法自信地指定它可以运行的“安全”边界
此外,GPT 也是通用技术。各种各样的最终用户可 索尔特达塔 以将它们部署到开发人员甚至没有考虑到的目的。那么,谁应该承担责任?可能永远无法确定有害结果是由于 GPT 开发中缺乏应有的谨慎造成的,还是最终用户的使用(或误用或滥用)造成了伤害。或者伤害是否来自这两个属性相互作用的某些特征。而且由于 GPT 不是基于逻辑的,因此可能无法科学地调查或系统地应用从任何个案中学到的知识来更好地管理应用程序的当前使用或未来开发。