专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!
2024年3月13日,欧洲议会顺利通过了世界上首部最全面的《人工智能法》(AI Act),标志着人类在人工智能 (AI) 领域迈出了法制的第一步。近日,科技慢半拍播客节目特别邀请同济大学法学院朱悦老师做客,共同深入这部法案。
探讨这部法律出台的背景、历程,以及它的基本原则和立法目的,并深入分析了法案内容背后的逻辑和深层含义。整个访谈过程将近3个小时,朱老师对所有的疑问都一一作出了回答,这些都是AI相关企业和创业者所关心的问题,也希望能为我国的监管和立法机构提供一定的思路和帮助。以下是本次访谈内容的摘要以及法案原文引用。
01 您之前的科研背景是什么?开始研究欧盟《人工智能法》的目的和意义是什么?
在2016至2017年间,我们处于一个重要的时间节点,这一时期不仅是我个人步入职场的开始,也是网络信息法律体系快速发展的阶段。国内外相继出台的法律法规,如中国的《网络安全法》和欧盟的《通用数据保护条例》(GDPR),标志着网络和信息法律体系的逐步成熟。这一过程历时约七八年,期间无论是欧盟还是美国,都陆续出台了多部与网络安全、个人信息保护、数据安全以及平台治理相关的法律。最初,人们关注的焦点主要集中在平台对个人信息的处理上,但随着时间的推移,这一关注点已经扩展到了网络安全、个人信息保护、数据安全和平台治理等多个方面。特别是在欧盟,出台了专门针对大型平台守门人的《数字服务法》和《数字市场法》,以规范其在市场中的行为。这一系列法律的制定和实施,反映了技术与时代发展的必然趋势,也为人工智能(AI)技术的法律规范铺平了道路。当前,随着人工智能技术的飞速发展,基于前述法律基础的自然演进,人工智能立法已经成为了新的焦点和挑战。
在科技领域,我目睹了从无序到有序,从创新到法制化的转变过程。这种转变被视为一个必然的进程,从互联网和大数据的早期发展到当今的人工智能技术,每一步都似乎是预先设定的发展轨迹。科技逻辑与法律逻辑之间存在着一种耦合共生的关系。虽然从单一角度可能难以看清这种相互作用,但随着时间的推移,回顾过去几年的进展,两者之间的密切联系就显得十分明显。科技的创新不断推动社会和经济向前发展,同时也带来了新的挑战和问题,这就需要法律来进行规范和引导。法律制度的更新和完善,旨在应对由科技进步带来的新情况,确保技术发展能够在一个有序和可持续的环境中进行。同时,技术的发展也会带来法律理论和实践的创新,使其更加适应新时代的需求。
02 欧洲为什么会率先推出《人工智能法》?
可以从三个层面分析了欧洲在科技立法方面的发展及其对全球的影响,特别是在人工智能(AI)领域。
一是欧洲企业AI技术成熟发展的原因,欧盟在技术发展方面的一般印象是官僚和规范化的,尽管在技术发展速度上可能不及其他地区。然而,在AI领域,欧盟内部存在一些表现突出的企业,如DeepMind,尽管后被谷歌收购,以及一些法国的AI企业Mistral,显示出欧洲在某些技术领域的先进性和前瞻性。特别是爱沙尼亚等国家在区块链和AI等领域进行了大量探索,反映出欧盟内部对AI的重视及其潜力的认识。
二是全面打造欧洲的数字立法体系,欧盟致力于建立一个全面的数字立法体系,涵盖GDPR、《数字市场法》、《数字服务法》、《数据法》和《数据治理法》,以及即将推出的《人工智能法》和数字公平法案,旨在为数字产业提供全面的法制框架。通过这些立法措施,欧盟希望实现其数字十年的愿景,即创建一个安全、透明、可持续的数字环境。
三是布鲁塞尔效应,这一概念最初由法律学者Anu Bradford使用,后来在全球范围内被广泛接受。这一效应描述了欧洲在全球科技治理中的角色,即通过立法为全球科技发展设定标准和规范。这种分工方式意味着,尽管欧洲可能不是所有高科技产品的主要生产地,但通过其先进的法律框架,使得欧洲在全球科技发展中扮演着重要的规范和治理角色。
-
GDPR :《通用数据保护条例》,又名《通用数据保护规则》,是在欧盟法律中对所有欧盟个人关于数据保护和隐私的规范,涉及了欧洲境外的个人数据出口。
-
DMA:《数字市场法案》旨在透过防止大公司滥用其市场力量,并允许让新参与者进入市场以确保欧洲数字市场的竞争程度更高。
-
DSA:《数字服务法案》旨在明确数字服务提供者的责任并遏制大型网络平台的恶性竞争行为。
-
布鲁塞尔效应(Brussels effect):是指欧盟通过市场机制将其法律推广至境外,导致其单边监管全球化的过程。
另外,当社会对AI技术持有不同观点时,法律制度可以起到平衡作用,例如当人工智能(AI)出现时,存在两种主要的观点:一方面,普通大众可能对AI技术充满恐慌,担心工作被替代、人类道德沦丧以及虚拟假象的出现;另一方面,科技工作者对此则感到兴奋,视其为新的生产力。法律或法制是寻找平衡点的有效手段,通过法律,我们可能在保护个人和促进技术发展之间找到一个合适的平衡点。此外,当年的GDPR要求企业对数据管理系统进行了大规模的系统更新,带来了巨大的额外研发成本。因此,对AI领域的企业来说,尽早理解法律约束可以帮助在AI系统设计训练和模型底层进行早期控制,避免后续的大规模改动。最后,欧洲的立法对全球立法者有重要的指导意义。例如,当年中国的数据安全法也参考了GDPR的标准和要求,显示了欧洲立法在全球范围内的影响力。
03 AI已发展多年,为什么在今天这个时点推出这部具有争议的法律?
首先,尽管AI的每次技术突破都给我们带来巨大惊喜,其技术发展的连续性也不容忽视。历史上对AI风险的担忧,如公平性、不可解释性和责任归属问题,实际上从六七十年代就已经被广泛讨论,并在随后的几十年中反复出现。其实许多关于AI的技术理念和主张,包括人工智能伦理和立法治理,几乎没有太多新内容。这些争议和问题几乎每十年就会循环一次,显示出我们对AI技术发展的持续关注和反思。
尽管如此,2022年以来大语言模型的流行,特别是GPT系列,成为了当前触发欧洲立法的重要因素。尽管欧洲的人工智能法案(AI Act)的形成是在大模型如ChatGPT出现之前,但大模型的成功显著增加了这项立法的复杂性和重要性。如果没有这些大模型的发展,欧洲的AI法案可能会更加“普通”,主要关注相对传统的算法和自动化技术,如生物识别等。大模型的成功不仅增加了法案的复杂度,也使得原本可能是几万字的文本增长至近15万字。这一变化反映了对通用目的人工智能(AGI)实现可能性的真诚信念,以及其对以人为本原则的挑战,促使立法者采取行动。
04 我们应该如何理解在法案中给出的人工智能定义?这关系到该法案的适用范围和适用性
第3条 定义:人工智能系统是一种基于机器的系统,设计为以不同程度的自主性运行,在部署后可能表现出适应性,并且为了明确或隐含的目标,从其接收的输入中推断如何生成可影响物理或虚拟环境的输出,如预测、内容、建议或决定。
(12)……人工智能系统的一个主要特点是具有推理能力(infer)。这种推理指的是获得输出的过程,如预测、内容、建议或决策,也指代人工智能系统从输入/数据中推导出模型和/或算法的能力,人工智能系统还可以影响物理环境和虚拟环境。在构建人工智能系统时,能够进行推理的技术包括:从数据中学习如何实现特定目标的机器学习方法;从待解决任务的编码知识或符号表示中进行推理的基于逻辑和基于知识的方法。人工智能系统的推理能力不仅仅限于基本的数据处理、学习、推理或建模。“基于机器”一词指的是人工智能系统在机器上运行这一事实。……人工智能系统在设计上具有不同程度的自主性,这意味着它们的行动在一定程度上独立于人类的参与,并具有在没有人类干预的情况下运行的能力。人工智能系统在部署后可能表现出的适应性是指自主学习的能力,允许系统在使用过程中发生变化。人工智能系统可以独立使用,也可以作为产品的一个组成部分,无论该系统是实际集成到产品中(嵌入式的),还是服务于产品的功能,而不集成到产品中(非嵌入式的)。
人工智能(AI)概念自从达特茅斯会议以来,一直是一个难以界定的领域。尝试定义AI的方法主要分为两种:内涵性定义和构成性定义。内涵性定义更倾向于哲学和伦理角度的界定,而构成性定义则侧重于流程性的视角,即通过观察AI的组成部分和实际工作流程来定义。最终,实践中的定义往往是这两种方法的混合体,以便更好地适应生产实践。
关于AI的法律文本,特别是欧洲人工智能法案,通常将既有一定共识,也具有一定争议性或复杂性的内容放在鉴于部分。此外,讨论强调了法案在定义AI时加入的关键性内容——适应性。这一特征是在最后一轮政治谈判中加入,以确保法案能够覆盖新兴且快速发展的AI技术。特别是在12月版本之前的欧洲人工智能法案中,虽然有初步共识,但直到加入了“表现出一定的适应性”这一描述,法案的焦点才变得更加明确。这表明欧洲人工智能法案主要针对能够自主学习和展现适应能力的先进AI技术,而不是早期基于固定规则或简单匹配的AI系统。通过加入适应性这一概念,欧洲人工智能法案明确了其监管范围,即关注那些具有自主学习能力和适应性的先进AI技术。这一调整反映了对当下和未来AI技术潜在影响的深刻理解,以及确保这些技术在带来创新的同时,也能在伦理和安全的框架内发展。
05 是否意味着从法律角度认可的人工智能更偏向于“联接主义”,而排除了“符号主义”和“行为主义”的内容?
-
联接主义(Connectionism),又称为神经网络学派,试图通过模拟人脑中神经元的连接结构来构建人工智能。核心思想是认为智能行为源自大量简单计算单元(如神经元)之间的网络连接和相互作用,不依赖于显式的规则和符号推理,而是通过学习过程调整网络中的连接权重来实现模式识别和决策。
-
符号主义(Symbolism),也称为逻辑主义,认为人工智能可以通过使用符号系统来实现。它侧重于用形式逻辑来表示知识,通过规则和推理机制来模拟人类思考过程。核心思想是认为所有的思维活动都可以转化为符号操作过程,即认知过程可以通过符号的操纵和规则的应用来实现。
-
行为主义(Behaviorism),关注于观察到的输入(刺激)和输出(响应)之间的关系,忽略内部的认知过程。核心思想是智能行为可以通过刺激-响应的学习过程来获得,而不必深究思维的内部机制。
在人工智能(AI)技术的实际应用中,存在显著的多样性。AI技术的发展不仅限于单一的学派,而是涵盖了符号主义、联接主义和行为主义等多个流派。实际生产实践中,技术的选择和应用高度灵活,工程师根据解决问题的需要采用不同的技术和方法。例如,强化学习(行为主义方法)可以用来增强深度学习模型(联接主义),而检索增强的技术,如RAG等则可能看作是用符号主义的思路来增强联接主义。立法过程中,对于AI的多样性和复杂性有充分的认识和讨论。法律文本需要处理的不仅是当前的技术状态,还要考虑到技术的快速发展和潜在变化。尽管在AI技术的分类和界定上存在挑战,但重点关注的是那些具有自主学习能力和适应性的技术,特别是联接主义流派下的技术,因为它们带来的潜在风险和影响最大。
立法时还需考虑技术的实际应用和潜在风险。对于简单的匹配规则或基于古老符号主义的系统,其影响可能相对有限。然而,将如大模型等新技术与现有技术融合的情况,或在高风险领域,例如自动驾驶车辆、工业机器人等AI应用,可能会引入新的风险和挑战,因此需要特别的立法关注。例如推荐系统中的应用,这些系统不仅受到专门的AI法律的管制,也可能受到DSA(数字服务法案)和DMA(数字市场法案)等其他法律的约束。这表明,在设计和实施AI技术时,需要综合考虑多项法律和规定。
06 立法者判断哪些算作AI系统,是通过内部视角(AI系统的形成结构)来观察,还是通过外部视角(AI系统的应用效果)来观察?
法案中强调从内部视角审视人工智能(AI)系统的重要性。了解一个AI系统的内部构成,包括使用的模型、工序部署等,是精确界定技术要件的关键。然而,实践中由于系统复杂性及商业秘密等因素,完全明晰这些细节常常是困难的,尤其是在涉及复杂供应链的情况下。针对上述挑战,欧盟人工智能法案采取了综合性的应对策略:一是法案为行业留出了适应期,以便逐步适应新的法律要求;二是法案中特别提及的供应链互助义务,旨在促进AI系统上下游之间的信息透明度和风险管理。通过要求供应链各方共享关键信息,如数据表、模型卡等,法案试图逐步梳理和明确各方面的依赖关系和潜在风险。三是虽然AI法案的定义和技术要求复杂,法案本身预设了逐步实施和细化的过程,不会立即以严格措施实施,同时预留了时间进行调整和完善。通过这种方式,欧盟人工智能法案不仅聚焦于技术定义的精确界定,而且通过引导整个价值链的合作和信息共享,促进了一个更为全面和动态的风险管理框架的形成。这种方法有助于应对由于技术复杂性和信息不对称带来的挑战,确保AI系统的开发、部署和使用能够在一个清晰规范的法律框架内进行。
07 基于大模型技术发展的很多不确定性,此法案发挥的临时性意义更大于长远意义?
法案同时面临着老问题和新挑战。一方面,法案中包含了解决一系列老问题的方案,如生物识别技术和一些相对简单的AI应用,这些部分的规定相对稳定,时效性较长。对于这类技术,法案提供了明确的指导和规范。对于第8到28条所涉及的高风险人工智能系统,法案要求建立起内部治理体系,包括风险控制和质量控制。这一要求应该说是早晚都要做的措施,尽管具体的严格程度可能存在争议。讨论认为,这部分规定的目的和内容在未来几年内相对稳定,后续可以通过标准和规范的调整来细化执行要求。另一方面,我们也面临着通用目的人工智能(GPAI)的新挑战。当前法案中对AGI的监管相对宽松,主要以透明性和沟通为主,部分原因是来自一些AI产业发达国家的反对意见,以及对如何有效监管AGI的不确定性。如果AGI达到接近本科生甚至普通技术人员或法学研究者的水平,现有的监管措施是否有效仍是一个未知数。所以人工智能法案的制定采取了分阶段的策略。对于已经成熟和明确的技术领域,法案给出了具体细致的规定。而对于技术发展迅速且充满不确定性的领域,如AGI,法案则采取了以沟通和透明性为主的宽松态度,预留了空间以便在未来根据技术发展和行业成熟度加入新的规则。
08 立法者能否与领先的AI公司合作,能否代表世界的领先水平?
首先,从欧盟人工智能法案的立法流程出发,说明了欧盟委员会、欧盟理事会和欧洲议会在法案制定过程中的角色和步骤。在法案提出后,这三个主体之间的协商、建议修正案的提出以及最终的政治谈判过程,而且整个立法过程涉及的参与者众多,包括核心决策者、支持专家和相关机构。参与立法过程的核心人物对技术的了解程度较高,说明了欧盟委员会、欧洲议会和欧盟理事会中的关键参与者及其背景。例如,欧盟委员会的代表人物被提到是来自产业界,拥有深厚的市场理解;而欧洲议会中的报告人和影子报告人具有技术立法经验和技术背景;理事会则代表了各成员国的利益,更倾向于保护本国产业。
其次,除了官方的立法过程,非正式的游说活动也对法案内容有显著影响。这些游说活动主要来自美国的科技巨头以及欧盟内部的新兴人工智能企业,这些“国家冠军”企业通过雇佣具有政府背景的代表参与游说,确保其利益在法案中得到反映。尽管存在游说影响,整体立法过程显示出务实的态度。对于一些技术上的老问题,如生物识别,法案提供了相对稳定的解决方案。对于高风险人工智能系统,立法着眼于建立内部治理体系。同时,对于通用目的人工智能(GPAI)等前沿技术,立法采取了更为灵活和沟通为主的态度,预留了空间以适应未来的技术发展。
一是关于美国领先的AI科技企业的密集游说。从2023年中开始,许多美国的大型科技企业,包括OpenAI、微软、谷歌等,展开了密集的游说活动,目的是对欧洲人工智能法案进行影响。这些企业的代表和相关人员频繁访问欧洲,特别是布鲁塞尔,与欧盟的决策者进行会面和交流。尽管像OpenAI这样的新兴科技公司在欧洲的团队规模暂时还不大,但其密集的游说活动表明,即便是规模较小的公司也在积极参与到影响欧洲人工智能立法的过程中。这反映出新兴公司对于法案潜在影响的高度关注。与新兴公司相比,老牌的科技巨头如微软和谷歌在欧洲拥有较大且资深的游说团队。这些公司利用其在欧洲的存在和资源,对人工智能法案的制定施加影响。这种游说活动是这些公司策略的一部分,旨在确保法案内容能够顾及到其商业利益。这些密集的游说活动引起了一些批评声音,指出欧洲人工智能法案在某些关键条款上可能过于照顾美国和欧洲的科技公司。这些批评从侧面反映了游说活动的强度和潜在的影响力。
二是关于与欧洲顶尖AI专家,如杨立昆等的合作。杨立昆在去年11月底或12月初,通过社交媒体、多国媒体和其他渠道直接发表署名观点,作为学术界对欧盟人工智能法案的公开响应的例子。这不仅限于非正式会议的讨论,而是通过主流媒体向公众和决策者表达意见和关切。学术界对欧盟人工智能法案的高度关注,部分原因在于该法案具有实质性的强制力,包括可能对违反规定的企业施加高达7%的罚款。反映了学者们对于法案潜在影响的认识,特别是对科技创新和研究活动可能带来的直接影响。特别指出,像杨立昆这样的国际著名学者,尽管在国际上有广泛的影响和认知,但对于涉及本土(如法国)利益和发展的法律,他们同样积极参与讨论和表达观点。这表明学术界的参与不仅是基于学术研究的兴趣,也关乎对行业发展和政策影响的深刻理解。学术界的这种公开发声和参与,对于欧盟人工智能法案的形成和修订具有重要作用。学者们的意见能够为法案的决策者提供重要的专业视角,有助于平衡法案的制定,确保其既能促进科技发展,又能妥善管理风险。
三是关于与英国布莱切利安全峰会之间的关系。例如当初英国与GDPR(通用数据保护条例)的关系就比较特殊。英国的个人数据保护法基本是GDPR,但随后与欧盟的细节分歧也越来越多,产生的争议也越来越大。此外,我国也参加了去年的英国AI安全峰会,派员参会并表达了观点,这也体现了全球性的共识。英国AI安全峰会更多地关注于AI安全以及一些存在性的前沿性风险,持有相对宽容的态度。未来,英国目前还没有看到具有实质性内容的法律出台,是否英国能够独立制定一部人工智能法,取决于英国政府是否有足够的政治资源投入。
与此同时,欧洲在同步制定一个公约,与包括美国、英国在内的国家进行谈判。当公约虽然是国际层面的,但态度并不强硬,许多要求主要适用于公共机关和部门。公约并未对私营部门提出强制要求,而是让各国根据自身情况,采取符合公约宗旨的方法自行落实。但是其中美国的态度相对强硬。而且公约中还包括一项联邦制保留权,允许联邦制国家在某些层面上有所保留,甚至允许退出公约。
欧盟人工智能法应放在更大的背景下考虑,其立法者整体而言相当专业,虽然无法判断是否代表最高水平,但业界的声音被认为是最高水平的代表。尽管立法者可能有自己的利益顾虑,但他们的专业性和考虑的全面性值得肯定。在推动国际公约的过程中,立场更为灵活,留出了更多空间。综上所述,人工智能法的制定过程是一个不断地妥协和交换的过程,需要汇聚各方面的声音,通过专业人士的协商,找到最佳解决方案。
09 法案中谈到人工智能法的目的主要是为了防止AI整个带来的一些风险,这些风险主要自于哪些方面?
(5)人工智能可能会产生风险,并对受欧盟法律保护的公共利益和基本权利造成损害。这种损害可能是物质性的,也可能是非物质性的,包括身体、心理、社会或经济的损害。(6)作为前提条件,人工智能应是以人为本的技术。人工智能应作为人类的工具,最终目的是提高人类福祉。
可以分别从人的层面和宏观层面分析人工智能法案的应对措施。
在个人层面,对于物质性损害,如人身或财产损失等,法案提供了相对明确的处理框架,因为这类损害容易界定,一旦发生应当予以弥补。然而,非物质性损害,如焦虑、恐惧不安等,则难以客观界定,通常涉及主观评估,因此难以达成共识和证明。在这方面,欧盟采取了灵活的策略,允许成员国根据自己的法律传统和司法判断来处理非物质性损害。例如,英国在非物质因素的处理上显得较为严格,而其他欧陆国家各有不同的态度,但主要还是依赖于各自的民法和司法系统。
在宏观层面,法案针对系统性风险提供了回应,尤其是在政治经济领域的风险,包括对政治进程和选举、国家民生和关键基础设施的影响。法案中特别提到了通用目的人工智能(GPAI)大模型的系统性风险,与数字服务法(DSA)等法律相互关联。在处理这些宏观层面的风险时,法案倾向于采用协商式、点对点的监管方法,尤其是针对那些拥有资源和能力造成显著影响的大平台和大企业。
10 通用人工智能模型可能带来系统性风险有哪些?
(110)通用人工智能模型可能带来系统性的风险,其中包括但不限于: 与重大事故、关键部门中断和对公众健康与安全的严重后果有关的任何实际的或可合理预见的负面影响;对民主进程、公共和经济安全的任何实际的或可合理预见的负面影响;非法、虚假或歧视性内容的传播。系统性风险应被理解为随着模型能力和模型范围的增加而增加,可能在模型的整个生命周期中出现,并受到滥用条件、模型可靠性、模型公平性和模型安全性、模型自主程度、获取工具的途径、新颖或组合模式、发布和传播策略、移除护栏的可能性和其他因素的影响。潜在的故意滥用或与人类意图对齐的并非故意的控制问题;化学、生物、辐射和核风险,如降低准入门槛的方式,包括武器开发、设计获取或使用;攻击性网络能力,如发现、利用或操作使用漏洞的方式;交互作用和工具使用的影响,包括控制物理系统和干扰关键基础设施的能力等;模型复制自身或“自我复制”或训练其他模型的风险;模型可能导致有害偏见和歧视的方式,给个人、社区或社会带来风险;为虚假信息提供便利或损害隐私,给民主价值观和人权带来威胁;特定事件可能导致连锁反应,产生相当大的负面影响,可能影响到整个城市、整个领域的活动或整个社区;必要明确具有系统风险的通用人工智能模型的分类的程序。达到高影响能力适用阈值的通用人工智能模型应被推定为具有系统风险的通用人工智能模型。
首先触及到的是当公共言论或行为对大量个体造成影响时,如同AI辱骂别人一样,不仅是单一个体受到影响,而是可能同时涉及到成千上万的个体。这种行为所带来的影响,既包含个体权利的侵犯,也体现出了系统性风险的存在。在这种情况下,虽然个体可以通过司法途径寻求救济,但解决这种系统性风险需要高额的资源和专业人力。这就回到了如何建立一个有效框架来解决系统性风险的问题。
另外,在通用目的人工智能(GPAI)领域,我们看到了技术企业在沟通和协作中所取得的进展,例如人类对齐、微调、红队等概念已经被纳入了法律法规中。尽管目前能够有效应对这些挑战的企业数量有限,但行业内部正在朝着标准化和更广泛的解决方案发展。未来,即便是中小企业也将能够通过标准化的方法来实现对齐,从而降低存在性和系统性风险。产业界对于风险的看法并不完全一致。尤其是头部企业,如DeepMind,他们在风险管理方面的研究十分深入,包括风险等级表和应对策略的开发。这些企业不仅在探索风险管理的最佳实践,而且还试图推动这些实践成为行业标准。这种做法既基于对风险的客观判断,也反映了社会对风险的主观态度和信念。在此过程中,我们也看到了产业内部的分化。头部企业有动力推高标准,以强调和管理风险,而中小型初创企业则可能更注重解决当前面临的具体问题。这种差异不仅体现了行业内部的竞争,也反映了对未来风险管理的不同看法和方法。
11 本来法律是要防范大型科技公司可能产生危害,即这些法律既需要依赖于大公司的技术,又可能受到这些公司游说的影响,从而造成这些法律在实际执行中既可能限制又可能无意中帮助这些大公司的困境?
OpenAI等领先的公司在人工智能安全领域的投入和研究成果被广泛认可,这一点无庸置疑。然而,这些成果的吸收和应用在立法过程中并非毫无争议,因为这些成果既包含了积极的一面也有其潜在的负面影响,正如硬币的正反两面。随着GPT等人工智能技术的兴起,全人类对于AI的态度变得更加复杂,既有些许敬畏,也有向其学习的意愿,同时也试图通过某种方式对其进行管控。
另外,人类对新事物的恐惧是天然存在的,但是否需要立即通过法律来应对这种恐惧,还是一个值得商榷的问题。历史上对电视和互联网的初步反,同样显示了人类对新技术的担忧和反应,有时可能是过度的反映。从历史角度看,如果因为担心电视机的潜在负面影响就立即出台限制观看时间的法律,可能从后来人的角度看会显得非常荒谬。因此,在制定针对人工智能等新技术的法律时,需要有更加审慎的态度。目前的法律框架已经明确了对传统技术的管控,但对于通用人工智能这样的新兴技术,立法者更多地依赖于增加透明度和协商的方式来应对挑战。
12 后续的立法过程是什么?留给企业的准备时间还有多久?
首先预计在2024年4月中旬,欧盟议会将完成对该法案的最终表决。大概在4月29日,欧盟理事会(Council of the European Union)也将完成其程序。接下来,将等待双方主席找到合适的时间签署该法案,签署完成后,法案将被正式登记到欧盟官方公报上。预计这一过程将于5月20日左右完成,届时该法案将正式生效并具有约束力。在这一系列流程中,法案内容预计不会再发生改变。这也是为什么选择现在这个时点讨论该法案的原因,因为太早讨论可能会因内容未定而显得过于笼统,而太晚讨论则可能错过准备和调整的最佳时机。
对于涉及通用目的人工智能的行为守则,其实施时间为9个月。由于相关方面早就已经开始准备,尤其是那些积极参与游说的公司,对他们而言,生效日期的影响有限。对于大多数情况,法案规定2026年前需完成大部分实施事项。考虑到欧盟内部一些历史遗留问题和官僚体系协调的复杂性,例如以申根签证系统为代表的陈旧系统,法案为这些领域留出了至2030年的调整期限。
另外法案中提到的统一标准和共同规格要求对于国内合规也尤为关键。目前,几个主要的标准已在制定之中,预计最重要的几个标准将在今年下半年至明年上半年形成,有的文本甚至还会更早一些成型。随着这些标准的确立,相关企业和机构将开始着手准备合规工作,尤其是AI公司,其工作量预计会非常可观。
13 人工智能法的制定过程与欧盟原来的GDPR法相对比,有什么异同?
由于传统的立法流程,例如一读、二读和三读,最后才进行协调会议,原来的效率很低。最近二十年来的欧盟立法一般都是采取非正式的三方协商程序,以提高立法效率。这种方式允许立法机构、欧盟理事会和欧盟委员会的代表直接讨论和敲定条款,然后将其送回正式流程。
在原来GDPR立法过程中的三方协商过程被指出过于“黑箱”,即协商过程缺乏透明度,仅有少数参与者知晓讨论内容。这种缺乏公开的做法,虽然有助于提高立法效率,但也引发了外界对过程公正性的质疑。后来,一位意大利律师因对这种闭门制定重要法律的方式提出质疑,甚至向欧盟法院提起诉讼,并且最终胜诉。因此,人工智能法与GDPR的立法过程相比,透明度明显提升。文件和讨论结果在较短时间内对外公开,使得全世界能够实时跟踪修改记录和讨论成果,这对企业、律师和咨询业快速熟悉和落实法案内容极为有利。所以,增加立法过程的公开和透明度,让更多人参与和理解法律制定过程,已成为一种趋势。这一点在处理影响广泛的技术法律和立法,如人工智能和数据保护方面尤为重要。未来的立法过程预计将更加注重公开透明,以确保广泛的公众参与和理解,从而形成更公正、更有效的法律规范。
第3条 定义(56)“人工智能素养”是指这样的技能、知识和理解,使提供者、使用者和受影响者在考虑到各自在本条例中的权利和义务的情况下,能够在知情的情况下部署人工智能系统,并认识到人工智能的机遇和风险以及可能造成的损害。
第4条 人工智能素养 人工智能系统的提供者和部署者应采取措施,考虑其技术知识、经验、教育和培训以及人工智能系统的使用环境,并考虑人工智能系统将用于哪些人或群体,尽其最大努力确保其工作人员和代表其处理人工智能系统操作和使用的其他人员具有足够的人工智能知识水平。
(27)…..非常重要。在这些准则中,高级别专家组制定了七项不具约束力的人工智能伦理原则,这些原则应有助于确保人工智能是值得信赖的、符合伦理道德的。这七项原则包括:人类主体和监督;技术稳健性和安全性;隐私和数据治理;透明度;多样性、非歧视和公平;社会和环境福祉以及问责制。在不影响本条例和任何其他适用的联盟法律的法律约束力要求的前提下,这些指南有助于设计一个符合《宪章》和作为联盟基础的价值观的连贯、可信和以人为本的人工智能。根据独立人工智能高级别专家组的指南,人类主体和监督意味着人工智能系统的开发和使用是为人服务的工具,尊重人的尊严和个人自主权,其运行方式可由人类进行适当控制和监督。
基本原则最初在立法文本中占据了显著位置,但随着讨论的深入,这些原则逐渐被吸收到具体条款中,最终只剩下“人工智能素养”作为一个独立的概念。这种变化反映了欧洲在伦理与立法重要性认识上的微妙差异,与其他地区相比,欧洲似乎已进入一个“后伦理”阶段,更倾向于通过立法而非伦理自律来解决问题,甚至需要警惕伦理对法律的侵蚀。
尽管如此,这些原则还是十分重要的。通常,“以人为本”被认为是人工智能立法中最基础的原则之一,强调了在所有决策和技术开发中优先考虑人的需求和福祉。与GDPR等早期法规相比,人工智能法案更注重具体合规义务,而不是原则层面的要求,这反映了在技术快速发展的背景下,保护人类利益的必要性和紧迫性。还有一个可持续性原则,指出尽管这一原则在早期版本中具有更强的实体性义务,但在最终文本中被弱化。这一原则的复杂性在于,为了满足可持续性要求,可能需要披露敏感的信息,如碳排放数据等,这对企业而言是一大挑战。尽管如此,可持续性仍被视为一项重要原则,反映了对环保的高度重视。
最后,关于价值观多样性和对齐问题,特别是在全球范围内如何处理因文化和地区差异而产生的价值观差异。有观点认为,大模型的训练和微调可能带有特定地区的价值观倾向,这对于确保技术的公正性和普适性提出了挑战。所以,在制定人工智能法规时,需要综合考虑伦理原则、人的中心地位、可持续性以及文化多样性等多方面因素,以确保法规既能促进技术创新,又能保护人类福祉和环境可持续发展。
15 法案中定义的四类风险中不可接受风险和高风险的界限在哪里?
在处理人工智能相关的法律合规问题时,”分类分级”是一个核心原则。这不仅涉及到能否实施某项技术,也关系到风险的承受能力。不可接受风险和高风险的区分,实际上是涉及到类别和级别的不同概念。不可接受风险应该视为一种类别的概念,具有较为封闭和明确的界限,主要关注那些对人类自主性和安全造成直接威胁的技术应用,如生物识别技术。这类风险的定义源自于早期的一些理念,与技术对个人自主性的潜在侵犯紧密相关;高风险则应该视为一种级别的概念,涉及到的风险需要通过更为复杂的准则来判定。欧盟法规列出了一系列高风险应用的例子,并提出了增加新的高风险类别需要考虑的多个因素。这种分级体现了对风险程度的量化评估,以及在特定情境下的相对性判断,例如增加了四条过滤性条款。
第6条 高风险人工智能系统分类规则 3. 根据第2款的克减规定,如果人工智能系统对自然人的健康、安全或基本权利不构成重大损害风险,包括不对决策结果产生重大影响,则不应被视为高风险系统。如果符合以下一项或多项标准,则属于这种情况: (a) 人工智能系统旨在执行范围狭窄的程序性任务;(b) 人工智能系统旨在改进先前完成的人类活动的结果;(c) 人工智能系统的目的是检测决策模式或偏离先前决策模式的情况,而不是在未经适当人工审查的情况下取代或影响先前完成的人工评估;或 (d) 该人工智能系统的目的是为附件三所列的用例进行相关评估做准备
欧盟对于人工智能的监管不仅注重技术本身,还特别关注技术如何与人类行为和社会规范相互作用。我们可以举个例子,心脏起搏器和骨骼假肢等将技术与人体直接结合的应用,确实应该受到特别的关注和严格的监管。另外,对于谁来进行这个分级是同样重要的,欧盟委员会被赋予了制定和调整风险级别的主要责任,但通过加入四个方面的过滤性条款,个人和企业实际也具备了一定的风险分级的自我评估和判断的空间。
16 将教育和招聘评估两种情况纳入高风险,背后的原因是什么?
附件三第6条第2款提及的高风险人工智能系统 3.教育和职业培训:(a) 用于确定自然人进入各级教育和职业培训机构或课程的机会、录取或分配的人工智能系统;(b) 拟用于评估学习成果的人工智能系统,包括当这些成果被用于指导各级教育和职业培训机构中自然人的学习过程时。(c) 在教育和职业培训机构内,用于评估个人将接受或能够接受的适当教育水平的人工智能系统;(d) 在教育和职业培训机构内,用于监控和检测学生考试违纪行为的人工智能系统; 4.就业、工人管理和自雇职业:(a) 用于招聘或选拔自然人的人工智能系统,特别是用于发布有针对性的招聘广告、分析和过滤求职申请以及评估候选人;(b) 旨在用于做出影响工作相关的关系,晋升和终止工作相关的合同关系条款的决定,根据个人行为或个人特质或特征分配任务,以及监督和评估此类关系中人员的绩效和行为的人工智能系统;
对于人工智能的监管并非空洞的口号,而是紧密围绕着基本权利和自由的保护。在欧盟法律体系中,有大约50种被明确定义的基本权利,涵盖了从隐私保护到生存发展,再到教育和就业等方面。这些基本权利像空气一样无形,但对个人的生活至关重要。欧盟人工智能法的逻辑是基于对这些基本权利的保护。通过对比附件三中的具体规定与欧盟定义的基本权利,可以发现二者之间有着密切的关联。尽管具体的规定和标准是通过各方博弈形成的,但其核心目的在于保护个体的基本权利不受侵犯。
在教育领域,欧盟法律关注那些对个人未来发展有重大影响,涉及到教育权保障的场景的场景,如升学考试、入学考试等。对于这些关键节点的人工智能应用,即便使用AI辅助,也应确保有人类的参与和监督,以保障公平性和透明度。
就业领域同样重要。在当下对工作机会的关注日益增加的背景下,如何确保AI在招聘过程中的应用不会侵犯个人的公平评估机会,成为了一个关键议题。不同主体的权益应该得到考量,确保每个人都有展现自己的机会。
关于AI在教育和就业中应用的界限,不同的地区和文化背景可能会有不同的看法。例如,一些场景下,人们可能接受AI进行初步筛选或辅助决策,但在更重要的决策点,如高考或重要的招聘环节,人类的参与和决策则显得尤为重要。
17 高风险人工智能系统的部署者和提供者各负有什么样的责任和义务?
第16条 高风险人工智能系统提供者的义务 : 高风险人工智能系统的提供者应 (a) 确保其高风险人工智能系统符合本编第二章的要求;(b) 在高风险人工智能系统上标明其名称、登记商号或登记商标、联系地址,如无法标明,则在包装或随附文件上标明;(c) 具有符合第17条规定的质量管理体系;(d) 留存第18条提及的文件;(e) 在其控制下保存第20条所述高风险人工智能系统自动生成的日志;(f) 确保高风险人工智能系统在投放市场或提供服务之前经过第43条所述的相关合格性评估程序;(g) 根据第43条的规定,起草欧盟合格性声明;(h) 根据第48条的规定,在高风险人工智能系统上加贴CE标志,以表明其符合本条例的规定;(i) 遵守第49条第1款所述的登记义务;(j) 采取必要的纠正措施,并提供第21条所要求的信息;(k) 应国家主管机关的合理要求,证明高风险人工智能系统符合第2节的要求;(l) 确保高风险人工智能系统符合关于无障碍要求的2019/882号指令和2016/2102号指令
第26条 高风险人工智能系统部署者的义务 2. 部署者应指派具备必要能力、培训和权力以及必要支持的自然人进行人工监督 ……
在制定人工智能相关法律的过程中,确定谁承担最终责任是一个极具争议的问题。在早期讨论阶段,除了提供者和部署者,还存在使用者的概念。但在最终的立法过程中,主要聚焦于提供者和部署者的责任划分。为了理解这一责任划分,可以借鉴GDPR中的“控制者”和“处理者”的概念。GDPR中的这两个角色大致来说分别对应于主要责任方和次要责任方,其中控制者负责确定数据使用的目的和手段。这种责任划分不仅基于合同条款,也会考虑实际的操作和控制情况,体现了一种功能性的责任分配机制。
尽管在人工智能领域,提供者和部署者的角色看似明确,实际上在具体实践中往往存在边界模糊的情况。尤其是在AI系统的训练和部署阶段,由于技术和应用的快速演进,确定谁是控制权的主要持有者变得更加复杂。面对这种复杂性,在当前阶段,提供者和部署者的责任界定不仅需要考虑法律中已经明确的那些准则,还需要借鉴过往的经验,并通过业界实践来逐步明确。就像GDPR中对控制者和处理者角色的指导一样。鉴于部分提到的例子非常重要。欧盟人工智能法也将发布相应的指南,以帮助各方理解和应对这一责任划分问题。
虽然监管机构和企业都在不断学习和适应这一新的法律环境,但预计提供者在合规体系中将承担较大的责任。但是对于中小型企业而言,不必过于焦虑,因为很快就会紧锣密鼓开始起草将为这一核心概念提供更加明确的解释和指导。
18 如何识别和区分法案中有限风险和低风险的人工智能系统?
欧盟委员会最初在2021年提出的人工智能法案中设想了四个风险等级:不可接受风险、高风险、有限风险和低风险。尽管法案的初衷是清晰区分各类风险,实际立法过程中,高风险类别成为了法案中规定最为详细和严格的部分,而其他风险等级则在立法过程中逐渐淡出。在法案的后续发展中,各个风险之间的分界线经过了激烈的讨论和博弈,可以说相关的每个形容词的选择都可能导致更多或者更少的应用是否纳入监管范畴,以及面临的监管力度的强弱。这也反映出立法者在保护公共利益和促进技术创新之间寻求平衡的努力。特别是与深度合成或深度伪造(Deepfake)相关的第50条的规定,既是早期的风险分级方案的残存,也反映了在关键类型的人工智能技术中实现足够平衡难过的监管并不容易。此外,这些讨论也涉及了对基础模型、大模型、通用人工智能(AGI)和通用目的人工智能(GPAI)等概念的争议和定义。
尽管立法过程试图为不同风险等级提供清晰的定义和指导,但实际操作中的模糊性和不确定性仍然存在。值得一提的是,对于第50条所涉及的应用,立法的目的更多是明确指向和源流,一般不应做过于宽泛的解释。对于有限风险类别中的特定技术,如深度合成和深度伪造等,需要特别注意其与其他规则的相互关系。
19 如何看待法案中的三档罚则?
第99条 罚则 …… 1.不遵守第5条(禁止的人工智能实践)所述禁止人工智能行为的规定,将被处以最高35,000,000(3500万)欧元的行政罚款,如果违规者是企业,则最高罚款额为其上一财政年度全球年营业总额的7%,以较高者为准 2.……不遵守高风险的,处以最高15,000,000(1500万)欧元的行政罚款,如果违规者是企业,则处以最高相当于其上一财政年度全球年营业总额3%的罚款,以数额较高者为准……. 3.在回应要求时向通知机关和国家主管机关提供不正确、不完整或误导性信息的,应处以最高7,500,000(750万)欧元的行政罚款;如果违法者是企业,则处以最高相当于其上一财政年度全球年营业总额1%的行政罚款,以数额较高者为准。4. …….小微企业违反以上,数额较低者为准
欧盟的法律框架对于违规行为的处罚分为不同的等级,包括形式性或轻度违规和违反主要的实质性规则的情形。这种罚款制度是从GDPR开始采用的,每一种违规行为都有明确的罚款额度,显示了一个比较明确的处罚逻辑。我们还应该特别关注于罚款的实际金额。从GDPR五年多以来的执法实践看,欧盟虽然设立了严格的罚款规定,但在实际执行中,大多数情况下罚款金额较低,只有少数严重违规的大企业会被处以高额罚款。例如,亚马逊和Meta,以及其旗下的Instagram和WhatsApp是为数不多被处以数千万欧元罚款的例子。回顾GDPR的执法案例历史,除了这样一些大型互联网平台和银行、电信等其他一些大企业,绝大多数案例中的罚款金额都相对较小。
欧盟法律的立法和执法过程中,特别考虑到了中小企业和初创企业的情况,努力在严格监管与支持创新之间找到平衡。这意味着,虽然不能心怀侥幸,认为不会受到处罚;但也不必过度担忧,认为罚款会造成毁灭性的影响。然而,千万不能将罚款视作经营成本,欧盟法律明确要求罚款具有足够的“阻遏性”,以防止企业将罚款纳入成本收益分析中。如果调查后发现企业有这种心态,可能会成加重罚款。大家遵守法律规定是基本原则,违规的后果不仅仅是经济损失,还可能包括企业声誉和业务运营的长期影响。
20 如何理解法案中关于风险的通知报告机制?
第4节 通知机关和通知机构 第28条 通知机关 第29条 合格性评估机构的通知申请 第30条 通知程序 第31条 与通知机构有关的要求 第32条 推定符合与通知机构有关的要求 第33条 通知机构的附属机构和分包 第34条 通知机构的业务义务 第35条 根据本条例指定的通知机构的识别号和名单 第36条 通知变更 第37条 对通知机关权限的质疑 第38条 通知机关的协调 第39条 第三国的合格性评估机构
报告义务在欧盟人工智能法规中具有历史性和延续性,延续了网络安全法律框架中关于漏洞和风险通知的原则。报告机制相对灵活,允许提交初步报告后再补充完整信息,这在实践中非常有意义。但是在大模型等新技术应用中,实施报告义务可能遇到特殊挑战。很多潜在的风险,甚至是非常严重的所谓“存在性”的风险,可能在实验阶段就被发现,这时界定是否属于法律规制的风险并不总是清晰的。在这一阶段进行风险报告可能涉及大量的商业秘密和知识产权问题,需要进一步的指导和指南来平衡法律要求与保护企业利益之间的关系。
对于新技术带来的新型风险,现有的风险评估和报告框架可能需要进一步的发展。例如,在大量的Corner Case(异常用例)中,如何有效归类和报告这些风险,以及如何确保报告的质量而不是仅仅报告数量,是需要解决的问题。这不仅是报告机制本身的创新挑战,也是对风险理解的深入程度和分类体系的完善性的考验。
21 法案对大模型的预训练数据治理有哪些约束?
法案原文的引用:
第10条 数据和数据治理 ……2.训练、验证和测试数据集应遵守适合人工智能系统预期目的的适当的数据治 理和管理实践。这些实践应特别涉及 (a) 相关的设计选择;(b) 数据收集过程和数据来源,如果是个人数据,还应说明收集数据的初始目的;(c) 相关的数据准备处理操作,如注释、标记、清理、更新、丰富和汇总;(d) 提出假设,特别是关于数据应衡量和代表的信息的假设;(e) 评估所需数据集的可用性、数量和适用性;(f) 审查可能存在的偏差,这些偏差可能影响人员的健康和安全,对基本权利产生负面影响,或导致欧盟法律所禁止的歧视,特别是在数据输出影响未来的运营投入的情况下;(g) 采取适当措施,发现、防止和减少根据第f项确定的可能的偏见;(h) 确定妨碍遵守本条例的相关的数据差距或缺陷,以及如何解决这些差距和缺陷。3.训练、验证和测试数据集应具有相关性和充分的代表性,并在尽最大可能的范围内没有错误,并且从预期目的来看是完整的。数据集应具有适当的统计特性,包括在适用的情况下,与意图使用高风险人工智能系统的个人或群体有关的统计特性。数据集的这些特性可以在单个数据集或数据集组合的层面上得到满足。4.数据集应在预期目的要求的范围内,考虑到高风险人工智能系统预期使用的具体地理、场景、行为或功能环境所特有的特征或要素。……
关于大模型的训练数据管理主要涉及以下几方面的问题:
一是版权问题。版权是目前面临的最大挑战之一,因为它直接关系到利益分配,且在全球范围内诉讼频发。人工智能法在GPAI的版权问题上提出了要尊重既有保护并发布详细摘要的要求,但具体表述并不明确,反映了各方博弈的结果。尽管一直有呼吁和尝试要去修改欧盟前几年通过的的《版权指令》,但到目前为止还没有成功。版权问题的解决需要进一步的明确化和共识。
二是个人数据和信息问题。个人数据的处理和保护是另一个重要痛点,尤其是模型记忆训练数据和原样输出训练数据的问题。尽管有些企业如谷歌在这方面做得较好,但整体上对于如何有效控制记忆输出还没有成熟的解决方案,最终可能需要在数据输入阶段进行屏蔽或过滤。
三是新的挑战:大模型在网络安全、社会工程学、和开源情报收集中的应用。这不仅关乎个人信息的识别和推断,也涉及到大模型作为工具在正面和负面方面的双重潜力。目前对于这些新挑战的风险实际上已经出现了很多,但公开的讨论还很少,需要未来更多的关注和研究。
22 法案中定义的GPAI(通用目人工智能)与AGI(通用人工智能)的区别是什么?
第3条 定义(63)“通用人工智能模型”是指这样一个人工智能模型,包括在使用大量数据进行大规模自我监督训练时,无论该模型以何种方式投放市场,都显示出显著的通用性,能够胜任各种不同的任务,并可集成到各种下游系统或应用中。这不包括在投放市场前用于研究、开发和原型设计活动的人工智能模型。
当AGI成为业界焦点后,不同人对其的理解和定义各不相同,导致了概念上的混淆。即使在专家接受采访时,对于“AGI是什么”的问题,也常常见到各种不同的回答。在法律操作层面,关注的焦点更加清晰,主要集中在数据规模、适应的目的、下游任务的多样性以及参数量等几个维度。不必过分强调AGI这一概念,使用“通用目的人工智能”(General Purpose AI, GPAI),并且明确这些关键要件也是一个可行的路径。选择使用哪个术语,部分取决于概念的谱系和想要强调的优先事项。例如,AGI可能更多地与OpenAI及其超级对齐的主张相关联,而“基础模型”(Foundation Model)则可能更接近斯坦福大学很有影响力的基础模型研究报告中的提法。在决定使用哪种术语时,除了辨识度外,还需要考虑到行业内的共识和分歧程度。选择一个之前讨论比较少的概念,然后再明确定义AI的关键要素和操作维度,有助于减少误解和混淆,确保法律和政策制定的准确性和有效性。
23 如何理解法案将通用人工智能模型的概念与人工智能系统的概念相区分?
(97) 应明确界定通用人工智能模型的概念,并将其与人工智能系统的概念区分开来,以确保法律的确定性。定义应基于通用人工智能模型的关键功能特征,特别是通用性和胜任各种不同任务的能力。这些模型通常通过自我监督、无监督或强化学习等各种方法在大量数据上进行训练。通用人工智能模型可以通过各种方式投放市场,包括通过库、应用编程接口(API)、直接下载或实物拷贝。这些模型可以进一步修改或微调为新的模型。虽然人工智能模型是人工智能系统的重要组成部分,但其本身并不构成人工智能系统。人工智能模型需要添加更多的组件,例如部署者界面,才能成为人工智能系统。人工智能模型通常被集成到人工智能系统中,成为人工智能系统的一部分。
欧盟人工智能法涵盖的不仅仅是人工智能技术本身,还包括与之相关的产品责任指令,这一指令在最新版本中对软件包括人工智能应用都明确了产品责任。这使得区分系统、模型和组件成为落地实践中的关键考虑因素。修正后的产品责任指令将软件明确为产品责任范畴内的一部分,基本上是在和人工智能法案几乎同时的时间通过。从落地的角度看,人工智能法案和产品责任指令的重要性不相上下。
人工智能的高风险应用需遵循一套管理体系,包括第三方评估和认证,这与传统产品安全的逻辑相似。在这一框架下,区分系统和组件对于理解责任分配尤为重要。责任分配应与收益、过错以及承受能力相匹配,而不应存在错配。无论是提供者还是部署者,责任的界定都应与其在产品中的角色和影响力相适应。在合规落地的过程中,企业需要通过内部控制和合约安排来明确责任分配,以减少风险,这也包括大企业与中小企业之间,以及平台与应用提供商之间的合同关系。围绕人工智能法案去博弈相关的合同是近来一个相当重要的问题。
24 为什么使用FLOPs来界定大模型的影响度?
-
FLOPs(floating point operations per second):指每秒浮点运算次数,理解为计算速度。比如评估某型号GPU的计算算力,即能够产生多少算力速度给模型。同时也可以作为描述深度学习模型在GPU上实际运行时速度的单位,即模型在GPU提供多少算力速度下进行训练、推理的任务。
第51条 将通用人工智能模型分类为具有系统风险的通用人工智能模型 1.如果一个通用人工智能模型符合以下任何一项标准,则应将其归类为具有系统性风险的通用人工智能模型:(a) 根据适当的技术手段和方法,包括指标和基准,对其影响能力进行评估;(b) 根据委员会依职权做出的决定,或在科学小组提出有保留的警告后,考虑附件十三设定的准则,认为通用人工智能模型具有与a点相同的能力或影响。2.根据第1款a点,当一个通用人工智能模型用于训练的累计计算量,以浮点运算计大于10^25时,应推定该模型具有高影响能力。3.委员会应当根据第97条通过授权法案,修订第2款和第3款列出的阈值,并在必要时根据不断发展的技术,如算法的改进或硬件效率的提高,对基准和指标进行补充,以使这些阈值反映先进技术水平。
对于那些基于Transformer架构的模型,可以相对简单地估算其训练过程中累计使用的浮点运算次数。估算是基于模型参数量和训练数据的token数量,为6倍于参数量乘以训练token量,这提供了一个监管和理解模型规模的技术基础。
尽管看起来大模型的算力数量似乎不透明,但实际上,对于模型的规模,业界和监管机构间存在一定程度的共识。例如,一些顶尖的模型,如美国的一些头部模型,其规模达到了25次方浮点运算次数,而欧洲的模型可能还未达到这一规模,或者只是非常接近这一规模。这种规模的模型已在技术报告中被部分公开,其他很多时候也有默契的共识。另外,美国发布的行政令通过设定算力使用的阈值,也是26次方浮点运算,目的也是在限制某些国家使用美国的算力资源训练高能力模型。这些反映了欧美在技术监管和国际博弈中的立场和动态。
在立法和监管过程中,涉及到的技术细节,如指令级的优化和算子融合,都可能影响模型的最终计算复杂度。业界与立法者之间,尽管存在分歧,但在模型规模及其潜在影响力方面已达成某种程度的共识。尽管从原理上可以简化计算模型的规模,但在实际监管中,精确计算和调查模型的实际训练过程则更加复杂,涉及到大量的技术细节和实际操作。
对于使用不同架构的模型,例如ViT等架构或基于RNN的,量化其规模和训练过程中的浮点运算次数仍然可行,尽管计算公式可能略显复杂。
重要的一点是,基于浮点运算的推定提供了一个初步的监管框架,但这种推定是可被反驳的。这允许模型开发者如果不同意监管分类,可以提出证据来反驳。虽然模型规模是判断其影响能力的一个直观指标,监管还考虑了其他因素,如用户数量等。这些都可以作为反驳监管分类的依据。
另外,关于Scaling Law(规模法则)的讨论,即是否存在某个最优规模使得模型能力最大化。对于从大模型蒸馏或裁剪出来的小模型,其训练过程中累积的运算量意味着它们仍然受到监管框架的覆盖。然而,如果某个小规模模型自身就具有强大的能力,监管框架允许通过科学小组进行特殊处理。选择以浮点运算次数作为监管的标准是出于在可操作性和共识形成上的考虑。尽管这一标准也存在争议,但它提供了一个相对清晰的判断依据。
25 立法者对于开源大模型持有什么态度?
第2条 范围 2. 本条例规定的义务不适用于根据免费且开源许可发布的人工智能系统,除非这些系统作为高风险人工智能系统或者属于第5条和第50条的人工智能系统投放市场或提供服务。
第53条 通用人工智能模型提供者的义务 2. 第1款规定的义务,除第c和d项外,不适用于根据免费且开源许可向公众提供的人工智能模型的提供者,该许可允许获取、使用、修改和分发模型,其参数,包括权重、模型结构信息和模型使用信息,均向公众公开。这一例外不适用于具有系统风险的通用人工智能模型。
欧盟人工智能法对于真正的开源项目采取了相当宽容的态度,明确指出如果项目是免费且开源的,则一般情况下不适用于整个法律框架。这一点体现了欧盟对于促进技术共享和创新的支持。欧盟人工智能法很清楚地区分了完全开源与部分开源(例如,所谓真开源、假开源或者半开源)的项目。法律特别关注项目是否完全开源,包括训练数据、模型梯度等关键组件的开放程度。
在讨论开源的过程中,欧盟人工智能法强调了梯度开源的重要性,这表明立法者对于保证项目透明度的细节非常了解,也意识到这些要素在确保开源项目真正开放方面的关键作用。法律还对那些虽然名义上开源但实际上与商业模式紧密耦合的项目表示了警惕,例如,通过捆绑非开源组件或要求以个人信息作为对价的项目。这种立场反映了欧盟对于防止滥用开源名义进行商业利益获取的决心。
对于具有潜在高风险的通用人工智能(GPAI)项目,完全开源可能会面临更大的挑战。由于这类项目的潜在影响巨大,可能需要更加谨慎地考量其开源策略。欧盟人工智能法的豁免也排除了这类模型。
26 法案中如何规范了AIGC所产生的内容?
关于生成内容,业界还是存在一个广泛共识的:如果内容是生成的,最好明确标明其非真实性。这是一个国际上普遍认同的原则,旨在防止生成内容被误认为是真实内容。对于大平台而言,承担内容治理的主体责任尤为重要。这包括使用技术手段如明显标识和隐性水印来提醒受众。尽管技术手段存在,但它们在实际应用中面临挑战,特别是对于文本内容的水印技术。
欧盟人工智能法在处理生成内容的标识问题时采取了相对柔性的策略。法律并非一刀切要求所有生成内容都必须加标识或水印,而是根据内容的性质、呈现方式等因素,选择最合适的技术手段进行区分。当前趋势是将识别和标明生成内容的责任更多地放在提供者,即要求他们在上传内容时标明其是否为AI生成。这种做法实际上将一部分监管责任转移到了通常意义下的内容平台。
对于生成内容的监管,法律和政策面临的挑战在于如何在促进创新和保护公众利益之间找到平衡。尽管法律框架提供了一定的指导,但在许多细节和具体实施方面仍有待进一步明确。相信指南会很快出台。作为比较,特别是关于生成内容的监管和知识产权问题,全球目前都还处在一个彼此观察和学习的状态。例如广州互联网法院最近关于奥特曼案件的判决这样的国内司法实践,这一案例的判决不仅影响了国内的讨论,也在国际上引起了广泛的关注。
延伸参考资料:
27 人工智能法的出现是否会影响人工智能领域的技术创新步伐?
尽管欧盟人工智能法看似严格,但通过各种例外和灵活条款,如研发例外、沙盒机制和对开源项目的宽容态度,法律实际上为技术创新和实验提供了一定的空间。特别是沙盒机制,允许在一定条件下免除罚款,体现了法律的柔性和鼓励探索的姿态。另外,法律对于真正的开源项目持宽容态度,强调只要项目是免费且完全开源的,一般就不适用于整个法律框架。这显示了欧盟对于促进开源生态和技术共享的支持。
虽然法律设立了若干机制来平衡监管严格性和技术创新之间的关系,中小企业在某些方面如监管沙盒的利用上可能还是会受益。然而,是否所有中小企业尤其是欧盟以外的企业能够平等享受这些机制,可能还存在公平竞争和市场准入的问题。
通过对GDPR实施情况的回顾,反映出法律实施过程中的长期性和复杂性。特别是在处理跨界数据流动和数字广告等关键问题上,法律实施效果和影响的评估可能需要更长时间。
对于处于不同规模和地理位置的企业,欧盟人工智能法的影响存在差异。例如,美国的大型平台可能由于其影响力和资源,能够更好地适应和影响欧洲的监管环境。相比之下,国内大型平台如果之前没有深度参与欧洲市场,特别是没有密切关注之前的立法过程,可能会面临更大的挑战。
对于国内企业的建议是,尽管许多企业在数据治理和安全等方面已有一定的基础,但欧盟人工智能法,特别是第8到第28条中所提出的要求还是会带来新的挑战。这些要求涵盖了从数据处理到系统框架的全过程,需要企业在技术创新的同时,也要着眼整个管线或者说生命周期内的合规工作。在技术探索和合规框架整合方面,企业面临双重挑战。一方面是如何继续进行技术创新,另一方面则是如何将创新过程嵌入到一个符合新法律要求的全面合规框架中。最终,如何将已有的合规措施和技术性工作,例如日志管理、数据安全等,可以整合成一个系统性的解决方案,既是组织的问题,也是人的问题。这要求企业在合规部门之间进行有效的协调和资源重新分配。
另外,对于理解欧盟人工智能法的立法过程和背后的博弈对于企业制定合规策略至关重要。通过分析立法过程,企业可以更好地理解每一条法律条款背后的利益平衡和价值取向,从而有针对性地调整自己的合规策略。企业不应将合规看作是零和一博弈选择,而应该认识到实际操作中存在的广阔灵活性。通过深入理解法律背后的利益博弈和价值取向,企业可以找到适合自身情况的多样化合规选项。
28 重新审视这部法律的目的和意义?
在技术发展如此迅速,条件很难说是完全成熟的情况下,构建这部分法律的意义主要有以下几点:
-
解决老问题:欧盟人工智能法旨在解决一些长期存在的问题,如生物识别技术的应用问题,这些问题被认为是需要在新的法律框架内解决的“老问题”。这反映了欧盟试图在保护个人隐私和安全方面采取更为严格的措施。
-
构建数字体系:通过实施人工智能法,欧盟希望完成其数字体系的拼图,与其他法律如数字服务法、数字市场法等一起,为数字时代提供一个全面的规范体系,促进数字公平和人机交互的健康发展。
-
成为全球负责任的领导者:欧盟通过这项法律,希望成为全球负责任且可信赖的人工智能领导者,这一点在法律的建议部分得到了强调。欧盟在这一过程中展现了其认真和艰苦的努力,试图通过一个深思熟虑的法律文本来实现这一目标。
法律的外部性和制定标准的好处:通过制定人工智能标准,欧盟不仅承担了一部分负担,也使其他国家和地区在学习和适应这些标准时承担负担,但制定标准的好处主要被欧盟独享,从而产生了一定的外部性。
人工智能的法律规范体系已经相当复杂,涵盖了数据保护、网络安全、平台责任等多个方面。欧盟人工智能法试图在AI语境下整合和固定这些交叉的法律要求,为企业和开发者提供确定性。尽管欧盟人工智能法首先服务于欧盟的利益,但对于其他国家和地区而言,在制定自己的人工智能法时,应参考其面临的重点和难点,尽可能在法律中明确各种规范的适用范围,避免引入新的不确定性。
近期李飞飞在参加英伟达GTC炉边谈话时也表达对于AI监管的观点:
“我绝对相信监管有它的作用。就像如果你有一个房子,如果你家里有孩子,就会有一些准则,对吧?所以对每一项创新,你都要设计对应的安全带。想想安全带拯救了多少生命,临床监管努力使我们的药品更安全,尽管还不完美。
AI是一项如此深远的技术。我们不能不监管它。但如何进行有效监管非常关键。从政府的角度来看,我们有两种方向的力量:一种是让社会创新,利用这项技术,提升每个人和社会的繁荣。另一种是确保它安全、可信、公平、透明。我认为这就是监管和激励之间的张力。我们必须深思熟虑地去做。
举个例子,我个人确实相信垂直领域,尤其是医疗、金融、交通等这些我们已经有监管框架的垂直领域,是时候更新它了。因为确实有许多迫切的用例,现在确实是时候让他们审视AI的影响了。例如,医疗器械。我们有很多医疗器械,它们受到很宽松的FDA检查或许可。我们应该真正关注这些垂直领域,看看我们如何在产品和服务中保证AI的安全,让其在这些领域发挥作用。
更深层次的监管措施,比如它如何影响我们的民主,社交媒体。我不得不承认,这是公民社会、学术界、政府等许多部门正在进行的一场复杂的斗争。我认为在过去二十年,或者至少十五年里,我们做得并不好。
我认为AI在某种程度上类似于电力或计算机。我认为我们不能为电力或计算机设立一个机构。所以我很难想象一个独立的AI机构。AI是如此的横向。”
END
本篇文章来源于微信公众号: AIGC开放社区