足球彩票

图片

从典型案例看人工智能时代中国企业出海的风险防控

信息来源:上海公平贸易 【2024-03-18】

2022年11月30日,美国OpenAI公司发布了ChatGPT,忽如一夜春风来,自此生成式人工智能在各个领域迅速发展起来。对于开展国际业务的中国出海企业而言,无论是产品出海,品牌出海,服务出海,还是供应链配套出海,都将不可避免地在这场“新工业革命”中拥抱人工智能技术,并与此同时面对更为复杂的风险。事实上,人工智能正在以惊人的速度席卷和深度赋能各行各业,引发令人惊叹的变革。然而,先驱性的技术,必然会与滞后的法律产生冲突,这也让企业在“抢占先机”和“遵纪守法”之间进退维谷,在风谲云诡的跨司法辖区情况下尤为如此。本文以近期典型的海外案例作为抛砖引玉,旨在为AI时代中国出海企业提供风险防控的初步指引。



产品责任


作为OpenAI的前创始人之一,埃隆·马斯克是人工智能领域的商业先驱,其创办的电动车企业特斯拉也广泛将人工智能技术应用在其制造的电动车中,特别是其著名的自动驾驶技术Autopilot和Full Self-Driving(简称“FSD”)。此外,特斯拉还在研发人形机器人Optimus,通过传感器和神经网络算法,在未来替代人类去执行不安全或是重复性的工作。然而在美国,特斯拉正面临着多起关于其自动驾驶技术的诉讼和联邦调查。


2019年6月29日晚上10点左右,37岁的Micah Lee在美国加州驾驶一辆2019款的特斯拉Model 3,在无预警的情况下车辆突然向右侧转向驶离道路,以大约每小时65英里的速度撞上了路边的一棵棕榈树,车辆发生燃烧。Micah Lee本人死亡,车上两名乘客Lindsay Molander和她的8岁儿子Parker Austin遭受重伤。2020年6月26日,Lindsay Molander和Parker Austin在加州向Tesla, Inc.和Tesla Motors, Inc.发起民事诉讼,诉由包括制造缺陷严格责任(strict liability – manufacturing defect)、设计缺陷严格责任(strict liability – design defect)、过失(negligence)以及未能召回的过失(negligence – failure to recall),要求被告向其支付超过4亿美元的补偿性损失和惩罚性赔偿金[1]


2023年10月31日,这起首例自动驾驶相关的致死车祸诉讼案件的审判以特斯拉的胜利告终。虽然原告声称是Autopilot突然的系统故障造成了这起事故,但特斯拉声称Autopilot的设计无法实现事故中的方向盘转向动作。事实上,根据车辆的数据记录器和目击者的证词,Micah Lee 在事故前曾多次改变车速和方向,没有按照系统的提示将双手放在方向盘上,且事故发生时Micah Lee和Lindsay Molander都喝了酒,而Lindsay Molander亦没有系安全带。最终,在9比3的12人陪审团决定中,加州法院认定2019款的特斯拉Model 3没有制造缺陷,没有证据证明Autopilot是造成事故的原因,特斯拉在其用户手册和网站上都向用户充分披露了自动驾驶系统的功能和限制,并没有误导或欺骗用户,且要求用户在使用自动驾驶系统时遵守相关的法律和规则。疏忽和鲁莽的驾驶员才是事故的最终责任人。


作为世界上市值最高的汽车公司,特斯拉的这场诉讼案为整个汽车行业树立起法律先例,展示了如何在技术狂飙的时代,在现有滞后的法律框架下积极维护企业的利益,但与此同时也为未来立法的走向埋下了伏笔。美国联邦和州层面均尚未出台全面具体的自动驾驶相关的监管规定,整体上干预较少,鼓励技术创新和发展。在此背景下,传统的侵权责任原则仍在适用,而这就导致了目前包括本案在内的数起与自动驾驶相关的民事诉讼,最终结果依然是驾驶员承担责任。这是因为,目前的所谓“自动驾驶技术”,还停留在辅助驾驶(L2级)和有条件自动驾驶(L3级)之间,车辆尚无法完全脱离驾驶员的操作,其依然具备传统的工具和私人财产属性。然而,随着驾驶员在自动驾驶汽车操作过程中介入的程度越来越小,在自动驾驶技术发展到高度自动驾驶(L4级)和完全自动驾驶(L5级)时,其底层的人工智能程序将具有高度自我学习、适应和决策能力,自动驾驶汽车将高度智能化,其法律人格问题将进一步凸显。一旦汽车本身可以自行决定在复杂路况下应采取何种行为,驾驶员和车辆之间的关系将不再适用传统的代理理论,届时法院和立法机关可能将要求对汽车制造商承担严格责任(strict liability),或基于共同体(common enterprise)原则,要求参与自动驾驶汽车制造和服务的主要相关方共同承担连带责任。


在本案中,特斯拉生产的2019款Model 3车辆使用的Autopilot技术属于辅助驾驶(L2级)水平。即使在技术高速发展4年后的今天,特斯拉的官方网站上依然明确说明“Autopilot 自动辅助驾驶是高级辅助驾驶功能套件,旨在提升驾驶安全性并减轻压力。这些功能都无法实现 完全自动驾驶或取代您的驾驶员身份。”此外,特斯拉在用户手册中还用红色警告的方式多次提示,无论驾驶员开启Autopilot还是FSD功能,其都需要动手操作,始终把手放在方向盘上,随时做好接管车辆的准备并立即采取措施,否则可能导致财产损坏或严重的人员伤亡。这项“免责声明”在本案中对特斯拉的最终胜诉起到了至关重要的作用。然而,让特斯拉处于巨大舆论压力和法庭质疑的一点是,其在2016年的Autopilot广告中宣传“驾驶员座椅中的人只是因为法律原因才坐在那里。他什么也没做。车在自己驾驶。”加上Autopilot和FSD本身命名的含义给消费者的直观印象,很容易让购买特斯拉的车主认为车辆具有比实际功能更为智能和先进的自动驾驶技术。这不仅是本案中原告的诉由焦点之一,也让特斯拉陷入了涉嫌虚假宣传的联邦调查中。目前特斯拉已经及时调整了其广告宣传的话术。


本案对于中国出海企业具有非常有益的启示作用。第一,对于深度集成了人工智能技术的产品制造商而言,在海外推广和销售产品时,一方面在市场宣传自家产品“遥遥领先”的同时,需谨慎把握尺度,避免夸大其词和虚假宣传,另一方面在操作手册、书面材料、产品自身系统警示、用户教育和培训中需要做好充分的风险提示和披露以及法律允许范围内的“免责声明”。第二,AI时代的特点是利益相关方众多,产品得到AI技术的赋能和加持后,产品制造商、AI技术服务商、零部件提供商、销售商、云服务商等都可能在交互中造成潜在的风险,因此彼此间需要签署详细而全面的合同列明彼此的义务、责任、陈述与保证以及赔偿等相关安排。第三,AI技术的发展速度在全球各个司法辖区内都远远超过当地立法的速度,如何与当地利益相关方一起共同推动行业标准以及法律法规的制定,将对中国企业开展海外业务而言至关重要。第四,密切关注海外当地市场的法律法规、行业标准、准入政策等的发展,及时做出必要调整。比如,仅在上个月一个月时间内(2024年2月),美国就相继宣布要针对涉中国网联汽车的ICTS交易进行国家安全审查,以及限制将敏感数据出售或转移至中国;本月(2024年3月),欧洲议会亦将对《人工智能法案》(Artificial Intelligence Act)进行投票表决。AI时代技术在狂飙、法律在追赶,企业需要保持格外的合规敏感性和整改灵活性,特别是涉及到算力和数据这两项战略资源。第五,充分利用本地市场可使用的第三方担保工具,如保险,分担风险责任。



知识产权和数据合规


除了上述产品责任问题之外,知识产权和数据合规,亦是AI时代中国出海企业必须面对的重大问题。随着近期关于生成式人工智能模型和应用相关的诉讼越来越多,如何解决这种崭新的、不断快速发展的技术所引发的知识产权、个人隐私和消费者安全保护问题,部分案例提供了有意义的初步研究。在这些案例中,原告的主张集中在AI厂商使用从互联网收集的数据来训练生成式人工智能模型的行为,以及收集和使用受版权保护的公开数据是否构成侵权。


在2023年1月发起的Andersen v. Stability AI Ltd.[2]一案中,原告Sarah Andersen, Kelly McKernan和Karla Ortiz代表一群艺术家向三家著名的人工智能图像生成应用公司提起集体诉讼,涉案应用包括Stable Diffusion(由 Stability AI 开发)、Midjourney(由 Midjourney 开发)和 DreamUp(由 DeviantArt 开发),这些应用可以根据文本输入生成图像。原告声称,这些应用的底层AIGC大模型在未经同意的情况下使用从互联网上抓取的受版权保护的图像(包括其受版权保护的作品)进行训练,这种做法使得艺术家无法获得应有的报酬,并允许被告从艺术家的版权作品中获利。在驳回动议中,被告辩称,相关AIGC模型没有复制或存储任何受版权保护的图像;相反,他们的模型只分析在线图像的属性以生成参数,这些参数后来用于帮助模型从文本提示创建新的和独特的图像,而不是复制或复制用于训练的基础图像的任何部分。美国加州北区地方法院最近做出裁决,驳回了原告的大部分诉讼请求,并准许原告对其大部分诉求进行修改。2023 年 11 月 29 日,原告提交了修改后的起诉状。由于该案中的初步裁决尚处于早期阶段,且法院要求原告对其诉状进行进一步的修改,因此该案留下了许多关键问题没有得到解答。


无独有偶,2023 年 12 月 27 日,《纽约时报》发起了对 OpenAI的诉讼[3],称OpenAI未经许可使用其材料来训练AI模型。OpenAI辩称,其对互联网内容的大规模抓取,包括《纽约时报》的文章,受到美国《版权法》中“合理使用”法律原则的保护。该原则允许在某些情况下未经许可重复使用材料,包括用于研究和教学。OpenAI认为其未经许可使用受版权保护的内容来训练AI模型达到了“变革性”(transformative)目的,从而属于“合理使用”。然而,《纽约时报》认为,OpenAI对其内容的使用不符合“变革性”标准,因为在没有支付任何对价的情况下使用《纽约时报》的内容来创造替代《纽约时报》并抢走其读者的产品,没有任何变革性。


虽然近期上述这些与生成式人工智能有关的版权案件引起了极大的关注,但这些案件并不是第一个涉及未经许可使用材料来训练人工智能模型的版权案件。2020 年 5 月,Thomson Reuters起诉 ROSS Intelligence Inc. (“ROSS”)案在美国特拉华州地方法院提起[4],其核心指控是,Thomson Reuters的 Westlaw 法律研究数据库中受版权保护的内容被用作ROSS开发的人工智能法律研究工具的训练数据。


2023 年 9 月,法院裁定,该案的大多数问题都无法通过简易判决解决,因为该案中的许多关键事实仍然存在争议。然而,法院初步批准了原告的简易判决动议,即ROSS是否至少事实上参与了对Westlaw材料的复制。法院指出,与合理使用有关的关键事实包括大模型训练的目的和结果。法院并不认为,在评估“合理使用”的“变革性”(transformative)因素时,大模型训练过程中所涉及的复制总是具有变革性,而是认为这种所谓的“中间性复制”是否具有变革性取决于对训练材料使用的确切性质。法院表示,如果像ROSS所主张的那样,人工智能工具只研究了标题中的语言模式,以学习如何产生司法意见引用,那么它将是具有变革性的“中间性复制”。但是,如果像Thomson Reuters所声称的那样,ROSS使用未经转换的标题文本来让其人工智能“复制和重复Westlaw的法律编辑所做的创造性起草工作”,那么这些“中间性复制”将不满足变革性的条件。因此,法院认为,这种使用是否具有变革性是陪审团需要决定的重要事实问题。


关于剩余的合理使用因素,包括受版权保护的作品的性质、使用的实质性、潜在的营销影响,事实争议也有待陪审团来决定,比如陪审团必须判断和决定允许人工智能使用受版权保护的材料进行训练是否符合公共利益。该案预计将于2024年8月开庭审理。


在与上述案件类似的诉讼和争议层出不穷的背景下,部分机构选择与AI企业达成合作,以实现商业共赢。例如,美联社、德国大型媒体公司阿克塞尔·施普林格(Axel Springer)、等新闻机构纷纷与OpenAI达成授权协议,允许ChatGPT将其内容用于模型的训练[5]。然而,并非所有机构都选择合作,部分机构通过技术手段阻止OpenAI扫描和抓取其平台的内容,例如CNN、路透社、The Chicago Tribune、The Canberra Times、The Newcastle Herald等杂志社均公开表示拒绝OpenAI的网络抓取行为[6]


上述案例对于中国出海企业的参考意义在于,只要涉及到人工智能,知识产权和数据合规就是不可避免的一项潜在风险。由于目前所有的人工智能大模型都采用了从互联网抓取海量数据的方式进行训练,而向每一个训练数据支付授权费是不切实际的,所以一旦数据涉及到受知识产权保护的内容,诉讼就可能会发生。由于法律上的滞后,世界各国的理论界和实务界目前都基本上尚未有明确的结论,因此,开发人工智能大模型和应用的公司都可能面临权利人的诉讼风险,使用人工智能技术对其产品进行赋能的制造商可能因为相关技术的潜在侵权问题而影响产品的销售和推广,而内容出海厂商则面临自家内容被无偿抓取用于训练AI大模型和开发相关垂直领域的应用,进而影响自身业务的风险。上述案例至少在目前阶段提供了一些初步的风险防范思路,比如人工智能大模型和应用的公司可以参考OpenAI的做法,一方面提高训练数据的知识产权合规性,与主要的出版商、版权所有人和第三方数据库达成商业合作,另一方面在用户条款中做出充分披露和免责声明,同时给版权所有人提供申诉通道,一旦要求即停止使用相关受保护的内容进行大模型训练。使用人工智能技术对其产品进行赋能的制造商应该与人工智能技术提供商签署赔偿协议,一旦遭受损失或者被提起侵权诉讼,要求人工智能技术提供商赔偿损失并承担所有责任。内容出海厂商在发现自身内容被抓取的情况时可以与相关方就使用费用达成一致,或采用技术手段阻止抓取,并在收集充分证据后积极采用法律手段进行维权。



地缘政治


除了上述潜在风险之外,中国出海企业在人工智能领域面临的最大风险其实还是政治风险。“主权人工智能”是ChatGPT横空出世后被频繁提及的概念,鉴于通用人工智能的战略作用,各国都积极投入人工智能的基础设施建设,用符合本国语言、文化、传统和思维方式的数据训练自己的大模型,从而在AI时代保持竞争力。


美国作为人工智能技术的领导者,从出口管制、国家安全和境外投资等多维度捍卫其AI地位。2023年10月,拜登政府对包括英伟达在内的先进AI芯片出口做出进一步限制,欲从算力角度对中国釜底抽薪;2024年2月,美国总统拜登签署行政命令,限制向中国出售美国敏感数据,欲从数据角度进一步限制中国参与AI竞赛;此外,2023年8月,美国出台的“反向CFIUS”行政命令限制和禁止美国主体对中国人工智能领域进行投资,而美国传统的国家安全审查机制CFIUS则早就将人工智能领域放在重点审查的范围内,这些皆从投资角度欲阻碍中国的AI发展。对于中国企业而言,通过传统的离岸架构或者协议控制等方式试图规避上述限制已被证实意义不大,在本质上是国与国之间博弈的背景下,任何企业都无法独善其身。因此,出海企业需要谨慎使用境外,特别是美国的AI相关硬件和技术,时刻关注有关出口管制、实体清单、投资限制等法律法规的最新动态,提前做好合规和被制裁预案,做好数据本地化部署,同时注意遵守中国相关的数据跨境、算法出口、境外投资等限制。另外,善于利用双边投资协定和国际投资仲裁,在复杂的地缘政治和贸易保护主义泛起的背景下,可能是出海企业无法通过当地司法途径维护自身权益时的唯一法律救济。


2020年10月,瑞典邮政和电信管理局做出决定,要求参与 5G竞拍的运营商不得在5G网络中使用华为或中兴的设备和服务,并需要在限定期限内从其3G和4G网络中移除华为或中兴的设备和服务。虽然华为迅速在瑞典当地提起诉讼,但诉讼很快就被驳回。随后,华为极具战略性地选择了两条战线维护自身利益,以时间换空间,一是在迅速提起上诉,继续走传统的诉讼程序,二是针对瑞典政府在国际投资争端解决中心ICSID提起投资仲裁[7]。后者系依据《中华人民共和国政府和瑞典王国政府关于相互保护投资的协定》及两国于2004年就上述协定签订的议定书(“中国-瑞典BIT(1982)”及“2004 年议定书”)提起。华为在仲裁申请书中表示,瑞典政府针对华为的不透明措施极具歧视性,其剥夺了华为在瑞典长期投资的权益,给华为造成了严重损失,违反了中国-瑞典 BIT(1982)的相关条款。华为主张瑞典政府应赔偿其全部损失。目前该案仍在审理中。


在本案中,华为显然无法通过常规的司法途径主张权利。众所周知,西方对华为的打压有较强的政治因素考量,而打压的背后一定伴随着有针对性的立法,从而使其打压具有所谓的“合法性”,因此地方法院大多会做出不利于中国企业的决定。华为的投资仲裁虽然结果还是个未知数,但其带给中国出海企业的启示是,在决定投资路径和交易架构时,如果企业涉及到类似人工智能这样具有大国战略意义的领域,那么除了考虑传统的财务和税收成本外,也应当寻求专业的法律意见,进行全面和详细的投资协定规划,通过规划投资路径(forum shopping)等方式,最大程度享受对自身最有利的双边投资协定的投资保护。如果当地政府采取的限制、打压行为使企业的海外正当权益受损,哪怕是打着“合法”的旗号,企业都应该积极考虑投资仲裁的选项,捍卫自身的权益。



人工智能时代,所有的行业将被重塑。在这激动人心却又充满未知的时代变革中,中国出海企业面临的不仅是攻城掠地的商场厮杀,还有千头万绪的法律变化。《孙子兵法》云,能因敌变化而取胜者,谓之神。为保持高度的合规敏感性和整改灵活性,我们建议企业一方面积极修炼内功,根据企业的实际情况打造强力的内部合规团队,建立完善的企业合规制度,并与技术团队保持高度协同,另一方面在业务涉及算力、数据、伦理等可能触发地缘政治博弈的因素时,尽早咨询专业人士的意见,在交易架构设计、合同起草、业务和产品相关资料的表述设计、诉讼和仲裁、政府关系、监管审查和申报、选择本土第三方保护工具、投资保护等各个维度打造企业的“铠甲”,为企业出海保驾护航。