原创 张学博 王涵睿 上海市法学会 东方法学 收录于合集 #2023世界人工智能大会法治青年论坛文集 17个
张学博
中共中央党校(国家行政学院)政治和法律教研部教授
王涵睿
中共中央党校(国家行政学院)硕士研究生
要目
一、生成式AI发展过程及现状
二、生成式AI对我国当下法律体系的挑战
三、生成式AI规制制度构建的域外经验
四、生成式AI法律规制的未来展望
结语
研究机构OpenAI发布的ChatGPT聊天机器人掀起了人工智能的新一轮研究浪潮,也引发了公众对于生成式AI可能威胁人类发展的担忧。目前,ChatGPT可能会引发著作权归属争议、隐私数据泄露、社会不平等、公序良俗受到冲击等问题。对此,要结合我国实际情况采取事前审查、事中监管、事后追责等方式,为生成式人工智能行业平稳有序健康发展保驾护航。
一、生成式AI发展过程及现状
2022年,人工智能领域的新热点无疑是“生成式AI”(Generative AI)。不同于过去的“分析式AI”(Analytical AI),生成式AI采用深度合成技术,通过各种机器学习(Machine Learning)方法从数据中学习对象的组件,进而生成全新的、完全原创的内容(如文字、图片、视频)。这些内容是以训练数据为基础生成的,并不是简单地对学习数据进行复制,也不是对原有数据进行打乱重组。
生成式AI首先在图像生成领域取得重大突破。2022年4月,美国人工智能研究公司OpenAI发布了Dall-E2,这款图像生成AI可以根据用户对内容的描述和形式的要求迅速生成对应的图形,且不限制用户进行夸张的描述。随着言语描述生成图形的AI概念迅速爆火,比Dall-E2表现更出色、更人性化的Stable Diffusion模型迅速走红。Stable Diffusion可以按照使用者的需求,产生一系列的照片。如果使用者认为某一图片更好,就可以把它作为种子保存起来。通过这种方式,该软件能够记住该图像的基本组成风格,并在以后的图像制作中根据该图像作一些修改,使用户得到更为满意的图片。
在图形生成型AI大获成功的同时,文本生成型AI也在逐渐发展壮大,其代表作品就是ChatGPT。ChatGPT也是OpenAI旗下的产品,是“Chat Generative Pre-Trained Transformer”的缩写,即“生成型预训练变换模型”,或可直译为“聊天生成器”。该系统不但能在互动时,对使用者提出的一些简单问题进行流畅回答,而且能在使用者的指导下,比较复杂的任务。例如,用户只要列出大纲、提出要求,其就能在较短时间内迅速撰写出一部符合条件的小说。还有人将ChatGPT和Dall-E2组合使用,将ChatGPT对文字的理解和转化运用到Dall-E2上,使其生成对应的图片,这比单独使用Dall-E2完成的作品更为出色。
北京时间2023年3月15日凌晨,OpenAI发布了多模态大模型GPT-4,并迅速引爆全球舆论。GPT-4的前代产品,正是2022上线两个月狂吸1亿用户的ChatGPT大模型GPT-3.5。与GPT-3.5相比,GPT-4除了支持多模态外,其对自然语言文字的处理也在多个层面进行了增强,安全性也有了更大的提升。首先,GPT-4可以对屏幕上的图片、图表、文档等图文交织的信息进行处理,并将其作为文字输出,而非仅重点处理用户输入的文字信息。其次,GPT-4可以读取、分析或生成的文本长度达到25,000字,大大超过了GPT-3.5的3000字上限,它可以被用在诸如长篇内容创作、扩展对话以及文档搜索和分析等方面。最后,GPT-4比GPT-3.5更能应对复杂微妙的场景。比如在一次模拟律师考试中,GPT-4的分数在应试者中排名前10%,而GPT-3.5的得分排名在后10%。说明GPT-4在专业测试中的表现更接近人类水平。
人们被GPT-4的卓越能力惊艳的同时,对于人工智能接下来会向何处进化、是否会威胁人类的担忧也越来越多。当地时间3月23日,包括Mila-Quebec AI Institute创始人兼科学总监Yoshua Bengio在内的数百名人工智能和技术领域的关键参与者日前共同签署了一封由Future of Life Institute发起的公开信,要求人工智能实验室立刻终止针对比GPT-4功能更强的AI系统进行的训练,并至少持续6个月。在此期间,人工智能领域的研究人员和行业参与者应该共同制定一系列安全规范,以确保AI技术的安全性和可靠性,并对技术发展进行严格的审查和监督。
二、生成式AI对我国当下法律体系的挑战
著作权等知识产权归属争议加剧
生成式AI所创作的作品是否能够受到著作权法的保护,这不仅关系到未来人类对文学艺术作品的创作,更与人工智能的发展路径息息相关。如果说,曾经的AI只是从已有作品中提炼要素并重新组合,这种产物没有独创性也没有内在的理解与思想,因此不能被认为是作品,那么ChatGPT的出现无疑对知识产权领域这一观点产生了巨大冲击。3月16日,美国版权局(USCO)发布的美国法规第202部分中规定,通过Midjourney、Stability AI、ChatGPT等平台自动生成的作品,在整个创作过程中完全由机器人自动完成,并且训练的数据是基于人类创作的作品,因此,不受版权法保护。而在我国,著作权法中没有对此问题进行明确规定,理论界和实务界均没有达成统一共识,且这些争论在面对ChatGPT这一生成式AI时,又会发生新的变化。
首先,对于人工智能产品是否具备了作品的特性这一问题,学界对此的讨论大多集中在“独创性”问题上。反对者认为,对于人工智能生成的内容是应用算法、规则和模板的结果,即便在表现形式上与人类创作的作品几无差别,但其生成过程没有给人工智能留下发挥其“聪明才智”的空间,不具有个性特征,并不符合独创性的要求,因此不能构成作品。而深圳市南山区人民法院在个案中则采取了赞同的立场,其认为具体认定是否属于创作行为时应当考虑该行为是否属于一种智力活动以及该行为与作品的特定表现形式之间是否具有直接的联系,软件的自动运行并非无缘无故或具有自我意识,其自动运行的方式体现了原告的选择,因此,从涉案文章的生成过程来分析,该文章的表现形
式是由原告主创团队相关人员个性化的安排与选择所决定的,其表现形式并非唯一,具有一定的独创性。然而,无论是赞成还是反对观点,都是建立在人工智能不具备自主意识的基础上得出的结论。随着ChatGPT的广泛应用,其深度学习和分析数据的能力使得它不仅仅只是程序算法,而是逐渐具备人类特有的独立思考能力。它可以在读取已有数据的基础上,创造性地给出自己的答案,“使得程序算法和独立思考的界限进一步模糊”。那么是否可以认为,生成式AI的产物的表现形式以及内容,在思想上与人类作品几乎没有什么区别,已经满足了法律所规定的最低标准的独创性。
此外,著作权的权利义务归属仍不明朗。ChatGPT使用协议第3(a)条指出“在现行法律允许的范围内,用户拥有输入内容的所有权,且在遵守协议前提下,OpenAI公司向用户转让输出内容的所有权利权益。从双方职责划分来看,OpenAI公司遵守法律法规及协议,可在必要的情况下可以使用用户提供的内容。用户对内容负责,包括确保不违反任何现行法律或用户条款。”OpenAI企图通过这一内容强调ChatGPT的技术中立原则,但这项条款却颇有推卸责任的嫌疑。基于ChatGPT算法模型的复杂性和“算法黑箱”的存在,普通用户很难完全了解ChatGPT的操作逻辑,对其产生的内容没有对应的预期,司法人员也无法通过检查和分析来判断侵权行为是否在算法运行过程中产生,导致用户实际上处于不利地位。
隐私数据、商业秘密泄露风险增大
人工智能的普及使得人们的日常生活越来越趋于“透明化”,当我们面对众多选择难以抉择时,人工智能可以根据对历史记录、行为模式和当前情况等日常数据的分析,以最小的成本和最快的速度帮助我们作出最明智的选择。这虽然为我们的生活带来极大的便利,但背后隐藏的巨大数据隐私泄露风险也不容忽视。OpenAI为ChatGPT提供的在线文本数据,包括约3000亿个来自书籍、新闻文章、博客、社交媒体、百科全书和其他来源的单词。然而,目前ChatGPT仍属于算法黑箱,OpenAI并未对外公示所使用的数据来源,相关训练数据库是否均获得授权还存在疑问。另外,当用户与ChatGPT进行交流时,其输入的信息也可以成为它学习的对象,且ChatGPT使用协议第3(c)条“为了帮助OpenAI提供和维护服务,您同意并指示我们可以使用内容来开发和改进服务。您可以在这里阅读更多内容,了解如何使用内容来提高模型性能”也表明了OpenAI不会对输入的信息进行监控和保护。如果有人恶意将他人信息导入其中,那么被侵权人不但无法确定侵权人的真实身份,还要忍受自己的隐私被分析、编排甚至杜撰的痛苦。另外,ChatGPT的出现也使商业秘密被侵犯的可能性大大提升。某一公司的工作人员在使用ChatGPT时很可能会无意间透露如工作薪水、内部组成等直接影响到企业运营和技术的信息,这些信息被捕获后,若有恶意第三人进行诱导性提问,那么ChatGPT很可能会全盘托出。恶意第三方的侵入也会使得商业秘密被泄露,这里不仅包括第三方直接盗取数据,也包括黑客植入算法病毒造成数据污染。
造谣成本显著下降
一些别有目的的使用者可以利用生成式AI模型,自动产生大量有说服力的误导和不实信息,以达到暗中操控舆论的目的。ChatGPT的横空出世为这一问题带来了更大的挑战,即使是最普遍的AI换脸都需要被侵权人通过细节来证明内容虚假,那么面对GPT这种拥有超强学习能力且可以自主生成看起来毫不虚假的视频或图片的生成式AI,未来被侵权人该如何有效地收集证据来对抗侵权人,值得深思。
冲击公众对法律的认知
2023年1月30日,哥伦比亚一名法官在审判一起孩童医疗权案件时使用了ChatGPT,并最终作出一份关于自闭症患者免于支付治疗费用而获得医疗服务的法庭判决,引发争议。这名法官表示,在与
ChatGPT的沟通过程中,它不仅援引了法律来进行说理,还指出宪法法院曾有过类似的有利判决。最终这名法官采用了ChatGPT的答案,但表示“ChatGPT和其他类似程式在拟定审案文本草稿的时候很有帮助,但目标并不在于取代法官”。尽管法官宣称,使用ChatGPT来协助审判具有诸多优点,但由于现有的证据表明,AI可能会带来偏见,甚至是错误的信息,因此,许多人工智能伦理研究人员并不赞成这种做法。关于这个问题,我国最高人民法院于2022年12月印发了《关于规范和加强人工智能司法应用的意见》,其中明确指出:无论技术发展到何种水平,人工智能都不得代替法官裁判,人工智能辅助结果仅可作为审判工作或审判监督管理的参考。
人工智能对于法律体系的冲击远远不止于此。随着网络技术的发展和日趋成熟,人们在购买法律服务时,往往会选择更加标准化、能够由电脑操作的法律产品,因为这意味着成本的降低。人工智能的出现使得成本变得更低,它可以整合全局性数据,使公众从最初的仅认识法律规范,演变成了解条文的运作结果。ChatGPT出现后,基于其强大的学习能力,人们不仅可以通过它得到问题答案并明确法律依据,甚至可以输入自己的信息,让它给出个性化的意见和建议。在人类与人工智能的互动过程中,人们对于法律的认知实际上由原来对单一的立法权威所制定法律规范的认识,逐步被重构为不同的当事人与不同人工智能之间复杂博弈之后形成的状态。当法律活动的参与者与法律规则紧密相连时,规则算法已与现实情况相结合,对于不同的个体来说,即使他们承认自己被一条普遍的法则约束,产生的个体化影响也是不容忽视的。法律规范从一般化到个人化的转换,其实质是一种或然性的转化。正因如此,如果ChatGPT受到大量错误信息的训练,公众的认知就会与专业司法团队的判断形成冲突,最终势必导致一方对另一方的妥协。
垄断现象愈加严重
在人工智能高度发达的当代社会,一些本属于私人的财产或自愿或强迫为互联网巨头企业共同享有,这给他们带来了巨大的垄断利益,且这种垄断利益遵循收益递增规律。在用户与ChatGPT对话的过程中,出于效率的考虑,他们会将自己的信息交给AI使用。长此以往,掌握公众数据的人工智能企业将逐渐拥有实质权力。生成式AI的兴起可能会加剧科技巨头公司的垄断地位,造成市场实际不平等现象。据估计,OpenAI需每天花费10万美元来支撑ChatGPT的运行,这其实是很多企业无法进入这个行业的成本壁垒。大型互联网公司不断投入研发资金,小企业又无法进入市场与之抗衡,导致行业垄断现象愈发严峻。
对公序良俗提出更高挑战
ChatGPT可能会使主流群体的偏见和歧视更加隐蔽。尽管OpenAI在发布产品前投入了大量的人工运力进行训练,以使它尽量地保持其中立的态度。但随着ChatGPT面向公众公开,大量用户成为训练它的主力军,OpenAI进行人工干预的成本显著增加,这就使得歧视问题更加无法避免。研究者们从GPT-3开始就在思考这个问题,但一直没有找到有效的对策,只是给了一些类似于“创可贴”的方法,不能从根本上解决问题。ChatGPT以“理性、中立、客观”自居,实际上其本质已经超越了技术工具的范畴,而是“一种涉及权力配置的意识形态引导的技术范式”。在人工智能技术所形成的政治科技互嵌、真假混杂的背景下,意识形态风险表现为“隐蔽化、全域化、复杂化、动态化”的特征,而AI可以准确模仿极端主义内容,并将个人激进主义化为极端主义意识形态。简言之,使用者根据其自身的主观意志与价值判断对ChatGPT进行训练,那么它将会延续这种价值判断。
ChatGPT也使得诚信问题受到广泛关注。2023年1月,在线课程平台Study.com公布的一项调查结果显示,超过89%的学生使用过ChatGPT完成课后作业,更有50%以上的学生曾使用ChatGPT撰写论文,这一数据在ChatGPT受到广泛关注后呈明显上升趋势。2023年1月27日,《科学》系列期刊的主编HoldenThorp公开表示,《科学》及其子刊不会接收由ChatGPT所写的文章,因为不适当的引用可能存在剽窃风险。除学术论文外,ChatGPT另作品、艺术品的原创性存疑会增加基于信任的交易成本,最终导致社会信用度下降,甚至催生虚假广告、文章造假等黑灰产业链。
三、生成式AI规制制度构建的域外经验
人们对生成式AI这一新兴事物的认知仍然随着它的发展在不断变化,目前各国没有单独针对它颁布法令。但由于其本质上仍属于人工智能,因而对各国关于人工智能的法律规范进行分析,也有助于我国未来应对挑战,并为制度构建指引方向。
美国在促进发展同时兼顾数据保护
英美法的变革较为缓慢和保守,倾向于“向后看”。但是,在对人工智能进行法律规范方面,英美法的发展却是处于世界领先地位的。以美国为例,它的人工智能发展方针是通过对人工智能的长期投入来维持其在该领域的领导地位。而在AI领域,美国更关注在不过多干预的情况下,鼓励人工智能技术的发展。
2019年2月11日,《维护人工智能领导地位的行政命令》的签署,标志着美国人工智能计划的启动。该命令指出联邦政府将制定跨技术部门的人工智能发展准则,并制定完整的人工智能治理方法,以增加对人工智能系统的信心,各部门的专业组织也可以提供专家意见。除此之外,《国家人工智能研发展战略计划:2019更新版》中明确表示必须认识并处理人工智能对法律及社会的影响,以保证其安全性和可靠性,为人工智能培训和测试创造适宜环境和开发公共数据集,并为衡量和评估人工智能制定基准。可以看到,尽管在立法层面上美国提出了制约AI的方案,但在后续动作中仍是以鼓励发展为首要目的。
发表评论