郑戈:大型语言模型与法律职业的未来
法律是一种语言的艺术。大模型在自然语言处理方面取得的重大突破,会对法律职业产生怎样的冲击?上海交通大学凯原法学院教授、上海交通大学中国法与社会研究院企划委员会主任、研究员,上海交通大学涉及人的科学研究伦理委员会委员郑戈,在法理学、宪法学以及数字科技与法律交叉学科领域建树颇丰,曾连续三年被世界人工智能大会评定为智慧法治学术影响力排名前10的学者。
在2023年4月15日举办的“数法融生 智领未来——第七届新兴法律服务业高峰论坛”上,郑戈教授畅谈了大型语言模型的特点、对法律行业的“重塑效应”,提出了法律人应对技术深度变革的方略。
郑戈
上海交通大学凯原法学院教授、上海交通大学中国法与社会研究院企划委员会主任、研究员,上海交通大学涉及人的科学研究伦理委员会委员
视频加载中...
今天我想与大家分享的是ChatGPT以及我国的一些大型数字企业所开发的多模态模型,如百度的“文心一言”等,此类大模型,会对法律职业产生什么冲击?
大家都知道,法律是一种语言的艺术,语言在法律当中发挥着非常重要的作用。而大模型在自然语言处理方面取得了非常重大的突破,因此,人们预计,大模型的出现会对所有使用语言、文字、图像、音频、视频等等内容生成的职业产生非常大的冲击。
下面,我将从“大模型时代到来”“法律回应”“重塑法律”“近未来展望”四个方面来简单阐述。
1. 大模型时代到来
首先,什么是大模型?我们先从ChatGPT来看。ChatGPT是一种自然语言处理的机器学习模型,毫无疑问,它是一种人工智能,是一种机器学习。它使用第三代生成性预训练变换模型(GPT-3)来生成类似人类撰写的文本,从简单的聊天对话到编写软件代码、生成文案和论文。ChatGPT采用基于人类反馈的强化学习(RLHF)优化了在与真人对话时充分考虑上下文和语境的能力,在很多时候可以以假乱真,让使用者觉得是在跟真人对话。由于其性能远超过去的所有聊天软件和语音助手,所以自2022年11月公测之后,引发了全球的广泛关注,已经成为一种现象级的应用。
随后发布的GPT-4更是新增了图像、音视频生成功能,成为多模态大模型。目前,各大数字科技公司都在开发自己的大模型,已经发布的包括百度的“文心一言”,阿里的“通义千问”,微软的新“必应”,商汤的“日日新”等等,人工智能进入了大模型时代。
大型语言模型有一些基本的特点:首先,大型语言模型都是代码层的基石性模型(foundational model),可以被应用到一系列下游场景中,从搜索引擎、内容平台到应用软件。基石模型的开发者因此成为数字技术市场的“看门人”,拥有强大的市场支配力量。现在的这些大模型都是通用型的,都是用一般性的语料,比如网上的各种各样的文案,它是以这些数据作为原料来进行训练的。
未来,很可能会出现专门使用法律文本来训练的,包括法律条文、司法判决、合同等各种各样的法律文本来训练的大型模型。所以说,即时性模型可以应用于各种各样的场景,从商业到公共服务的场景,包括智慧法院、智慧检务和智慧公安。这种应用需要法律和公共政策的引领。
其次,ChatGPT这样的大型语言模型具有生成性,属于人工智能生成内容(AIGC)这一产业的重要组成部分。与从大量数据中寻找隐藏模式并形成预测的分析式人工智能不同,生成式人工智能可以通过学习海量的人类创造内容来生成新的内容,这对规范创造性人类活动的法律,比如知识产权法之类的法律,提出了新的问题。现在关于人工智能生成作品的法律属性问题,也是法律界一个非常重要的讨论热点。
最后,大型语言模型具有通用性,可以服务于不同政治目的和商业模式所确定的任务,并基于人类反馈,强化学习,寻找完成这些任务的最优解。
这里我想补充的是,大型语言模型其实是一个重资本投入的领域,用我的话来说,就是一种“暴力计算”,没有非常丰厚的资本和资源的企业是很难进入这个领域的。举一个非常简单的例子,ChatGPT是Open AI开发的,微软是Open AI的主要投资者;为了帮助Open AI训练ChatGPT,微软投入了100亿美元,其中绝大部分,都用来购买英伟达A100芯片。他们购买了数万个单价为数万元的A100芯片,光是这项投入就达数亿美元。为了训练ChatGPT,这些芯片、算力系统,每天总共要耗费3640PF的算力。
为了帮助大家理解,简单解释为,这个算力相当于如果每秒运算1000亿次的话,需要运算3640天,它耗费的算力是非常惊人的。耗费算力的背后是巨大电力的耗费。所以,这个领域到目前为止还没有形成成熟的商业模式。包括Open AI本身,一开始也是使用to C的商业模式,让用户直接去购买,它的这种使用权是一种订阅模式。但是它后来暂停了订阅,原因就包括了背后的算力支撑实在是过于庞大。
2. 法律回应
大型语言模型是用来生成内容的,而我国的内容监管比较严格,有损社会主义核心价值观、破坏民族团结等的内容在我国都是被禁止的。所以,我国可能是世界上最早的用法律来规制新兴领域的国家,其他国家对这个问题都还处于观望状态。
早在ChatGPT成为热点之前,2022年12月,网信办、工信部和公安部联合发布了《互联网信息服务深度合成管理规定》,其中对深度合成技术的定义实际上已经涵盖了生成式人工智能:深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。这非常明显就覆盖了大型语言模型。
最近,网信办又发布了《生成式人工智能服务管理办法(征求意见稿)》,这可以说是专门针对生成性人工智能的一个部门规章。它保护的利益就包括国家安全、个人信息权益和其他合法权益,比如知识产权。它的规制手段可以说是全流程的:从数据采集端控制、数据处理过程规制到数据处理结果的控制。比如,在采集端的控制,就涉及了预训练阶段,对预训练所采用的语料就进行了限制。其处罚方式包括了警告、通报批评、责令限期改正、责令暂停或终止服务等等。特别是“责令终止服务”,意味着这种商业模式将无法持续。
目前法学界关于这一征求意见稿的主流意见认为,我国在这个领域的立法介入过早。这一领域是一个新兴的领域,虽然技术已经出现,但是成熟的商业模式和应用场景还没有出现,在问题还没有浮现出来之前,过早的介入可能会扼杀我国在这个领域的发展。我国在技术领域相对比较落后,比如,使用过“文心一言”的朋友们都会注意到,相较于GPT-4,可能它还是要落后一些,生成内容里的错误会比较多。其中的主要原因就在于它的训练的模型不够成熟,数据也不够多,算力也不像Open AI那么庞大。因此,过早的立法介入,可能不见得是一件好事。
3. 重塑法律
以上是对“算法的法律”的讨论,也就是如何用法律来规制人工智能。另外一方面,我们也需要讨论一下“法律的算法”,就是指,这种大型语言模型会如何改变法律。从立法到法律职业,都会因为大型语言模型受到一定的冲击。
我们都知道,法律的力量来自语言的力量,语言对于法律来说是基础性的,是核心性的。作为大型语言模型的ChatGPT基于对大量法律文本(从法学著作到判决书,从合同到公司章程)的学习,完全有可能在对话和论辩场景中熟练使用法律语言,这对法律职业将产生何种冲击?
我个人曾用这个问题来问过ChatGPT,它的回答是:“ChatGPT和其他大型语言模型可以极大地提高法律行业的办公效率和生产率,使得律师等人员更加能够把握重点和把精力放在更有意义的事情上面。”
它的回答可以说是非常中规中矩的。于是我又进一步问它,如果ChatGPT可以通过一个法律的职业资格考试,这是否意味着它可以从事法律职业?因为美国有一些教授已经做过这样一个测试,发现它可以通过某个州的律师资格考试。ChatGPT自己的回答是“不”,它说:“我仅仅是一个机器学习模型,不能代表人类获得法律职业资格。”它说:“自己可以帮助人们理解法律,但是不能参与实际的法律行动,比如发布法律命令、撰写合同和代理案件,等等。”
这个回答也很有意思,非常符合人类本身的预期。
那么我又接着问它,为什么?能否从事某一种法律职业主要考虑的不就是是否具备法律专业能力吗?如果ChatGPT被证明具备从事法律职业的专业能力,为什么不能从事法律职业呢?它又回答说:“我们不能仅仅从专业能力出发,法律职业是一个关乎人的职业,涉及人与人之间关系的处理等。”
显然,它也看到了法律职业和专业能力有一定关系,但是主要看的并不是专业能力,因为在任何国家,法律职业都是一个高度受规制、受保护的职业,它是一个制度化的职业。不允许机器来从事法律职业,这是政治选择和法律制度本身决定的结果。专业能力只是其中的一个考量因素。
从这个例子,我们可以看出,ChatGPT在回答主观题方面是非常娴熟的,它已经能够熟练地使用人类语言,但是另一方面,我们又发现他在回答客观题方面,完全是胡说八道,而且丝毫也不感到羞愧。
比如说,我问了它一个非常简单的问题,我当时手上拿着一本书,我就问它,这个书号对应的是哪本书?它说,这个书号对应的是《经济学原理》。我说,错了,是《刘慈欣的超新星纪元》。
于是,我就责备它:你为什么信口开河?它说:对不起,我没有仔细检查这个书号等。随后,我又教育它说,关于事实问题没有查证,就说不知道,胡诌是不对的。它也承认错误。然后我接着又问它:“《中华人民共和国民法典》第1307条的内容是什么?”大家都知道,我们的民法典没有1307条,但是它毫不犹豫地回答说:“中华人民共和国民法典第一千三百零七条规定,婚姻的结束由双方当事人协商一致,或者由人民法院裁定。”
因此,我们可以看到,ChatGPT很有意思,它在回答关于事实的问题时,还不如搜索引擎;但是它在回答主观题时又非常娴熟。
用一位语言学家的说法,人类的语言本身就是服务于社会目的,他主要关心的甚至不是事实真相。因此,有一本书,它的副标题就是“语言对律师而言是好的,但是对科学家而言是不够的”。比如我们可以通过人眼分辨的颜色有数百种,但是在任何人类语言当中,用来描述颜色的词汇都屈指可数。
4. 近未来展望
最后,我借助一篇科幻小说,帮助大家去想象这样的生成性人工智能对法律职业会有什么影响。
这是1955年的一篇小说。大家可以想到,在1955年,人工智能Artificial Intelligence这个词汇都还没有出现,这个词汇是在1956年的达特茅斯会议上才出现的,因此科幻小说家的想象力是非常强大的。
这篇1955年的科幻小说想象了在美国的某一个县,法官即将被机器人所取代。故事的主人公安德森法官是一位非常保守的法官,正如现实中的大多数法官都非常保守一样,他无法接受机器人取代人类来当法官。但是他审理的一个案件改变了他的看法。这个案件中的纽斯塔德教授是一位数学教授,他在很多公开场合表演,表示自己在计算问题上可以打败当时最先进的计算机。这个地区的检察官就以诈骗罪对他提起了检控。
到了法庭上,纽斯塔德教授说:“要证明我的清白非常简单,我们来进行一场竞赛。”由检察官来提供一台他所认为的当时最先进的计算机,而且由检察官来提5个问题。“如果我在这场竞赛当中,能够打败这台机器,就说明我是无辜的。”纽斯塔德教授表示。
果不其然,他打败了这台计算机,但是他在法庭上讲的一段话,对我们有很大的启示意义。他说:“我之所以能够打败Cyber IX,是因为我浪费了一个人的一生,也就是我的一生!你们都知道,我小时候是一个神童,我的脑子就是一个存档柜,一个填充着永远不会被点燃,并幻化为梦的事实数据的防火档案柜。终我一生,我都在往这个柜子里填充各种材料,我花了60年的时间。”——这段话的意思就是说,我之所以能够打败计算机,是因为我自己把自己变成了计算机。
大家想一下,自己的教育经历是否也是这样?我们越来越多地把自己变成机器,通过内卷化的过程,掌握了各种各样的技能。但是,在我们可以想象的未来,这样的工作会越来越多地被机器所取代。人类自身的优势在于我们的创造力、想象力和与人打交道的能力,这些能力将更加凸显。
纽斯塔德教授最后问了机器一个问题“What are the magnitudes of a dream?(梦有多大?)” 显然,这个机器从来没有做过梦,他就回答不了这个问题,最后屏幕上显示出:Problem unsolved。(问题无法解决。)
因此,我们可以想象的未来,不是谁替代谁的问题,而是在数字化时代、人工智能时代,所有的职业人士,包括法律职业人士,都应当学会如何去使用机器。机器或许不会取代人类,但是能够使用机器的人类,可能会取代不会使用机器的人类。人工智能不会取代律师,但它会改变律师的工作方式。
人机交互是当下,乃至近期未来法律工作的主要形态,所以说,我们要学会使用大模型这样的工具。大模型提供答案的质量取决于人类提问的质量,一些新的职业,比如说“提示师”正在兴起。试用过ChatGPT的朋友们都会注意到,实际上,善于提问对于人类来说是一个非常重要的技能。
机器不会替代人,但学会使用机器的人,可能会取代不会使用机器的人。最后,我想要强调的是,利用技术强化自己的专业能力十分重要。
谢谢大家!
END
[注:本文部分图片来自互联网!未经授权,不得转载!每天跟着我们读更多的书]
互推传媒文章转载自第三方或本站原创生产,如需转载,请联系版权方授权,如有内容如侵犯了你的权益,请联系我们进行删除!
如若转载,请注明出处:http://www.hfwlcm.com/info/135869.html