在OpenAI的ChatGPT大火的当下,各个行业都在积极地附和人工智能的步伐,生怕被时代浪潮抛下。在互联网上搜索关键词“律师 chatgpt”,有海量的文章在教法律从业者如何使用ChatGPT来辅助工作,以期提高工作效率。

然而,参考OpenAI所发布的“GPT-4技术报告”以及微软所发布的“人工通用智能的星星之火:GPT-4的早期实验”,两篇论文均关注到了生成式AI模型所存在的一个重大缺陷——机器幻觉。

ChatGPT作为生成式聊天机器人,能够理解人类向模型输入的语句意思,并能够通过语义特征向量分析生成相应的回复,实现上下文互动。在生成回复的过程中,ChatGPT会基于算法根据上下文内容(包括用户输入的对话内容以及ChatGPT已经生成的内容)确定具有高度概然的下一个字符,进而生成一段完整的回复。这意味着ChatGPT并不在乎所生成的内容的真实性和正确性,仅仅考虑下一个字符的出现概率。以至于基于这种生成方式的ChatGPT在没有任何人工干预的情况下,可以无限制地输出任何AI觉得合理的、高度概然的文字内容。也意味着,ChatGPT所生成的内容可能仅仅是一本正经的胡说八道,而且ChatGPT也不会对此有任何的道德负担。

举个简单的例子,比如ChatGPT生成了“我想吃”,那下一个可能的字符存在如下可能,例如“我想吃饭”、“我想吃点清淡的”等等。如果上下文中包括了“我今天胃口不好,我想吃……”,那后续生成“我今天胃口不好,我想吃点清淡的”的概率就很高。

这种生成方式,存在的缺陷是ChatGPT底层算法中只在乎上下文间字符的关联性,而不在乎文段整体的合理性。例如,问ChatGPT:“老鼠生病吃了老鼠药能治好吗?”,ChatGPT可能会回复你:“老鼠药主要用于缓解普通感冒及流行性感冒引起的发热、头痛、四肢酸痛、打喷嚏、流鼻涕、鼻塞、咽喉痛等症状,也可用于流行性感冒的预防和治疗。然而,老鼠药并不是用来治疗老鼠生病的,而是用来治疗人类感冒的药物。如果您的老鼠生病了,建议您带它去看兽医,而不是给它吃老鼠药。同时,老鼠药也有可能对老鼠造成伤害,因此不建议使用。如果您的老鼠生病了,您应该尽快带它去看兽医,以便得到正确的治疗”。类似前述这种回答就是典型的机器幻觉现象,语句通顺的虚构内容,但是内容前后似乎又存在某种关联性。

这种不靠谱又存在关联性的内容在法律业务中是致命的,无形中增加了法律从业者核对工作的负担。《律师法》要求律师应当勤勉尽责,应当以事实为依据、以法律为准绳。如果在严格要求正确性的法律事务中,使用ChatGPT可能会使得提升效率这件事情适得其反。

对此,我个人建议在出具格式性的文书时,例如格式化的合同等,可以交由ChatGPT来生成,并且给予ChatGPT尽可能多的提示,甚至可以将合同的不同板块进行拆分,让ChatGPT分别生成,以此提高生成结果的丰富度和可用性。对于专业性较强的文书、法律调查意见、参考案例等严格要求正确性的事务,应当避免使用ChatGPT生成,以减少后期核对出处、求证核实的工作量,对于此类工作建议通过可靠信源获得一手资料,以保证调查的事实可信、可靠。

参考文献:
[1] GPT-4 Technical Report,OpenAI
[2] Sparks of Artificial General Intelligence:Early experiments with GPT-4,Mircosoft Research