ChatGPT是一款人工智能聊天机器人模型,其于2022年11月30日发布,仅用2个月时间月活跃注册用户就超过了1亿,最可怕的是它的发展已经超乎人们想象,就在昨日晚间(2023年3月16日),微软宣布发布AI办公助手——Microsoft 365 Copilot。简单而言,Copilot(副驾驶员)是一个搭载了GPT-4大模型能力的AI助手,将接入微软全家桶产品中。

ChatGPT诞生至今仅4个月时间就已经历经数代更新和发展,在全球范围内掀起了多轮热议,并迅速登顶各大头条和热榜,它备受全网热捧,不限地域、不论国籍,粉丝狂涨、收获连连赞叹。可以说它的横空出世引领了新一轮的人工智能热潮。广大网友短时间内便与它构建起深厚的革命友谊,究其原因在于它不仅能陪人聊家长里短,还敢谈天下格局、编文案、撰小说、写论文和敲代码,可谓项项精通又样样在行。但是,在使用并了解了ChatGPT后,除了赞叹其功能的强大和智能外,我们仍尝试以客观谨慎的态度发出更进一步的追问,基于算法运行的人工智能ChatGPT,当真那么靠谱吗?

01

爆火的ChatGPT

ChatGPT,其全称为Generative Pre-trained Transformer,即“生成式预训练Transfomer模型”。通俗来讲,ChatGPT通过预先对大量语料库的自主学习,形成预测模型,从而获得对自然语言进行处理的能力,也就是说, ChatGPT能够对人们输入的内容进行判断和预测,从而模仿人类组织语言,给出回答或是形成文章。

ChatGPT之所以能一炮而红,原因在于它的回答实在是太“像人”了,它不同于传统AI聊天机器人的强大之处在于它具有自主学习的能力,能够伴随着输入语言材料的增加而不断成长,相当于它可以根据人们喂养的语言资料而同步学习,从而不断提升自己的内容回复能力。据OpenAI官网介绍,GPT模型参数数量始终处于增速中,GPT-1版本的数量是1.17亿,GPT-2时便已有15亿,到了GPT-3,也即ChatGPT的前身版本,已飙升至1750亿的海量,这意味着ChatGPT的准确性和功能依旧在不断提高。而微软宣布接入的GPT-4正是数日前由OpenAI发布的,目前功能最强大的AI大模型。这意味着全球最大办公软件和最强AI模型将强强联合,堪称“王炸”。大多数语境中,ChatGPT的反馈确实实现了语句通顺且富有逻辑,甚至论证严谨又文辞优美,打破了人们对于逻辑跑偏、答非所问的人工“智障”小助手的刻板印象,它超乎意料的优异表现无疑使其成为新一代人工智能机器人中的佼佼者,宣告着人工智能技术的突破性进展,也使人们愈发相信它拥有广阔的应用前景。

02

潜在的法律风险

然而,如此强大的ChatGPT却也难逃技术影响两面性的铁律。它是高悬于顶的达摩克利斯之剑,与之强势发展共生的,还有潜在的合规难题和法律风险。

(一)随意使用ChatGPT的回答可能会侵犯他人的著作权

当ChatGPT为提问者提供回答时,其答复的内容是否构成著作权成果从而产生相应权利?随意使用ChatGPT的回答是否会构成著作权侵权?

我国《著作权法实施条例》第 2 条规定:“著作权法所称作品,是指文学、艺术和科学领域内具有独创性并能以某种有形形式复制的智力成果。”独创性的“独”是指作品人独立创作 ,而“创”则是指作品具有一定程度的智力创造性。ChatGPT回答主要依靠两个重要因素:一个是作为“经验”素材供其深度学习的海量数据,另一个是作为内在“本体”而供其自主决策的算法技术,其中深度学习环节是ChatGPT产出“作品”的关键。

ChatGPT的深度学习不同于普通计算机的计算,它是基于一定的任务目标,在人工神经网络系统技术的支持下,对海量的数据进行识别分析、总结归纳以及处理改造的结果。和人类创作过程中需要从生产生活实践中学习、借鉴他人已有成果类似,但是由于我国还没有关于人工智能作品著作权的法律,所以其权属争议仍无法予以定论。

但是即便人工智能产出作品的著作权存在争议,提问者也不应该认为ChatGPT回答的内容不受《著作权法》的保护而随意使用,因为如果ChatGPT在进行回答的时候借鉴了很多互联网上现有的内容甚至他人的专有作品,则其在生成作品过程中存在对他人既有作品的参考或引用,如果提问者将其回答的内容据为己有,即便使用者全然不知ChatGPT引用作品的真正权利人,但事实上也会造成对他人著作权的侵犯。

(二)ChatGPT基于算法而进行的错误回答可能误导提问者

虽然ChatGPT基于庞大的语料库和预测模型的自主学习能力,已然能够为很多提问者的问题提供精准的回答,但是再智能的机器人也依旧是基于算法运行的。算法运行的本质是数据输入和输出的过程,但在这个过程中存在无法解释的“算法黑箱”问题。因为同一算法可通过不同程序设计语言加以编码,思想与表达之间存在诸多可能。而且多种算法的叠加及多个隐含层的存在加剧了算法的不可解释性风险。“算法黑箱”可能会导致人工智能的运行不可解释,ChatGPT并不是真正拥有了人类的思维,其基于算法而运行的特征可能导致难以对信息来源的真假进行辨别。

而且ChatGPT无法对提供回答的后果和影响进行评估,所以经常存在其回答看似有规律,其实是在一本正经地胡说八道。对于信息接受者而言,不论是提供错误回答还是虚假信息,如果将其回答视为专家言论般信赖,一些对于行为和方法的错误指导可能会造成提问者的人身遭到损害、财产面临损失等严重的法律后果。有时甚至会导致刑事犯罪,比如不同国家的毒品管制存在区别,如果一名拥有严格禁止大麻的B国国籍的提问者询问ChatGPT:“大麻是否为毒品?”,而其却根据不禁止大麻的A国法律回答为“否”,如果B国人听信其回答在B国吸食、运输或贩卖毒品,则有可能导致提问者面临相关刑事责任。

(三)基于大数据运作的ChatGPT可能会侵犯个人信息

人工智能的智能感知、智能推理、智能学习、智能行动四个环节都要受数据的驱动。从技术上来说,目前人工智能必须具备机器学习技术,而这一技术的实现需要借助于收集、分析和使用大量数据。ChatGPT的工作原理本质上也是基于大数据的收集、分析和使用。所以在大数据时代,无论是ChatGPT的运营者还是使用者,只要通过不恰当的方法使用了数据,都有可能产生因大数据使用所引发的数据泄漏危机。

据硅谷媒体报道,在一条从企业内部通信工具Slack泄露的信息中,亚马逊的公司律师称,他们在ChatGPT生成的内容中发现了与公司机密“非常相似”的文本,可能是由于一些亚马逊员工在使用ChatGPT生成代码和文本时输入了公司内部数据信息,该律师担心输入的信息可能被用作ChatGPT迭代的训练数据。

作为大型语言模型,ChatGPT的训练数据集包含TB级别的海量互联网文本数据,代码、诗歌、法律文件、自然对话都是这些数据的一部分。在当今的Web2.0时代,ChatGPT收集到的信息的处理权依旧归属于其的背后的操控者微软公司,如果提问者简单将ChatGPT当做一个无感情的机器人而随意暴露自己的隐私,可能会导致个人信息遭遇泄露甚至贩卖等法律风险。

03

结论

科技路上一路狂飙的ChatGPT在极短时间内便一跃成为人工智能的发展浪尖,其广阔的技术应用前景,不仅将助力人工智能产业本身的进一步突破,也必然惠及内容、硬件等相关企业,相关技术在教育、医疗、金融、政府等领域的应用也饱受期待。随着微软Office 365搭载GPT-4后实现强强联合,神秘的ChatGPT将逐渐进入我们的日常生活,虽然人工智能发展迅速且前途光明,但是我们使用时也不能掉以轻心,因为其在某种程度上存在触碰法律底线的风险,而产品搭载GPT-4的微软公司,也只有遵守“合规”底线才能真正行稳致远。

参考文献:

[1]郭万明.人工智能生成成果的法律性质及著作权保护[J].出版发行研究,2022(05):58-64.

[2]雷丽莉,朱硕.人工智能生成稿件权利保护问题初探——基于Dreamwriter著作权案的分析[J].传媒观察,2022(05):62-69..

[3]胡小伟.人工智能时代算法风险的法律规制论纲[J].湖北大学学报(哲学社会科学版),2021,48(02):120-131

[4]姚万勤.大数据时代人工智能的法律风险及其防范[J].内蒙古社会科学(汉文版),2019,40(02):84-90.

GPT-4 Office全家桶发布!AI的迅速发展将带来什么法律风险?

GPT-4 Office全家桶发布!AI的迅速发展将带来什么法律风险?