ChatGPT,又吃官司了。
2024年元旦前夕,ChatGPT遭到美国《纽约时报》的诉讼,指控这两家公司未经授权,将数百万篇时报文章用于训练ChatGPT和微软Copilot聊天机器人。
微软是OpenAI的最大股东,自2019年双方合作以来,微软至少向OpenAI投资了130亿美元。
据此,《纽约时报》要求OpenAI和微软删除任何包含其版权材料的训练数据,并称侵权行为可能造成了数以十亿美元计的法定和实际损失。
稍显讽刺的是,在2023年初ChatGPT风靡之际,《纽约时报》一度表示,ChatGPT是“有史以来最好的面向大众的人工智能聊天机器人”。
作为第一家起诉OpenAI和微软的美国大型媒体机构,《纽约时报》无疑扣动了关于版权之争的扳机,甚至有人认为可能成为AI侵权的里程碑式案件。
OpenAI发言人对此回应称,希望能找到一种互利的合作方式,就像与许多其他出版商所做的那样。
显然,OpenAI不想和包括《纽约时报》在内的媒体机构闹翻。
刚刚过去的2023年,ChatGPT成了全球最火爆的新生事物,也伴随着最多的争议。
毕竟靠着ChatGPT产品的强劲增长,OpenAI最新的年化收入已经超过了16亿美元。据OpenAI内部预测,2024年的收入有可能接着翻几番达到50亿美元。
但是,过去一年,ChatGPT吃的官司,远比想象中多得多。
从作家到律师,再到被收集个人信息的普通人,ChatGPT不断引来各种法律纠纷。围绕ChatGPT生成的内容,也是争议重重。
屡屡“吃官司”的ChatGPT
纵观去年至今一年来ChatGPT所遭遇的法律纠纷,大致可以分为三类,即侵犯版权、侵犯个人隐私、造谣或传播虚假信息。
就在《纽约时报》将OpenAI和微软告上法庭的前几天,11位美国作家在曼哈顿联邦法院提起诉讼,指控OpenAI和微软滥用自己所著的书籍来训练ChatGPT,而这样的行为无疑是在“刮取”作家们的作品和其他受版权保护的材料。他们希望获得经济赔偿,并要求OpenAI和微软停止侵犯作家们的版权。
更早之前的2023年9月,包括《冰与火之歌》作者乔治·马丁在内的17位作家向美国纽约联邦法院提起诉讼,指控OpenAI“大规模、系统性地盗窃”,公然侵犯了作家们登记在册的版权。
此次诉讼的组织者美国作家协会控诉,这些作者的作品从盗版电子书库中被下载后,又被复制到了ChatGPT中,由此OpenAI能从中获利数十亿美元。
“我们必须阻止这种盗窃行为。为了保护文学,作家必须限制AI能否与如何使用他们的作品。”美国作家协会CEO玛丽·拉森伯格在一份声明中说。
除了侵犯版权,ChatGPT还曾因“抓取”个人数据而遭到集体诉讼。
2023年6月,有16名匿名人士向美国加利福尼亚旧金山联邦法院提起诉讼,称ChatGPT在没有充分通知用户,或获得同意的情况下,收集和泄露了他们的个人信息。
具体来看,原告指控两家公司通过其AI产品“收集、存储、跟踪、共享和披露”数百万人的个人信息,包括产品详细信息、账户信息、姓名、联系方式、电子邮件等。
据此,他们要求微软和OpenAI赔偿30亿美元。
ChatGPT的另一宗“罪”,是涉嫌造谣及传播虚假信息。用时下流行的话来说,就是“一本正经地胡说八道”。
在美国近来的一起诉讼案件中,一名律师帮原告打官司,却靠ChatGPT来帮忙,一口气在辩护词中引用了6个ChatGPT提供的案例。这些案件均配有大段引文,原告与被告公司之间的恩怨情仇也写得清清楚楚。
结果法院在审理时发现,这些案件根本不存在,而是该律师求助的ChatGPT所捏造出来的。
“我很后悔自己依赖ChatGPT。我不知道它给的内容可能是假的。”这名从业30年的律师忏悔道。
很显然,这与ChatGPT的智能水平有关系,当遇到“没学过”的领域时,就会发生种种令人啼笑皆非的“翻车”现象。
ChatGPT有多智能?
自2022年11月上线以来,ChatGPT便风靡全球。
具体到个体,已经有人对ChatGPT的智能化水平从“兴奋”变成了“惊恐”。
据OpenAI此前公布的成绩显示,GPT-4非常善于参加标准化考试。
在没有进行培训的情况下,在模拟律师资格考试、SAT阅读考试和SAT数学考试中都位列前10%。
借助ChatGPT,有程序员将软件开发周期从8-10周缩短至不到一周。
有艺术家宣布,他在9个月内用AI创作并出版了97本书,净赚2000美元。
据美国佛罗里达金融学院公布的一项研究表明,将ChatGPT融合在投资模型中,可以预测股市的走势,投资回报率甚至可以达到500%,堪称AI界的巴菲特。
Steven是一名大厂员工,某种程度上,ChatGPT已经成为了他的重要参谋。“无论是做方案还是汇报,我都会先听听ChatGPT的意见,这给了我很多灵感。”Steven对《凤凰WEEKLY财经》表示。
ChatGPT的效用不仅发挥在工作中,在生活中,他还曾让ChatGPT扮演一名幼儿教师与他5岁的孩子对话,一问一答之间,这场对话居然持续了40分钟。“超出意料,ChatGPT还可以帮忙带孩子了。”Steven感慨道。
这也印证了一些科学家的发现:GPT-4具有比以前更明显的机器觉醒迹象。
OpenAI联合创始人Greg Brockman直播演示GPT-4
但如果说ChatGPT现在就能令人类感到“惊恐”,显然也是杞人忧天。
2023年12月28日,香港城市大学数据科学学院讲座教授祝建华在北京师范大学新闻传播学院举办的《人工智能与未来媒体大讲堂》上表示,对ChatGPT的能力应“谨慎看待”。
他认为,ChatGPT的理解能力和再现能力非常强,已经达到和大部分人能力相等的程度。
同时,ChatGPT也具备一定的创新能力和推理能力,只是目前还比较弱。至于情感能力和自主意识,应该是没有的。
这也带来了一个好消息和一个坏消息。“好消息是,人类可以从低等、重复、繁重的生产过程中解脱出来。坏消息是,我们的很多工作就会被机器代替。更坏的是,智能中必然会包含自主意识,到时候机器可能就会赶超人,消灭人。当然,如果现在或将来都无法通过图灵测试(一种测试机器人是否具备人类智能的方法),那意味着机器只能做一些简单的工作,对人类的威胁也就解除了。”祝建华进一步解释称。
最新的趋势是,GPT-4大模型有“变懒”的迹象。越来越多的用户在社交网站上抱怨,GPT-4有时只给出问题的一半答案,剩下的一半要求用户自行完成。
此前OpenAI官方也承认,GPT-4模型在11月11日后就没有更新维护过,不过拒绝透露这是否和公司的人事变动有关。
有业内人士推测,GPT-4模型之所以回避给出太长的答案,可能也是为了节省运算成本。
此前研究机构SemiAnalysis估算指出,OpenAI每天因模型运行产生的支出约为70万美元,在升级迭代之后将会更加惊人。
也有网友直言,这才是真“人性”,真想看看任由它自行发展下去会变成怎样。
漏洞,全球都在管
ChatGPT有多智能,还需通过不断的进化和迭代来完成。
但对于人工智能惹出来的麻烦,全球各行各业显然不能坐视不管。
与发展相伴随的是,训练大型语言模型往往需要大量的数据,这些数据大多来自百科、媒体、书籍,以及各大社交平台用户的创作。
加州大学伯克利分校计算机科学家StuartRussell曾言,ChatGPT和其他AI工具的训练量之大,可能很快就会耗尽“全宇宙的文本”。
一方面,这带来了ChatGPT算力与智能的提升;另一方面,稍有不慎,就会陷入纷繁的法律纠纷中,包括使用大模型版权素材进行训练是否需要获得授权;若大模型输出的内容侵犯他人权利和隐私,运营者要不要承担法律责任,以及应该承担何种法律责任等。
复旦大学中国研究院副研究员刘典对《凤凰WEEKLY财经》表示,对于人工智能“作品”侵权的界定标准,可以参考《著作权法》第三条规定,“本法所称的作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”。在国内发生的人工智能作品侵权案例中,法院对于相关侵权判断一般是基于“是否为独创性的智力成果”。
刘典认为,在相关明确法律出台之前,我们可以借助著作权法中的内容,对人工智能侵权与否进行判断与界定。
在总体监管趋势与思路上,各界都在提高对AI的风险防范意识。
去年12月,在漫长的谈判后,欧洲议会、欧盟成员国和欧盟委员会三方终于就《人工智能法案》达成协议。这一法案将成为全球首部人工智能领域的全面监管法规。其中, 对ChatGPT等人工智能工具的开发商提出要求,包括披露在构建系统时所使用的版权材料,适用范围涵盖在欧盟区内 运行的所有AI系统。
另外,针对训练模型的数据采集,一些国家对数据来源及抓取过程提出了要求。如英国此前发布的《支持创新的人工智能监管方法》提出的五项原则之一,便是“适当的透明度和可解释性”。
或许是受OpenAI的遭遇所启发,谷歌选择先行堵上漏洞。
去年7月,谷歌更新了隐私政策,表示可能会收集公开的在线信息,或来自其他公共来源的信息,帮助训练其人工智能模型。
某种程度上,这也是谷歌“宣誓”自家AI产品对于数据的使用权力。
但很显然,从整个人工智能行业的发展来看,这只是刚开始。
本文来自微信公众号“凤凰WEEKLY财经”(ID:fhzkzk),作者:陶娅洁