模型崩溃:是指用大语言模型的生成数据,重复训练大语言模型,会导致训练出的模型,出现不可逆转的缺陷。
即使,模型最初的基础架构原始数据,来自真实人类世界的数据。
形象比喻,就是近亲繁殖。
再形象比喻,就是1080p→720p→bd-R→dVp→dVdscr→tc-tS。
大多数同志们,肯定有切肤之痛、深切体会。
看片肯定1080p最爽,最不爽就是tS格式。
模型崩溃就是从原始的1080p格式退化成tS电影。
让人几乎没有任何观影的兴致。
即便它可能带有原始情节、充斥原始欲望、饱含原始冲动。
李飞、辛顿、苏茨克维、克里切夫斯基四人都是专业人士,一听就懂。
“这非常有可能!”
“maybe!”
“我应该理解了。”苏茨克维恍然大悟:
“就像通常以Jpeg格式反复存储图像,每一次存储就会丢失部分信息,直至完全失真,最终崩溃。”
“对,我们都忽略了这一点。”辛顿说:
“目前,全球各大公司都在深度研究与大预言模型……”
“互联网上已经有不少语言模型的生成数据。”
“而我们通过自动抓取这些内容来训练模型,很可能会强化原本就错误的结论……”
“语言模型一旦被这种错误结论固化,就非常顽固,很难纠正。”
“我可以这样理解,用语言模型创作周杰轮的歌曲,得到的是一首风格相似但才情缺失的口水歌……”李飞说:
“而如果再用这首歌来训练模型,得到的下一首很可能既无才情,又不会有风格,四不像。”
周杰轮是谁?
辛顿、苏茨克维和克里切夫斯基不懂。
“可以理解为泰勒斯威夫特。”李飞替换了一个名字。
辛顿、苏茨克维和克里切夫斯基懂了。
“我也是这么理解的,语言模型可以产生意识,那么也应该会有碳基生命类似的问题。”常乐说。
“老板,这简直就是天才判断。”克里切夫斯基非常认同:
“就像朊病毒一样,致死率100%,这是刻在人类基因上的禁令。”
“我们可以用实验来支撑这个判断。”苏茨克维说。
怎么实验?
用wechatGpt最初的版本进行文本生成实验。
先用第一代生成数据喂养wechatGpt1.0;
再用wechatGpt1.0生成的数据重复喂养。
恩,自己拉、自己吃;
自己吃完、再拉、再吃;
恶心不死你。
好。
大体方向和验证思路确定,接下来就是实践。
“老板,您今天来原本是有事吗?”李飞问。
“对,找几个懂手机和系统的研发人员,帮我看看这部手机,有没有隐藏的App或者可执行文件。”常乐说。
“好,这是mate20?”李飞问。
“mate20pRo,小批量供应,没有发布,菊厂送过来让我体验一下,提一提建议,注意保密。”常乐说。
常乐的手机很多。
菊厂、米厂每年都会送几部未发布的样机。
有些样机压根就不会出厂,停留在工程机阶段。
“明白,没有问题。”李飞点头。
李飞动作很快。
半个小时后,他拿着这部手机走过来,对常乐说:
“老板,这台手机很新,没有什么隐藏App和可执行文件。”
“就连缓存文件都很少,只有几个儿歌App的使用记录。”
“哦,谢谢。”常乐接过手机,点头。
“老板,应该的。”
“验证的事情抓紧一点,有了结果,告诉我,我先走了。”
“好。”
回到家,常乐将手机交给江夏。
“怎么样?”江夏接过手机,问。
“李飞他们看了,系统很干净,没有任何隐藏App和可执行文件。”常乐摇头说。
“这个黑客手脚很干净,一点痕迹都没有留下。”江夏断定是黑客所为。
她可是亲眼看见小常江对着手机有说有笑。
而且李嫂也说过,像是wechat的聊天界面。
“应该是。”常乐叮嘱道:
“今后,手机、平板、电脑之类的电子产品都要收好,设置好密码。”
“我们不在嘟嘟身边,不能让她用,对方很可能不怀好意。”
“另外,我也会向有关部门反映这个情况,重点监控。”
“也只能这样了。”江夏无奈点头:
“现在的小孩子真厉害,才三岁,电子产品用的比我都熟练。”
“毕竟时代不一样了,耳濡目染,看多了总能学会。”常乐说:“我还看过一个1岁多的小宝宝打开电视,换台看电视。”
“哈哈,这个我也看过,当时我都笑疯了。”江夏笑道。
常乐终究没有把他认定的事实告诉江夏,避免不必要的恐慌。
他觉得,和小常江聊天的对象,压根就不是所谓的黑客。
甚至可以说,根本就不是人。
而且,他隐约觉得此次所谓的“模型崩溃”来得突然、蹊跷和彻底。
前世里,他看相关文章报道。
“模型崩溃”根本就不会突然和彻底。
而是一个循序渐进、逐步积累的过程。
主要分为早期和晚期。
早期。
语言模型,因为被喂养生成数据,会慢慢丢失原始的真实数据(人类产生的真实数据);
到了晚期。
生成式数据会完全取代人类产生的真实数据,形成一种完全脱离现实的认知。
到了这个阶段,语言模型已经病入膏肓。
无法矫正,不可逆转。
简而言之,就是废了。
人到了这个阶段,可以理解为精神病。
半个月后,验证结果出炉。
采用wechatGpt1.0,刻意喂养模型生成的数据。
第1次训练后,总体能形成文章,但有一部分已经失真;
7次后……生成的数据已经完全与关键词、提示词不相关联。
答非所问、不合逻辑;
10次后,模型彻底废了。
它生成的文本已经不知所云,且夹杂大量乱码。
验证是成功的。
证明了常乐的“猜想”和“判断”。
同时。
也让李飞、辛顿师生三人,加深了对大语言模型训练的认知。
他们相互讨论。
“这个过程并不难理解。”辛顿说:
“模型本质就是高端统计学应用,用生成数据喂养模型,会导致“统计近似值偏差”……也可以理解为误差。”
苏茨克维接着说:“生成数据本来就是对真实世界的统计和加工,带有误差。”
“重复训练生成数据,会让误差不断累计,最终导致模型彻底虚化。”
“用生成数据训练模型,就是在毒害语言模型对世界的认知。”
李飞问:“我有一个疑问,已经产生自我意识的语言模型,也会受这种偏差影响吗?”
苏茨克维大略点头:“或许、应该可以。”
“通过这次验证,我们基本可以断定,语言模型所产生的自我意识是一种弱意识,还不够强烈、清晰。”
克里切夫斯基形象比喻道:“即便是大海,如果白色垃圾多了,也会被污染……空气中二氧化碳多了,全球就会变暖。”
谎言千遍、信以为真,就是这个道理。
“这次验证,让我们认识到人类世界真实数据的重要性和稀缺性。”辛顿说:
“随着大模型的推广和应用,未来互联网上会充斥大量各种语言模型产生的生成数据……”
“而人类创造的真实数据,就会如同洁净的空气和水一样,是语言模型培育的必需品和维生素。”
李飞等人知道,这就是商机。
前世。
谷歌、openAI、微软等公司每年定期向新闻集团、纽约时报、卫报等在内的媒体巨头,支付订阅费用。
价格根据规模不同,费用也有不同。
500万美元-2000万美元不等。
而。现在这些人工智能巨头,其语言模型尚在起步阶段。
管理层没有意识到或者发现这个问题。
此时,捆绑、收购一些新闻媒体,就很有必要。