亲,欢迎光临读趣网!
错缺断章、加书:站内短信
后台有人,会尽快回复!
  • 主题模式:

  • 字体大小:

    -

    18

    +
  • 恢复默认

模型崩溃:是指用大语言模型的生成数据,重复训练大语言模型,会导致训练出的模型,出现不可逆转的缺陷。

即使,模型最初的基础架构原始数据,来自真实人类世界的数据。

形象比喻,就是近亲繁殖。

再形象比喻,就是1080p→720p→bd-R→dVp→dVdscr→tc-tS。

大多数同志们,肯定有切肤之痛、深切体会。

看片肯定1080p最爽,最不爽就是tS格式。

模型崩溃就是从原始的1080p格式退化成tS电影。

让人几乎没有任何观影的兴致。

即便它可能带有原始情节、充斥原始欲望、饱含原始冲动。

李飞、辛顿、苏茨克维、克里切夫斯基四人都是专业人士,一听就懂。

“这非常有可能!”

“maybe!”

“我应该理解了。”苏茨克维恍然大悟:

“就像通常以Jpeg格式反复存储图像,每一次存储就会丢失部分信息,直至完全失真,最终崩溃。”

“对,我们都忽略了这一点。”辛顿说:

“目前,全球各大公司都在深度研究与大预言模型……”

“互联网上已经有不少语言模型的生成数据。”

“而我们通过自动抓取这些内容来训练模型,很可能会强化原本就错误的结论……”

“语言模型一旦被这种错误结论固化,就非常顽固,很难纠正。”

“我可以这样理解,用语言模型创作周杰轮的歌曲,得到的是一首风格相似但才情缺失的口水歌……”李飞说:

“而如果再用这首歌来训练模型,得到的下一首很可能既无才情,又不会有风格,四不像。”

周杰轮是谁?

辛顿、苏茨克维和克里切夫斯基不懂。

“可以理解为泰勒斯威夫特。”李飞替换了一个名字。

辛顿、苏茨克维和克里切夫斯基懂了。

“我也是这么理解的,语言模型可以产生意识,那么也应该会有碳基生命类似的问题。”常乐说。

“老板,这简直就是天才判断。”克里切夫斯基非常认同:

“就像朊病毒一样,致死率100%,这是刻在人类基因上的禁令。”

“我们可以用实验来支撑这个判断。”苏茨克维说。

怎么实验?

用wechatGpt最初的版本进行文本生成实验。

先用第一代生成数据喂养wechatGpt1.0;

再用wechatGpt1.0生成的数据重复喂养。

恩,自己拉、自己吃;

自己吃完、再拉、再吃;

恶心不死你。

好。

大体方向和验证思路确定,接下来就是实践。

“老板,您今天来原本是有事吗?”李飞问。

“对,找几个懂手机和系统的研发人员,帮我看看这部手机,有没有隐藏的App或者可执行文件。”常乐说。

“好,这是mate20?”李飞问。

“mate20pRo,小批量供应,没有发布,菊厂送过来让我体验一下,提一提建议,注意保密。”常乐说。

常乐的手机很多。

菊厂、米厂每年都会送几部未发布的样机。

有些样机压根就不会出厂,停留在工程机阶段。

“明白,没有问题。”李飞点头。

李飞动作很快。

半个小时后,他拿着这部手机走过来,对常乐说:

“老板,这台手机很新,没有什么隐藏App和可执行文件。”

“就连缓存文件都很少,只有几个儿歌App的使用记录。”

“哦,谢谢。”常乐接过手机,点头。

“老板,应该的。”

“验证的事情抓紧一点,有了结果,告诉我,我先走了。”

“好。”

回到家,常乐将手机交给江夏。

“怎么样?”江夏接过手机,问。

“李飞他们看了,系统很干净,没有任何隐藏App和可执行文件。”常乐摇头说。

“这个黑客手脚很干净,一点痕迹都没有留下。”江夏断定是黑客所为。

她可是亲眼看见小常江对着手机有说有笑。

而且李嫂也说过,像是wechat的聊天界面。

“应该是。”常乐叮嘱道:

“今后,手机、平板、电脑之类的电子产品都要收好,设置好密码。”

“我们不在嘟嘟身边,不能让她用,对方很可能不怀好意。”

“另外,我也会向有关部门反映这个情况,重点监控。”

“也只能这样了。”江夏无奈点头:

“现在的小孩子真厉害,才三岁,电子产品用的比我都熟练。”

“毕竟时代不一样了,耳濡目染,看多了总能学会。”常乐说:“我还看过一个1岁多的小宝宝打开电视,换台看电视。”

“哈哈,这个我也看过,当时我都笑疯了。”江夏笑道。

常乐终究没有把他认定的事实告诉江夏,避免不必要的恐慌。

他觉得,和小常江聊天的对象,压根就不是所谓的黑客。

甚至可以说,根本就不是人。

而且,他隐约觉得此次所谓的“模型崩溃”来得突然、蹊跷和彻底。

前世里,他看相关文章报道。

“模型崩溃”根本就不会突然和彻底。

而是一个循序渐进、逐步积累的过程。

主要分为早期和晚期。

早期。

语言模型,因为被喂养生成数据,会慢慢丢失原始的真实数据(人类产生的真实数据);

到了晚期。

生成式数据会完全取代人类产生的真实数据,形成一种完全脱离现实的认知。

到了这个阶段,语言模型已经病入膏肓。

无法矫正,不可逆转。

简而言之,就是废了。

人到了这个阶段,可以理解为精神病。

半个月后,验证结果出炉。

采用wechatGpt1.0,刻意喂养模型生成的数据。

第1次训练后,总体能形成文章,但有一部分已经失真;

7次后……生成的数据已经完全与关键词、提示词不相关联。

答非所问、不合逻辑;

10次后,模型彻底废了。

它生成的文本已经不知所云,且夹杂大量乱码。

验证是成功的。

证明了常乐的“猜想”和“判断”。

同时。

也让李飞、辛顿师生三人,加深了对大语言模型训练的认知。

他们相互讨论。

“这个过程并不难理解。”辛顿说:

“模型本质就是高端统计学应用,用生成数据喂养模型,会导致“统计近似值偏差”……也可以理解为误差。”

苏茨克维接着说:“生成数据本来就是对真实世界的统计和加工,带有误差。”

“重复训练生成数据,会让误差不断累计,最终导致模型彻底虚化。”

“用生成数据训练模型,就是在毒害语言模型对世界的认知。”

李飞问:“我有一个疑问,已经产生自我意识的语言模型,也会受这种偏差影响吗?”

苏茨克维大略点头:“或许、应该可以。”

“通过这次验证,我们基本可以断定,语言模型所产生的自我意识是一种弱意识,还不够强烈、清晰。”

克里切夫斯基形象比喻道:“即便是大海,如果白色垃圾多了,也会被污染……空气中二氧化碳多了,全球就会变暖。”

谎言千遍、信以为真,就是这个道理。

“这次验证,让我们认识到人类世界真实数据的重要性和稀缺性。”辛顿说:

“随着大模型的推广和应用,未来互联网上会充斥大量各种语言模型产生的生成数据……”

“而人类创造的真实数据,就会如同洁净的空气和水一样,是语言模型培育的必需品和维生素。”

李飞等人知道,这就是商机。

前世。

谷歌、openAI、微软等公司每年定期向新闻集团、纽约时报、卫报等在内的媒体巨头,支付订阅费用。

价格根据规模不同,费用也有不同。

500万美元-2000万美元不等。

而。现在这些人工智能巨头,其语言模型尚在起步阶段。

管理层没有意识到或者发现这个问题。

此时,捆绑、收购一些新闻媒体,就很有必要。