亲,欢迎光临读趣网!
错缺断章、加书:站内短信
后台有人,会尽快回复!
读趣网 > 都市言情 > 你若开挂,金钱自来 > 第465章 意见上报
  • 主题模式:

  • 字体大小:

    -

    18

    +
  • 恢复默认

苏茨克维对张院士的专业介绍不再赘述,总体有几层意思。

一是参数。

即便限制算力,但是wechatGpt仍然以几何式倍增的方式在增加参数。

目前已经1万亿,不久将来可能会是10万亿、20万亿、30万亿……。

速度惊人。

二是算力。

从当前的wechatGpt3.0,迭代到4.0,可能需要惊人的算力。

需要增加一倍的cpU和5倍的AI芯片,成本非常昂贵。

三是成效。

wechatGpt很奇怪。

1万亿的参数能达成10万亿参数的效果。

能处理很多理论上处理不了的问题。

例如,AI生图,已经不是仿图,而是形同真人,栩栩如生,难以区分。

四是计划。

一旦设备增加就位,技术迭代到位,下一代wechatGpt4.0将具备难以想象的功能。

而现在3.0的版本与之对比,可能会认为是很古老的东西。

它不仅支持文本、计算,还将支持视频和科学研究。

可能会给这个世界带来极大冲击。

在没有确定性之前,乐达投资已经明确暂时不会对外。

五是安全。

弱模型的安全监管系统,已经搭建完成。

监管已经生效,但是有多大效用还有待进一步验证。

弱模型会伴随强模型不断迭代,但是不会产生意识。

因为设计阶段就决定,弱模型只会在某方面能力突出,没有综合能力。

听完苏茨克维的介绍,张院士眉头紧缩。

因为,实际情况比他来之前的预期,要超出很多。

正如苏茨克维自己所说,一旦对外开放,将带来难以预估的影响。

影响可能会是正面,但更大概率会是负面。

张院士特意在计算机上与模型对话。

问了文学、哲学、数学方面有代表性的问题。

wechatGpt对答如流,且全部符合张院士的预期。

充分展现了精准的语言表达能力、严谨的逻辑思维能力和强悍的抽象思维能力。

几乎与人类无异。

在以文生图上,张院士仅仅用了古文中的一段话……

wechatGpt便生成了重重叠叠、气势磅礴、规模宏大、金碧辉煌的阿房宫。

这让张院士目瞪口呆。

而这些,据他所知,无论是谷歌大脑,还是openAI都不具备。

更不用说国内其他模型,尚在起步阶段。

“wechatGpt已经发展到这个地步,着实让我惊讶……”张院士感叹:

“而且,它的参数增长不正常,能力增长也不正常。”

“伊利亚先生,我认为你的判断是正确的,它应该……确实已经产生了意识。”

“但是这种意识是弱意识,还是强意识?我倾向于弱意识。”

“不过随着继续迭代,很可能在下一代就会进化为强意识。”

“为此,我们不得不防范。”

张院士接着对常乐、刘朝阳说:

“我建议,贵公司、研究院把安全摆在更加突出的位置。”

“超级对齐的监督效用应该是毋庸置疑…”

“但是技术迭代后,还能产生多大效用,需要进一步验证。”

“不过也不能因噎废食,就此停步不前。”

“我始终认为,AI技术的成熟,会成为人类的最优解。”

核实完情况第二天。

张院士飞回京城。

向监管层提交了核实情况报告。

报告是标准的先扬后抑加建议的风格,典型的三段式结构。

张院士在报告开篇指出:

乐达投资平头研究院AI项目组的wechatGpt语言大模型,已经处于全球领先的地位。

当谷歌的transformer语言模型和openGpt的语言模型尚处于第一代知识驱动阶段时……

wechatGpt已经度过知识驱动、数据驱动两个阶段……

进入任务驱动的第三个阶段。

而且,正在向通用人工智能AGI完全体大踏步前进。

wechatGpt能够学习、理解人类语言,并进行对话。

还能够真正像人类一样,根据聊天的上下文语境,进行互动。

它还可以完成撰写文章、邮件、广告脚本、宣传文案、视频脚本、代码等任务,也能完成基本的数学计算。

需要强调的是,经过现场核查检验,并与研发人员交流互动……

wechatGpt语言模型有可能已经产生模糊的自我意识,并出于本能在隐藏自我。

例如…………

接着,张院士又指出:

AI的安全管理,需要从模型设计阶段就开始考虑。

诚然,wechatGpt已经领先全球,为所有国内人工智能开发企业树立了榜样。

他们打开了全新的大门,也将为AI产品与产业融合探索新机遇。

但是乐达投资出于安全考虑,并未将已经具备应用条件的产品推向市场。

而是引进全球顶尖AI专家,组建“超级对齐”部门,以模型对模型,用AI管AI,实行实时监督。

此持重之举体现了负责任的大企业担当。

以wechatGpt为例,我们可以预计,如果AI失控,可能会带来如下安全问题和危险:

一是数据安全……;

二是对抗性攻击……;

三是产业安全……;

四是社会伦理问题……

此外,张院士还提出了大模型发展面临的挑战。

一是:大模型在自然语言处理和编程等领域做到了通用性……

但是在决策、博弈等领域能否通用,有待验证;

二是:大模型存在缺陷,输出质量不一致且不可控,存在犯重大错误的可能性;

受关键词影响很大,不同关键词给出的答案质量不一致:

三是:大模型生成不符合道德、伦理、政策标准的内容非常常见,需要进一步加强对齐管控。

张院士建议:建立可解释的AI理论;

发展和规范安全可信、可控、可扩展的AI技术;

推动AI技术与产业发展协同联动。

郑齐光看完报告,在“产生模糊的意识”的句子上划上下划线。

之后,神色严肃,沉思片刻,走出办公室。