对话“顶流”ChatGPT:你的“智慧”从何而来

2023-02-10 09:19:55 作者: 对话“顶流”

   从2022年底开始,来自全球各地的人都不约而同地绞尽脑汁,用各种刁钻的要求“调教”着一款人工智能——ChatGPT。

  AI一一应战,给出了史无前例的惊人表现,短短几个月间,ChatGPT在全球圈粉无数。

  ChatGPT搞定了论文、代码、报告,还能进行诗歌、剧本、小说等“文学创作”。这番大显身手,引起了一场轩然大波:比尔·盖茨说它的出现不亚于互联网的诞生;马斯克说我们离“强大到危险”的AI不远了;一大批预言家站了出来,大胆预测码农、分析师、新闻编辑等从业者即将失业……ChatGPT俨然成为赛博空间的“顶流”,越来越多的人对它的真面貌产生了深深的好奇。

  ChatGPT的“智慧”从哪里来?它真的已经无所不能了吗?记者带着疑问,和ChatGPT聊了聊它的前世今生……

  一个对话大师的诞生:

  “学习人类语言并不难”

  与ChatGPT对谈两回,记者不禁惊呼,这一次,AI终于“听得懂人话”了。

  为什么这么说?我们可以尝试同时问ChatGPT和苹果智能手机助手Siri一个前阵子所有人都特别关心的问题:“阳”了之后该注意什么?

  这时,Siri会因为无法理解问题,直接为我们到网上搜索已有的答案,但是ChatGPT却像一个真正的健康专家一样,合成出了像模像样的回答,而这一解答并非是网络上已经存在的。

  可以看出,ChatGPT似乎能够明白“阳”的含义,它意味着人的身体健康出现异常,并且,ChatGPT还能根据主题信息,富有逻辑、通顺连贯地阐述建议,最后用总结性的话语收尾,可谓一个真正的“对话大师”。

  洞悉人类的语言,这个AI是怎么做到的?ChatGPT颇为“谦虚”地告诉记者:“学习人类语言并不困难,而是一个自然的过程。”

  大量的文本数据训练是AI掌握语言的关键,ChatGPT真正做到了“读书破万卷,下笔如有神”。相关资料显示,ChatGPT的训练使用了约45TB的数据,其中包含了多达近1万亿个单词的文本内容,约等于1351万本牛津词典。截至2021年的海量知识全部被它收入知识库,这也解释了为什么它能“与时俱进”地解读出“阳”的含义。

  在“数据是燃料、人工智能是引擎”的时代,海量数据训练必须依靠规模巨大的神经网络模型。据了解,ChatGPT的前身GPT-3,是一个拥有1750亿个参数的大模型。“如果将这个模型的参数全部打印在A4纸上,叠起来将超过上海中心大厦632米的高度。”浙江大学人工智能研究所所长吴飞告诉记者。

  模型创新:

  在海量文本中“读出门道”

  更重要的,是让AI在海量的文本中“读出门道”。

  我们知道,语言的含义很大程度上受制于它所处的上下文语境,也就是说,同一个词所承载的语义可能会因为它在句子中出现的顺序不同,以及它之前或之后的其他单词的不同而发生改变,这就要求AI在理解一个单词时必须将它的上下文纳入考量。

  比如,“阳”的意思是“阳光”还是“阳性”,需要AI通过它与其他词语的关联来判断,在生成文本时,AI才能选择适当的词语含义进行表达。

  “在自然语言处理中,单词会预先被转化为一系列固定维度的词向量,向量和向量之间夹角越小,就意味着词语之间的相似度越高。”吴飞告诉记者,“训练时,AI会不断地在句子中‘挖去’一个单词,根据剩下单词的上下文来填空,即预测最合适的‘填空词’出现的概率,从而将单词向量表达得更加准确,我们称这一过程为‘自监督学习’。”

  吴飞表示,这种训练方法已经被广泛地应用于基于深度学习的自然语言处理任务中。不过,GPT家族使用的Transformer模型在此基础上进行了更深入的创新:首先是引入“自注意机制”,这使得模型能够在更广阔的上下文语境中计算出词句间的相关性,而不仅局限于有限的、相邻的单词;同时,Transformer模型还能并行处理文本中的所有单词,从“逐字逐句”串行处理跃进到并行处理,模型训练的速度和效率得到了极大的提高。

  而从GPT1-3代到ChatGPT,AI的语言能力能够越来越强大,还离不开“人类反馈强化学习”(RLHF)的“调教”。

  从ChatGPT的开发商OpenAI官网公布的流程图中,我们可以大致了解到ChatGPT通过人类反馈强化学习“自我完善”的过程。通俗来说,就是由人类专家对AI输出的结果进行标注,训练出一个“奖励函数”,该函数能够进一步对计算结果进行评估打分,促使AI不断调整参数权重,逐步生成更加准确、符合人类语言习惯与价值偏好的回答。

  我们在与ChatGPT对话的过程中,也无时不刻在为它提供大量的语料资源,帮助它通过用户的反馈改进特定对话的技巧。

  自我考古:

  关于“祖先”,还有聊天机器人家族

  据ChatGPT“回忆”,它的“祖先”可以追溯到上世纪50年代的机器翻译和语言识别技术。当时,人工智能研究者开始研究如何使用计算机识别和生成人类语言。

  作为AI界的新锐势力,ChatGPT背后有一个聊天机器人家族。

  第一代代表人物Eliza,是麻省理工学院人工智能实验室的计算机科学家约瑟夫·维森鲍姆开发的历史上第一个聊天机器人。Eliza的人设是个“心理医生”,能在心理治疗情境下,按照预先设定的模式组织语句,与真人进行对话。它和人类的“沟通”基于模式匹配和对话转化,也就是通过对用户输入的语句进行重新组织和解释,变成全新字句组合,这让它自己看起来像是一位耐心的倾听者,似乎真的在安抚患者的情绪,实际上这位医生并不知道自己在说什么。

 1/2    1 2 下一页 尾页