关于ChatGPT的几点看法
1、ChatGPT是什么?它为什么会火出圈?
“我是一个基于大型语言模型的聊天机器人,接受过大量文本数据的训练,使我能够对各种各样的问题产生出类似人类反应的回答,并用一种听起来自然流畅的方式表达出来。我可以尽我所能地提供准确和有用的信息,但我也并不是一个完美的知识来源,因为我并不能总是提供完整或正确的答案。我一直在学习和提升,所以我可能不知道你所提所有问题的答案,但我很乐意尽我所能帮忙。”上面这段话,就是ChatGPT自己对自己的介绍。
关于聊天机器人,其实我们已经见过很多。大家最熟悉的莫过于苹果手机的“SIRI”,百度搜索的“小度”或小米音箱的“小爱同学”了。但是这些可以与人类进行简单对话的机器程序,跟ChatGPT比起来,简直就可以说是“弱爆了”:对话词汇极为有限,对话过程生硬无比,而且对话内容无法连续进行。ChatGPT则不然,对话流畅,知识丰富,回答巧妙,即使它的回答并不能让你总是满意,但最令人震惊的是它居然能真正理解你所提问题的含义,无论你怎么拐弯抹角的为难它。我们可以在网上到无数网友跟它对话的例子,很多对话无不叫人拍案叫绝。你可能会想,它怎么就知道这样说呢?而且,它还会写小说、作诗、写会议总结、读书心得,甚
chatgpt在哪里至编程序,写论文,以至于很多大学教授都已经头疼于学生用它来作弊写论文了。
ChatGPT是由美国OpenAI公司开发的。OpenAI于2015年由外号“钢铁侠”“外星人”的马斯克以及阿尔特曼等人创立,目标是致力于让机器人能够完成基本家务。据说,当年对人工智能危险抱有高度警惕的马斯克之所以创立这个公司,还是因为阿尔法狗的出现,使其看到了人工智能迫在眉睫的危险,而他认为“能对抗AI的只有AI”,而且AI还必须开放由人类监督共享。所以自己也搞一个AI组织,名字就叫“OpenAI”(开放人工智能),目标是“确保人类不会被AI消灭”。开始时它只是一个非营利组织,后来由于接受了微软的大量投资,现在改为了“有限盈利”公司了,大意就是等还完了微软的钱,再恢复它非营利组织的本性。
为什么要叫“ChatGPT”这么奇怪的一个名字呢?其实,这个名字的核心是“GPT”这三个英文缩写字符,全文应该是“Generative Pre-training Transformer”,即“生成式预训练转化器”。简单地说意思就是,采用大量数据训练出一个巨大的神经元网络转化器,去生成与人类交互的内容。因为其最核心的智能技术是“生成”,所以这种技术就被称为AIGC,即“生成式人工智能”或者“人工智能生成内容”。这个技术根据模型转换器的不同,可以被用于生成各种各样不同的内容。比如你只要给出一些提示词,它就可以把你描述的内容,变成一幅画,或者一本
小说,甚至是一首歌。如果生成的内容是与人之间的对话,完成对话中人所交给它的任务,比如回答问题、概括文章、写一个报告或文档,这就是我们现在看到的ChatGPT,也就是可以“进行会话的GPT”了。
为什么ChatGPT会大火出圈呢?这是因为过去我们做的智能系统都达不到这样智能水平,而现在却突然可以了,仿佛计算机突然被赋予了人类的灵魂。它的回答有模有样,有时一板正经,有时又俏皮可爱,有时甚至是一板正经的胡说八道。更绝的是,它还能与人类价值观对齐,几乎所有的反应都看不到生硬的痕迹,跟它对话时间一长,就很容易忘记它其实只是一个聊天机器人。ChatGPT的惊艳表现,使得又一个人工智能系统,在时隔6年之后,再次“出圈”。这说明,人工智能技术经过不断的迭代,终于又有了一次巨大飞跃,跳上了智能技术的又一个台阶。也就是说,它更成熟了。
是什么技术进步导致了它显得更成熟了呢?这是因为所谓“大模型”技术发展到了更高水平。OpenAI和搞出阿尔法狗的DeepMind公司,他们的目标都是“通用人工智能”,也就是能像人类一样解决普遍问题的AI,但是两者所走的技术路线是不一样的。阿尔法狗采用的是“深度增强学习”方法,通过各种不同难度的游戏入手,采用所谓“自博弈”方法,根据给定的规则和准
则进化,不断向通用人工智能靠拢。开始时还要靠人类样本指导,后来发展到不需用任何人类样本的学习,甚至也不需要人来教就可以达到很高水平。最后不仅在围棋、国际象棋、星际争霸等各种棋类或游戏上所向披靡,甚至还扩展到了非游戏类应用,比如生物学上的“蛋白质折叠”等领域。虽然已经令业内人士惊艳,但由于总是聚焦于某个具体任务,虽然可以高效解决问题,但却很难泛化到普遍性任务上,影响反而越来越小。
ChatGPT走的则是另外一条道路。它起源于自然语言处理,目的是要让计算机理解我们所说的语言。这也不是一件容易的事情。开始时主要还是符号处理,虽然后来也转向了神经元网络,但进展一直很慢。这是因为,语言是人类思考的载体,其上下文关系和各种隐喻极为复杂,非常难以理解和表达。为了能够应对越来越复杂的情况,不得不采用更大型的模型,靠着不断增加模型参数来提升性能,通过越来越多的人类现有语言文本数据样本进行学习训练。从最初的GPT-1开始,一直到GPT-3,都在苦苦挣扎,只能看着阿尔法狗风光无限,羡慕不已。直到GPT3.5的时候,模型所用参数达到了1750亿个,学习数据超过3000亿单词时,奇迹终于出现了,模型会话水平突然大幅度提高,像是突然涌现出了智能,远远超乎了设计者的想象。这种不断增加参数并且参数达到相当大程度的模型方法,就被称为“大模型”,虽然最终它得到的其实也是深度学习神经元网络,不过这个神经元网络个头比较大,适
应性也比较全,并且可以很好地泛化。在测试中一炮而红,连名字都没有取好就创造了5天用户破百万的最快纪录。原本准备以GPT-4名义发布的系统,却以ChatGPT这样的名字就匆匆忙忙登场了。
有人说,这就是“大力出奇迹”,因为算力、算法、样本数据都达到了很高的水平。其实在我看来,这其实就是复杂系统积累到了一定程度后发生的临界自组织涌现,即智能的涌现。智能系统是典型的复杂系统,运行靠的其实就是各个组成部分的不断交互,最终都达到一定规模后,才会真正产生出“智能”。这些“智能”有一种不可言说的特性,就是你觉得它在“说人话”,哪怕它只是在胡说八道。这与那些会干很多事,但就是不像人的机器“技能”,是有天壤之别的。而且,为了使ChatGPT会话更符合社会道德准则和生活实际,还给它增加了“基于真人反馈的增强学习”过程,以及大量的标注过的准确数据,结果使得它的回答更能为人们普遍所接受。这就是ChatGPT一下火出圈的根本原因。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论