20分钟做一款游戏,89%学生用它写作业,ChatGPT究竟是何方神圣?

时间:2023-03-29 15:28:14 来源:电竞网

ChatGPT——2023年年度热词先预定了,虽然今年才过去三个月,但ChatGPT已经刷爆了网络平台,全球网友都在热烈讨论ChatGPT究竟是什么?有什么用?以后会对我们产生什么影响?

去年年底,OpenAI发布了GPT-4,这个消息一出,引起了互联网和科技圈的高度关注,毕竟曾经人们也以为乔布斯和苹果只是一家普通的手机公司,没想到后来却引起了一场全球互联网的变革。

GPT-4发布之后,推特上有一位0代码基础的用户,在GPT-4的加持下,仅仅20分钟,就做出了曾经风靡全球的经典游戏《贪吃蛇》。这位用户在推特上分享了他制作游戏的过程,只需要三步。

第一步便是要求GPT-4为自己提供一个贪吃蛇的游戏代码。

第二步到Replit平台上注册一个账号,并搭建好《贪吃蛇》运行需要的环境。

第三步就是将GPT-4提供的游戏代码复制到Replit平台,然后点击运行,游戏里面的贪吃蛇竟然真的开始跑起来了,而且全程无BUG。

这个案例惊呆了智能AI行业的大佬,毕竟一个0基础的小白只需要20分钟,就做出了一款游戏,虽然这只是最简单最基础的游戏,但如此高的效率和准确率,竟然只是一款AI智能软件生成的。

ChatGPT究竟是怎么诞生的呢?它会是下一个互联网的风口浪尖吗?还是和前两年的元宇宙一样,绚烂过后逐渐被人们遗忘呢?

1950年,一位名叫艾伦图灵的英国数学家发表了一篇论文,名叫《《计算机械和智能》。在这篇论文中,艾伦图灵提到了一种判断机器是否拥有人工智能的一种方法。那就是将一个人和一个机器分开,人可以用键盘等工具向机器提问或者聊天,然后测试的人需要判断出和自己聊天的对方也同样是人还是机器。如果有超过30%的测试者不能确定出对面是人还是机器,那么这台机器就通过了测试,并被认为具有人工智能。

而这项测试也被后人称为“图灵测试”。

图灵测试的实验提出之后,当时很多的计算机科学家都非常感兴趣,开始了各种智能AI的研究之路。

1966年,麻省理工一位教授发明了一个名叫Eliza的机器人,身份是心理治疗师,能够通过和它的聊天来帮助一些心理有疾病的人们。比如下面这一段对话:

Eliza: “我是心理治疗师,请问有什么问题。每次说完话,请按两次回车键。”

患者:“你好吗?”

Eliza:“还不错,跟我讲讲你自己。”

患者:“我感觉好孤独,好忧伤。”

Eliza:“为什么你感觉好孤独,好忧伤?”

患者:“家人和朋友都不关心我。”

Eliza:“跟我讲讲你的家庭。”

当时这段对话让人们以为Eliza真的具备了和人们沟通聊天的能力,实际上,这只是开发者在背后设置的一些非常简单的代码。

比如,程序检测到你输入的文字里面有食物,比如面包,馒头,红烧肉等等,机器人就会回复你“吃了吗?”“你饿了吗?”“你觉得它的味道怎么样?”等等。

这种根据关键词回复的智能AI到现在还有很多地方都在用,比如购物软件上,你购买了东西又需要退货,沟通的时候,只要检测到退货两个字,就会自动回复一个退货流程。这种匹配模式虽然称不上非常智能,但确实减少了很多重复低效的工作。

但是光靠这种模式,通过图灵测试肯定是不现实的。就算给机器人设计了再多的问题答案,也不可能穷尽所有人的问题,然后设计答案,毕竟人的想法天马行空,在聊天或者提问的时候,更不可能根据你设置的答案来提问。

后来,在2000年左右,智能AI行业提出了新的概念——机器学习。

机器学习作为新一代的智能机器人,开发者不像上一代给它设置各种问题或者关键词的答案了,而是给它一堆现成的例子,让它自己学习。

比如同样的聊天,人们问它吃饭了吗?它刚开始会不知道怎么回答,但是到后来,它接触了大量的类似对话,就开始慢慢模仿人类的语言习惯,比如它会试着回答,“不,晚餐会出去吃”“中午吃太多,现在没胃口”等等。只要通过和它对话过的,都会被记录在它的数据库里面,然后它会进行不断地学习。

就这样,一直学习到了2010年,AI行业又推出了新的模式——人工神经网络。而这项模式推出,可以说智能AI又前进了一大步。这也就是ChatGPT的前辈。

人工神经网络,简单来说,就是机器人想模拟人脑。人的大脑拥有很多神经元素,人的判断和各种举动都是通过神经向大脑传递信息,再做出行为。

而发展到当时的人工智能也渐渐具备这种能力,比如,看见一个人的脸,人工智能就能迅速做出判断这个人是谁。

而像现在的人脸识别,声音识别,指纹识别,自动驾驶等等,都是基于这一代的人工智能发展。

然而,这一代智能AI虽然更为先进,可以通过人脸,指纹,声音等各种方式做出判断,但是在文字方面,却发展得非常不顺利。

毕竟,长相,声音,指纹等,每个人都不同人工智能可以靠每个人不同的特征来识别不同的人。而文字大家使用的都一样,同样的一句话,一样的文字,人工智能便没办法识别这句话究竟是谁发出的。

2015年,马斯克等一众大佬投资了10亿美金,成立了一家非盈利的人工智能公司OpenAI,而这也就是ChatGPT的母公司。

当时几位大佬成立OpenAI,并且将它定义为非盈利组织,就是想着根本没打算靠这个赚钱,存粹是为了推动人工智能这项技术的发展。

2018年,马斯克发现自己的特斯拉里面的自动驾驶等也需要涉及到一些人工智能的技术需求,为了避免利益冲突,马斯克便退出了OpenAI的董事会。

而同样也是2018年的6月,第一代GPT正式诞生。

这一代的GPT-1基本上就是整合了之前几代人工智能的优点,既有机器学习的文字处理能力,又有人工神经网络的学习能力。

2019年,OpenAI推出了GPT-2,这一代的GPT只是加大了学习能力,而学习数量,毕竟全球这么多数据,都需要资金的支持。

比如,人工智能学习一百个参数。需要花费100块钱,但是,它要学习200个参数,花费肯定不止200块钱,因为它是在前面100个参数的基础上再增加100,费用自然也是成倍的增长,可能就是400,500甚至1000。

OpenAI为资金,就从一家非盈利组织变成了一家封顶的营利组织,而封顶收益就是一百倍。

比如,向OpenAI投资了100元,盈利之后,最高只能获得一万,多余的都归OpenAI用于研发。

而这项改变也引来了科技巨头公司微软的注意,2019年,微软向OpenAI投资10亿美元,用于继续研发这项技术。有了资金的支持,ChatGPT的参数自然也是成倍的往上涨。

2018年推出的GPT-1,参数是1.2亿。2019年11月的GPT-2,参数是15亿。而到了2020年6月,GPT-3出世,而它的参数达到了1750亿。

这一代的GPT在当时引起了一阵轰动,无论人们问它什么,它都能回答两句,只是这种方式非常不稳定,有时候回答得好,有时候回答得不好。

比如谷歌的AlphaGo,它是一款下围棋的人工智能,它就拥有非常明确的目标,那就是下棋,赢了就算达成目标。而GPT是人工智能的聊天软件,聊天好坏这根本没有一个明确的定义。

为了解决这种不稳定的情况,2022年3月,OpenAI推出了GPT-3.5,加入人工反馈的机制。就是在对话过程中,如果有什么不满意,可以进行反馈。

这时的GPT就像一个记忆力好,学习能力强的小孩一样,不断地学习各种参数,有不对的,大人再教它应该怎么回答。

经过一系列的优化,终于,2022年11月,GPT-4诞生了,也就是我们现在所说的ChatGPT。

ChatGPT一经发布便迅速火爆全球,5天用户数量就突破百万。仅仅两个月月活数量达到了1个亿,成为史上最快突破一亿的软件,排名的第二的TikTok 达到 1 亿用户用了 9 个月,而第三名Instagram 则花了 2 年半的时间。

曾有一名北密歇根大学的学生,用ChatGPT来写自己的论文,导师觉得过于完美,一点错误都没有,调查之后才知道这是ChatGPT创作出来的论文。

而这还并不是个例,根据调查显示,美国有89%的大学生都会用ChatGPT来写作业,因此纽约所有的公立学校都屏蔽了ChatGPT。

ChatGPT的出现虽然方便了人们,但也出现了很多弊端。现代人们花了几百年建立的教育体系,被ChatGPT轻松解决掉了,以后人们都不用学习了,有问题都直接问ChatGPT吗?

毕竟ChatGPT刚出来不久,暂时还没有形成一套完整的规范来管理。就像现代交通规则,大家都知道红灯停,绿灯行,但是突然有一天,所有的车都可以飞了,一时之间,没有相关规定来限制什么时间段,哪些车辆可以飞等等。

总体来说,人类文明需要发展,社会也需要进步,科技越来越先进是必然的,只是科技依旧是一把双刃剑,用的好便能披荆斩棘,一往无前,用不好伤人伤己也未可知。

1/1页