章节出错了,点此刷新,刷新后小编会在两分钟内校正章节内容,请稍后再试。
【解锁完成。】
【当前拥有源点:0】
看来是因为现在自己拥有系统里的这个【源点】资源不够,
现在解锁不了ChatGPT-10。
叶伟航心里稍微有点失望。
看来,要想办法攒这个【源点】,尽快搞定ChatGPT-10,才能反客为主,让亚美利加,布列塔尼亚尝尝反向文化输出……
不过,
已经解锁的ChatGPT-1,在平行世界也是2020年左右才研发完成的产品,使用的许多技术,更是沿用到了ChatGPT-10。
对于2016年世界上所有的聊天机器人,也是妥妥的降维打击。
不管在Neurlps还是什么别的人工智能学术交流大赛上,拿个一等奖还不是手到擒来。
【解锁失败……分析原因中……】
【检测到宿主大脑的各项参数不达标,认知水平过低,无法用系统通常使用的逻辑方式表述。】
大脑各项参数不达标……
这系统,是在嘲讽我太菜,
没错吧?
【降维中……】
【降维到宿主目前知识架构可以理解的范围。】
【宿主可以选择兑换以下模块。】
【目前已兑换ChatGPT-1模块:0/6】
【目前拥有知识:10(来自新手礼包)】
【项目架构总方案,计算资源,训练数据,无监督学习阶段算法,监督学习阶段算法,强化学习阶段各神经节点参数[A1]。】
叶伟航死死盯着系统面板,
视线牢牢锁住计算资源四个字。
这系统,
竟然不但能提供各种文档和参数,还能直接提供计算资源?!!?
如果有用之不尽的计算资源,剩下这些什么数据,算法,架构还要他干嘛?
上个世纪八十年代,两位图灵奖获得者,人工智能界的超级大牛分别拿出自己最重要的成果。
乔弗里.辛顿提出反向传播算法,提供了训练深度神经网络的有效思路。
杨立昆贡献了卷积神经网络算法。
从那之后,
人工智能学界几乎和物理学一样,整整五十年时间里,几乎没有取得任何突破性的研究成果了。
事实上,
反向传播算法,
卷积神经网络,
这两种算法的思想,
一直被应用于相隔将近五十年之后的划时代项目Alphago乃至ChatGPT上。
那么,
为什么在1980,这两个牛逼理论出来的年代,
甚至直到30年之后,
2010年左右,
人工智能行业都没有取得任何像样的成果,在社会大众眼中如同透明人呢?
又是为什么,
人工智能又能在2015年后突然爆发,
短短不到十年之内,
先是Alphago攻克围棋,吊打所有职业选手,
接着作画人工智能井喷,许多低级画师纷纷失业,
然后ChatGPT横空出世,成为社会热点?
原因其实很简单:
随着硬件技术的发展,训练人工智能所需要的计算资源,也就是各种专业和通用的芯片变得越来越强大和便宜了。
从Alphago开始,
人工智能行业的研发就主打一个大力出奇迹,
简单点说,
就是定好一个神经网络架构,穷举法让电脑自己和自己下棋玩去。