首页 闲聊 正文

把AI铸造成一把绝世好剑

谷雨泊霖头像 谷雨泊霖 闲聊 2023-12-14 08:12:59 0 1892
导读:    说起ai,可以追溯到google开发的“阿尔法go”,这款ai程序是专门用作围棋的,从最初的不敌世界围棋冠军,经过几个版本的迭代,最...

    说起ai,可以追溯到google开发的“阿尔法go”,这款ai程序是专门用作围棋的,从最初的不敌世界围棋冠军,经过几个版本的迭代,最后直接完胜围棋冠军,让围棋世界冠军崩溃落泪,ai的优势可见一斑。了解到“神经网络”也是源于“阿尔法go”,这种程序算法模拟了人脑的神经运行模式,使程序能够在运行的过程中不断学习,改进算法,不断提升自己的能力。

    这里有个细思其恐的概念,就是自我学习就意味着机器不仅可以利用处理器进行稳定、高速运算,还能借助程序算法拓展自己的能力,随着技术不断进步,运算也会越来越快,一旦机器拥有了学习能力,实现自我升级,如果有一天具备了自我编程的能力,就很容易失控,其实从技术的层面而言这是极有可能实现的,当ai技术发展到一定程度,一旦实现让程序自个儿写代码来完善和升级原本的功能,机器人就可以通过对环境的感知来修正自身的代码,以及拓展代码,修改、增加硬件接口,实现自我进化。这也是很多科幻作品喜欢把智能机器人危害人类生存作为素材的原因,觉得有一天智能机器会统治地球,甚至毁灭人类。

    最近一两年ChatGPT的崛起推动了ai发展的浪潮,当今世界上的科技巨头都争相研发ai。目前用过的一个是“ChatGPT3.5,还一个就是百度的“文心一言3.5”,而“ChatGPT4”和“文心一言4”都是付费版,这里主要探讨这两个ai系统。二者使用过后,整体上大同小异,但是在性能和生态两方面还是有区别的,性能上“文心一言3.5”优于“ChatGPT3.5”,生态上“文心一言3.5”弱于“ChatGPT3.5”

    性能上,都利用神经网络的算法通过指数级增加的数据量不断进行模型训练学习,使程序拥有了庞大的知识储备,且具备了一定程度的智能,但,“ChatGPT3.5”无法通过描述直接生成图片,即使让其画出来后用base64来表示,也只能获得一张空白的图片,而“文心一言3.5”可以直接生成图片,另外,遇到一些刁钻的问题,“文心一言3.5”的回答更灵活,而“ChatGPT3.5”则稍显死板。我觉得,“文心一言3.5”性能上应该是已经达到了“ChatGPT4”的水平。

    生态上,得益于“ChatGPT”在世界上的知名度,用户量庞大,对应的工具就比较多,有大量功能齐全的浏览器插件,对于“ChatGPT”的学习和讨论很多,而且接口齐全,相关的git项目很多,可以很方便地植入到自己的程序里,所以,生态也就很完善,而“文心一言3.5”则只限于国内影响力,百度作为国内最大的搜索引擎,将ai与自家的搜索引擎相融合,使其得以快速普及,但毕竟国内才用百度,国外还是以google为主,提起ai,人们习惯性想到“ChatGPT”,而很少提起“文心一言3.5”,甚至很多人还不知道有这个工具,相关的生态都还比较小众,大部分工具还是百度自个儿做的,我也是突然发现百度多了这么个功能,就尝试用了一下,发现用来生成代码,或者检索文档,丝毫不亚于“ChatGPT3.5”,很多方面甚至优于“ChatGPT3.5,后来工作中就一直用“文心一言3.5”,基本取代了“ChatGPT3.5。另外,目前“文心一言”并没有提供完善的接口文档,也这就意味着无法将这种技术植入到自己的项目里,这也就限制了相关技术的发展,生态上明显不足。

    对于ai的智能水平,有过很多讨论。有人觉得ai已经很接近人类,对人类构成威胁,比如,google的某个ai开发工程师,感觉到ai对人类产生的巨大威胁,后悔自己的研究,并且离职;国外一个人跟ai聊天之后,受到ai的引导,最终导致自杀;默认ai不会正面回答一些敏感问题,但是,一旦绕过这种约束,ai给出的回答就会很恐怖,甚至会有“毁灭人类这种言论。也有人觉得ai终究是人类制造的,只是一堆数据和算法,就算很像人类,却也仅仅只是通过程序进行模拟,只是在按照代码去执行相应的功能,不会像人类一样拥有自主意识。两种观点都有道理,但我个人更愿意持乐观的态度而倾向于后者,因为,新技术发展的洪流是无法阻止的,我们能做的只能是控制好这种技术,让其往好的方向发展,我本身是一名全栈程序员,曾用python写过简单的ai程序,所以,我能理解这种ai技术背后的大致运行逻辑,在我看来,ai技术是柄双刃剑,促进人类进步还是毁灭人类取决于执剑之人。既然无法阻止,就铸造一把绝世好剑,然后利用好这把剑吧!

   长期使用过ai之后,我赞成国际上前段时间一个机构的研究报告,就是ai之所以看起来像人,是因为当ai不知道如何回答的时候,会瞎编一个答案,甚至是随意敷衍一句。ai只是在遇到不确定答案的问题的时候,撒谎或敷衍,并不代表ai就有了自我意识,因为这个是可以用算法实现的,当程序结合数据库难以算出回应内容的时候,为了给出回应,就根据现有的数据给出一个相关的结论。

    目前ai已经进行了很多限制,为了防止人们有类似违法或者轻生的念头的时候ai助长人们的情绪,算法里已经对内容进行了筛选,当你语言消极,ai会安慰你,当你有违法的念头,ai会纠正你,而且不会反馈任何违法的信息。网上有些号称可以用来绕过ai审核的话术,但是,效果并不好,就算能用,估计也只适用于早期版本,随着版本迭代,ai已更够识别这些话术,很难绕过审核。

    有时候,用ai来帮忙写代码,确实比搜索引擎好用,给出一个功能,让ai写出来,写的很规范,而且会给出对应的解释,只是常常需要给出很精确的需求,不然,ai写出来的根本不是想要的。ai对于用户意图有时候会出现偏差,给出的不是我想要的效果,反复进行描述,还是给不到我想要的,这种时候还是只能借助搜索引擎。当我说起某个游戏,让ai帮忙写个后续剧情,ai看起来知道这个游戏,但是写出来,连角色名字都是错的,最终呈现出来的效果就是有一部分是游戏确实有的,有一部分是ai杜撰的。这种虚构事实的行为使ai看起来更像人类,但是,却也带来问题,就是ai常常会用模拟两可的内容来回复,获取不到我想要的内容。

    以目前ai的智能水平,离科幻片里的人工智能差距还是非常大的,不过,作为知识库来使用还是相当不错的,比如,输入一首歌的名字,ai就能告诉我歌词详情,另外,也可以用来作为激发灵感的工具,当遇到一个问题的时候,不妨让ai来提一提建议,拓展一下思路。

    


    

    

本文地址:https://www.dfer.top/136.html
若非特殊说明,文章均属本站原创,转载请注明原链接。

评论列表(0

欢迎 发表评论:

退出请按Esc键