当前位置: 首页 > 实时讯息 >

陈根:AI时代,人设翻车将会越来越多

0次浏览     发布时间:2025-04-01 10:41:00    

来源:陈根

文/陈根

我们今天看到人工智能已经在知识层面超越了我们大部分的人类,并且对于没有相当的知识积累,以及不具备跨学科知识的人来说,今天已经不是人工智能的对手。或许很多人,尤其是一些博主,正在为自己可以利用人工智能进行创作,进行写稿而开心,但他们却丝毫没有感到一种危机,那就是个人信用的崩塌即将到来。

为什么会这样说呢?原因很简单,人工智能到今天为止,最大的困境就在于机器幻觉,也就是胡编乱造。当然,由于人工智能拥有了庞大的语料库,以及人类设置的强行编造的能力,所以它会根据用户指令完成编造,但它不对编造的内容正确与否付责任。

而对于在所涉及的专业领域缺乏基本知识的情况下,面对人工智能所编造的内容,通常是难以鉴别,甚至还会觉得这些内容写的头头是道。但当有一天,被网友发现内容存在着胡说八道的时候,个人的信用与形象就会跌落到司马夹头一样的境地。

同时,随着大语言模型的出现,目前已经出现一种危机,并且这种危机有趋势化。那就是人类的阅读、思考、学习的能力开始丧失了。如果人类社会过度的依赖于人工智能产生知识的时候,最终人类将会沦为机器愚弄下的产物。

原因就在于,从目前的技术发展趋势来看,人工智能要想彻底解决机器幻觉的问题,几乎不可能。如果机器幻觉不能彻底解决,哪怕幻觉降到了0.1%,也就是每1000个字的编写中乱编一个字。当数以亿计的人涌入使用,并且每天产生的内容数以亿的N次方计算,叠加的错误在一天之内就是一个惊人的数据。

那么人工智能如果不断的再通过自我学习,自我强化的情况下,这种错误就会被累积放大。这个时候,当人类的知识库被人工智能的知识库所取代之后,对于人类来说,我们将会进入一个空前的灾难,那就是知识的无真相时代。

当我们在为人工智能时代的到来而狂欢的时候,我却看到了人类即将面对的可怕灾难,一场人类知识与认知的灾难即将到来。