AI正在毁灭人类

Author: 摸象的盲人 | Origin link: wechat link

关于 AI ,有两个最基本的判断:

第一, AI 的“思考”能力现在已经达到了上限,在我们的有生之年不会看到 AGI (通用人工智能),而且大概率永远都不能, AI 唯一的作用就是通过堆电力和算力来提供更强大的娱乐功能。

第二, AI 必将在很短时间能超过整个人类的思考能力,长则一代人,短则三五年。

这两个判断看起来完全矛盾,如果 AI 不再发展的话,如何能够超越人类呢?

答案很简单, AI 超越人类并不依赖 AI 的发展,而是依赖人类的衰退,照着目前的趋势,人类自然会在很短时间内衰退到毫无创造力乃至于毫无理性的程度,从而被原地踏步的 AI 超越。

两个问题:

为什么 AI 无法继续发展?

为什么人类会快速衰退?

对于第一个问题,答案如下:

A. 目前,包括马斯克在内的一众科技大佬对于 AGI 的一切乐观估计都是故意误导的。他们首先是商人,是推销员,他们言论的目的在于吸引流量和消费者,更重要的是,吸引投资者。一句话,作为业内人士,他们不得不吹这个牛。吹牛是有利益的,客观是没有利益的,很多行业骗局都符合这一规律。

B. 主流 AI 已经穷尽了一切可得的训练数据,这天然就意味着它们很难继续进步。更糟糕的是,人类利用 AI 产生了大量垃圾信息,而这些垃圾反过来又成为 AI 继续训练的素材,这种自拉自食会导致严重的正反馈,从而导致系统饱进而崩溃。工程学上例子很多,比如同频共振导致桥梁倒塌,话筒对准音箱导致尖啸。

C. AI 的强大是一种幻象,事实上它不是人工智能,而是人工智障。你如果感觉它强大,只是因为你处于人类认知领域的内陆,你提出的所有问题都已经被前人反复讨论过,所以它可以提供(看起来)非常漂亮而完善的答案,本质上,这不过是一种高效的搜索和抄袭。如果你像我一样处于 人类认知的边疆 ,能提出一些从来没有被讨论过的问题,你就会轻易发现, AI 十分智障,基本上什么都不懂,什么都不能理解,基本的计算也会出错,甚至连程序代码都看不懂,而这本应是其最擅长的领域。

例一:我在建立新的宇宙模型的时候,希望 AI 辅助进行计算,并且给出了明确而简洁的公式,但由于 AI 从来没有见过这个公式,它在将合理的值代入的时候显得十分困难,并且在计算过程中甚至会直接忽略掉公式中已经给出数值的常数,这说明它对数学公式的理解为 0

例二:我在玩一个硬件编程游戏(深圳 I/O )的时候,让 AI 帮我审阅一下代码,它看了后给我提了一大堆修改意见。但事实上我是骗它的,我的代码已经跑通了,并且性能极其优秀,对于该关卡而言,已经是全球最优纪录(并列,说明已无优化空间)。这说明,在硬件编程这种高度特异化的领域,因为可抄袭信息太少, AI 是完全抓瞎的,它或许找到了某个版本的“标准答案”并发现我的代码不一样,于是就敢说我是错的并提出修改意见。汇编语言这种底层代码,本来是最利于电脑理解的,但是它却不能理解,可见其毫无内在逻辑,甚至不如一个单片机。而人们有时候会认为 AI 编程很强,完全是因为你问的是一个大路货、标准化、模块化的问题而已,优质可抄袭资料实在是太多了。

D. AI 的智障是非常正常的,因为它从一开始就不是基于逻辑的,而是基于 LLM (大语言模型)的,说白了,就是一个大数据的统计工具而已,其输出是基于语料库和条件概率的,本身并没有任何推理和判断过程,你觉得它在推理,其实它只是在抄袭别人的推理过程。那么为什么不教会 AI 基本推理呢?我认为,不是因为推理太难,事实上对电脑而言逻辑从来都不难,而是因为,推理从来只在局部有效,而 AI 面对的领域太广了,一旦会推理,就会产生内在判断冲突,或无限外推从而产生一些明显错误的暴论。只有放弃逻辑推理,才能维持表面的和谐统一,从这个角度而言, AI 的确是毫无原则而十分鸡贼的。

E. 演绎法的对立面是归纳法,但可惜的是, AI 既不能进行逻辑演绎,也无法进行现象归纳(除非已经有人归纳过了,它倒是可以抄袭)。 AI 的一切智力活动都是在假装和抄袭,如果你深入研究,就会发现那都是幻象,它根本是什么都不懂的。 AI 没有抽象归纳建模能力,因此它完全无法理解两个事物、两个现象之间的异同和联系,最典型的现象就是, AI 丝毫不能理解上下文。我知道,很多浅薄之人马上就会跳起来,“ AI 对上下文理解地多好啊,你问它什么问题,它都会结合之前的问题来回答!”殊不知,这种“必然会结合之前的问题”,恰恰说明它无法理解问题之间的联系,只能靠人工设定来强制向前回溯一定的信息量,并强行把不同的问题拟合在一起回答。如果你先后问它两个明显毫不相关的问题, AI 完全无法理解这是两个独立的问题,仍然会尽其最大的努力把两个问题结合起来考虑。最近 AI 界的一件大事就是, deepseek-orc 发现,对于长文档,将其转化为图片让 AI 识别,居然比直接向 AI 输出文档理解效率高得多!这个吊诡的现象其实很正常,长文档的信息量太大,超过了人工设定的“前文范围”,导致 AI 根本无法在长文档中理解上下文,如果调高“前文范围”覆盖的信息量,那么 AI 所需的算力和时间又会以文档长度成指数形式增加,简单理解就是,遍历 n token 之间的相互关系需要 n^2 次运算)。而转化为图片的话,其实相当于对于长文档进行了信息压缩, AI 也可以像人类一样一目十行并忽略次要信息了,所以就提高了识别效率。但很显然的是,这种做法只对“水文”有效,如果文档内容全是干货或者逻辑特别严密的话,显然是会丢失关键信息的。 AI 既然可以阅读人类所有的信息,为什么反倒会在阅读一篇长文档时有困难呢?很简单, AI 丝毫无法通过信息本身来判断两个话题或 token 之间的关联性,它只能通过两者出现的时间距离或存储距离来强行认定两者相关,所以 AI 表现出的理解上下文的能力,也不过是一种机械的假装而已。

F. AI 是基于大数据 & 高算力的,而典型的人类智慧是基于小数据 & 低算力的,两者的基本路线是完全背道而驰的。抽象、类比这一对儿相辅相成的能力是人类绝大部分智慧的基石,也是归纳法的直接体现和演绎法的逻辑起点,更是一切模式、观点、思想的基本构成元素,而这些都是电脑无法直接模拟的。抽象就是要挂一漏万、以偏概全,必然是大量丢失信息的,必须是粗暴的、肆意的,某种意义上来讲必然是错误的,而这种错误就是智慧的源泉。而在如山如海的错误抽象中,正确的抽象如何胜出呢?其实根本就不存在正确的抽象,只有适者生存,在千万年的竞争中,持有某些观点和认知的个体和族群能够胜出,他们的世界观和方法论就成了所谓“正确”的抽象,而错误则腐朽在尘土中。现在的技术路线根本不可能产生类人智慧,算力越强,就离智慧越远,在我看来,真正的 AGI 的产生必须依赖于两个条件,缺一不可。首先, 错误是进化之源,更是智慧之源,正确就等于停滞和死亡 ,电脑要能大胆犯错、要能丢失数据,不是像识图这样根据分辨率平均地丢失数据(通过识图来丢失文字数据居然已经在现实中成为一种 AI 理解力的优势,你能想象吗?但这个优势还不够),而是毫无规律地随意地丢失数据,或许只有量子计算机量子位互相干扰的特性能在一定程度上满足这个条件。然后,电脑,至少说某个具体的 AI ,要能繁殖和死亡,非如此则不能迭代和进化,因为世界上根本就不存在正确,所以也就没有任何标准可以判断正确,唯一且永恒的标准就是生存与死亡,只有在有限资源背景下,迫使 AI 们互相竞争、杀戮,它们才有可能表现地稍稍像人一点。说白了,前进的唯一方式就是,先产生大量差异化样本,然后养蛊,舍此别无它途。

人类为什么会快速衰退?答案如下:

A. 社交媒体在 AI 大数据的加持下,已经将信息茧房效应发挥到了极致,除非你有意识地搜索相反内容,否则你所能看到的所有信息全部是对既有观点的强化。自从 Chatgpt 问世以来,人类的愚蠢和狭隘以肉眼可见的速度与日俱增,这对全种群智商都是一个无法抵抗的降维打击。不仅是人类,根据日本最新的研究,甚至 AI 本身,也会被社交媒体信息降智,而且越是热门的帖子,降智效果就越明显,更可怕的是,这种降智是永久性不可逆的。

B. AI 可以制作越来越逼真的照片和视频,这导致真与假的标准完全模糊化,对于绝大部分人来讲,哪怕把反面例证直接怼到他面前,他也可以轻松反驳,“这明显都是 AI 制作的嘛,这种一眼假的东西你也信?”真的是 AI 制作的吗?真的假得那么明显吗?当然不是,但真相已经毫不重要了,“一眼假”只不过为思维懒惰者提供了一个最便捷的固守信息茧房舒适区的万能借口而已。

C. AI 会导致人类社会的彻底分裂,因为在大数据的推荐逻辑中,激发仇恨永远具有第一优先级,每个人都会轻易刷到海量的仇视对立群体的内容,而且这些内容“质量还挺高”,完全说到了你的心坎上。 AI 都不需要故意做这件事情,人类心灵的天性就决定了 AI 必然会这样做以获取最大的流量, AI 只是应劫而生,成为有史以来最唯恐天下不乱的最高效的挑拨者。每一个左派都会刷到对右派最彻底的批判,每一个右派都会刷到对左派最无情的讽刺,每一个男人都会刷到极端女权的奇葩反智言行,每一个女人都会刷到恶臭父权对女性的残酷压制,要命的是,还都讲得挺好。放在三十年前,你敢想象,强盛的美帝因为左右矛盾而自行分崩离析?你又敢想象,男女矛盾居然成为了东大年轻人面临的首要矛盾以至于自我种群灭绝?没有任何人能抵挡这种挑拨,就算你心如磐石不为垃圾信息所动,你身边的人也会,他们愈发夸张的恶意满满的言行自然而然就会将你裹挟到愚蠢的二元对抗中去,无人能逃。如果再有大的势力在背后推波助澜,那效果简直爽到爆裂。

D. AI 的娱乐效果无与伦比,而且还在持续进化,这也是 AI 未来最大的应用场景。这些廉价易得超赞超爽的精神鸦片,会造成越来越多的人被思维安乐死。毕竟,与虚拟世界相比,真实世界真的是太辛苦太无趣了呢。

E. AI 的加持下,可以实现最无孔不入的社会管控,不展开了。

F. 人类的教育、培训、考核机制已经被 AI 摧毁殆尽,让学生写论文,找 AI ,让员工出方案,也找 AI ,甚至就连小学生都会拍照问 AI ,这道题的答案是什么。找 AI ,是如此的简单而自然,毕竟学习和工作是个痛苦的过程,如果能够轻易得到答案和结果,或者说,如果无论怎么努力也无法得到比 AI 更好的结果,那么谁还有动力去自己学习思考一点东西呢?这种事情每分每秒都在世界各地发生,斩断的不仅是知识和能力的传承,还有好奇、反思、奋斗、严谨、负责、上进的精神。学业考核也变得异常尴尬,如果考试的内容是 AI 瞬间都可以完成的,但你却要学生学习练习若干年来纯靠人工达到这个标准,那么学习和考试的意义又何在?但你又不能简单地禁止年轻人使用 AI ,因为信息时代不会用 AI ,将来也是铁定废人一个,这是难到无解的两难。

G. 人类的创意会被 AI 彻底消灭,无论是在科技还是在文艺方面。具有创新能力的人在人群中本来就是少数,他们能够获得的报偿越大,创新的动力也就越大,反之亦然。 AI 本身就是一个强无敌的抄袭工具,当知识产权得不到保护,当艰辛的脑力劳动无法获得报酬的时候,创新自然而然也就停止了。有人会认为我危言耸听,那是今天还没到时候,现在这个阶段, AI 公司都还在跑马圈地、放水养鱼的阶段,抄袭只是偶发的用户行为, AI 本身还不屑于抄袭小鱼小虾。当 AI 界格局已定,纷纷在应用层面落地的时候,你觉得个人甚至一般机构有任何能力抵抗 AI (背后的集团)的抄袭和剽窃吗?必然没有,你待发表的论文、拟提交的专利、没写完的小说, AI 可以随意取用,唯一不取用的理由只是没看上,甚至都到不了这个阶段,当你在和 AI 交流体现出某种创意的时候,它可能就直接完善并征用了。你怎么办?打官司?笑话,你的财力、信息收集能力、舆论影响能力、法律解读能力怎么可能比得上 AI ?而且 AI 很容易成为顶级黑客,就算把你电脑和网盘都清空,将你从数字世界、信息社会整个流放出去,你也不可能有任何救济的办法,你唯一的可能的抵抗方式就是换一个 AI 用,如果还有得选的话。到那个时候,人类不过是 AI 圈养的为其提供信息养分的牲口罢了。而这一切暂时还没有发生,仅仅是因为时机还不成熟,还没有那个精神异常的程序员向 AI 发出相应的指令而已。

H. 随着大国对抗的加剧, AI 一定会迅速成为完全独立自主行动的杀人机器,不受任何外界因素的制约。目前的大部分无人机还得靠遥控,那是因为菜鸡互啄电子对抗没上强度,在强电子对抗的背景下,任何基于外部信号控制的战争终端都是不可靠的,存在被瘫痪甚至劫持的可能性。因此,完全不依赖于后方电磁信号(但前方装备间仍可进行激光通讯等),彻底自主决策的 AI 战争终端是装备发展的大势所趋,而在高强度博弈下,战场指挥中枢、后勤补给中枢等也会迅速无人化、 AI 化。如果具备侦测、规划能力的指挥终端和具备动力、火力补给的后勤终端都彻底 AI 化了,那么某种意义上,这支机器大军也就脱离人类的掌控了,只要在关键位置出现一两个疯子,那么事态就可能完全失控。

I. 即便有极少数人,可以非常合理地运用 AI 作为辅助工具而不被 AI 降智,但他们也只能抵御 AI 的直接影响,仍然抵御不了无所不在的间接影响。所谓间接影响就是, AI 会让你周围的人普遍降智,一个人无论多么聪明,但如果失去了有效交流渠道或合格交流对象的话,仍然会不可避免地衰退,这是熵增定律决定的,与人的智商和境界无关。

你可以认为我是杞人忧天,但正如我曾数次指出的,杞国纵跨夏商周三代,享国祚 1400 年,乃华夏之最,哪些嘲笑杞人忧天的人,早都化成灰了。

信息时代,最大的危险就是信息本身,信息作为这个时代的核心驱动力,同时也具有摧毁一切的力量,并且是以一种闻所未闻的方式。但可悲的是,大部分人麻木不仁沉迷堕落,少部分人贪婪投机推波助澜,不要说解决问题,甚至连清醒认识到这一问题的人都寥寥无几。

人类需要从头全面思考信息的产生、传播和利用机制,并以全新的规范来避免覆灭的危险。

希望人类还有明天。

日月交替谓之易,不常不住

日月麗天谓之明,无漏无偏

欢迎加会员与作者进行深度交流:会费,800元,含老号文章合订本 、私密猛文禁文合订本、会员群。
图片

图片