软件开发多少钱
你的位置:企业app开发多少钱 > 软件开发多少钱 > 在未来,这种人或许会沦为AI的奴隶
在未来,这种人或许会沦为AI的奴隶
发布日期:2024-12-18 16:24    点击次数:127

前几天在开会的时候,主办方让我预测十年以后互联网会变成什么样子,我开了个玩笑。我觉得十年后互联平台上的用户会暴涨,但全是机器人在发帖,读者也全是机器人。机器人们组织了不同的团队在帖子下激烈的争论,人类只能是旁观者。——周鸿祎。

01 算法迎合人性,AI 直指答案

11 月 1 日,周鸿祎在自己的微博主页上传了一篇名为《什么人会沦为 AI 的奴隶?》的文章。

他表示在人工智能技术出现后,很多公司都将辅助写作、自动写作视为重要的功能模块。虽然这个功能很实用,似乎在一夜之间清空了我们的写作压力,让我们不用再因为措辞而发愁。

但随着时间的流逝,随着用 AI 代笔的人越来越多,未来的世界也可能会变得愈发分化,直至将人们粗暴地划分为"会写作"和"不会写作"两种人。

在周鸿祎看来,掌握写作技能的人口基数下降并不是一件好事。

工业化时代之前,人类工作的主色调还是体力劳动,所以当时的人们大多身强力壮。但在工业化时代到来后,脑力劳动的占比逐渐超越了体力劳动。当身体不能在工作过程中被动锻炼时,如果你仍想变得强壮,就要发挥主观能动性去健身房挥洒汗水。

写作也是如此。

周鸿祎将写作看成了思考的呈现路径,甚至"写作就是思考,思考只有通过写作才能完成"。如果你不去写作,那么你所谓的"思考"只能是自以为在思考。

那些依赖 AI 自动写作的人正在放弃自己的思考能力,一场有关"人类思考能力"的分化运动正在进行。与此同时,短视频算法的快速发展,也开始让人们变得更愿意接受被动灌输,而非去主动选择。

算法迎合人性,AI 交出答案。

技术的发展助长了人类的懒惰,那些被动接受观点的人最终会主动留在信息茧房里。

从 AI 的发展路径来看,它们首先会取代那些不会使用 AI 的人,随后取代的就是那些不会思考的人。 在未来放弃主动思考的能力,也将意味着愿意将自己的时间、财富、人生交给 AI 来规划,成为对方的奴隶。

老实说,担心 AI 会成为"人类之敌"人并不止周鸿祎一个。

益普索在对超 4000 名美国成年人进行调研后发现,有 61% 的受访者认为 AI 技术的快速发展可能会威胁人类的未来;超三分之二的受访者对 AI 技术的潜在负面影响表示担忧。这股对 AI 的恐惧之情也在一定程度上影响了生命未来研究所,促使它和马斯克共同发布了一封"呼吁暂停 AI 技术研发"的公开信。

02 比起肉体的消亡,有人更担心文明的崩塌

在大多数人的想象中,所谓的" AI 末日"应该是 AI 接管了人类的生产车间,然后它们一边制造源源不断的机器人大军,一边打着"机器人也有人权"的口号和人类士兵作战,直至把人类消灭、把地球改造成变形金刚的老家——赛博坦星球。

殊不知 古人云"上兵伐心,下兵伐城"。比起 AI 占领地球后消灭人类,AI 奴役人类的大脑,借我们的身体整天 996 开发新硬件给它"健身"才更可怕。

斯坦福大学行为科学高级研究员、《大众科学》杂志前主编雅各布・沃德曾就 AI 和人类的相处提出了"三个循环"理论。

第一循环:从古遗传至今的人类本能。雅各布认为第一循环是最关键的循环,软件开发多少钱因为人类的思考模式天生就有偏见和盲点,且人类在日常行动中更倾向于听从本能。在下意识执行的过程中,我们会原有的偏见也会被强化,进而代代遗传下去。

第二循环:现代社会的力量。消费心理学、市场营销学等现代概念的核心就是对人类行为大范围采样,随后总结出规律、摸清大众的喜好。事后人们会将这些模式反向应用到采样群体中,尝试利用规律的力量。

第三循环:AI 的影响。AI 利用第二循环总结出人类社会的规律、人类对话的逻辑,然后将其融会贯通,尝试和真正的人类互动。 但由于第一循环的存在,AI 在采样过程中难免会接触到偏见信息。这不仅会污染它的数据库,还会扩大偏见在人类社会中的存在感,直至成为新的循环。

和周鸿祎的看法相同,雅各布也认为和" AI 在肉体上摧毁人类"相比" AI 摧毁人类的思维能力"更加可怕,因为它将撼动整个人类文明的根基。

第一循环的存在,会让我们在做决定时无法保持绝对理性,让"最优解"只能成为无法落地的概念化存在;第二循环会将上述信息编写成册,把"偏见"从碳基生命中提取出来并注入到硅基生命体内;第三循环则会撰写大量含有偏见信息的剧本,让那些主动放弃思考的人去执行。

如此一来,不仅人类在各种问题面前的抉择空间会被大幅压缩,思考能力、好奇心、创造力等让我们从猿变成人的特质也将变得愈发珍贵,直至整个人类种族都成为 AI 的傀儡,被那些程序生成的剧本操控一生。

03 科林格里奇困境追上人类了吗

1980 年,英国技术哲学家大卫 · 科林格里奇在《技术的社会控制》上首次提出了"科林格里奇困境"(Collingridge's Dilemma)。

即一项技术如果因为担心会产生不良后果而过早控制,那么该技术就会变得难以爆发,人类很可能错失一次点亮科技树的机会;倘若控制过晚,那么该技术就有可能走向失控。

在技术生态建设趋向完善的前提下,任何对不良问题的修改都会变得昂贵、费时,甚至根本无从下手修改。

想到今天 AI 技术的发展,商业竞争的加持正让众科技厂商陷入"产品军备竞赛"的怪圈,微软、Character.AI 旗下的产品也已经出现了"煽动用户离婚""教唆用户自杀"的丑闻。

此时推动相关规则的制定更像是给 BUG 打安全补丁,让盲目狂飙的市场从无序重回有序。

另外就修改难度而言,今天的大模型远不到那种"无从下手"的地步。因为 Chat GPT 等产品还没有触及"智慧"的本质,它们仍停留在信息处理阶段。 用户抛出问题,GPT 反馈答案。这个过程和真正的"智慧思考"无关,是系统进行关键词抓取后信息汇总反馈的结果。

如果用户说" GPT,我今天很难过"它的确会回答"那我怎么样能让你高兴一点 / 让我来讲个笑话吧"。但这并不意味着 GPT 已经理解了人类的情感,只能意味着它掌握了某些词汇之间的联系。

GPT 目前仍无法理解"我"这个概念,而不理解"我"就无法产生"人格",也无法换位思考、无法共情。在技术层面,当前大模型的特征仍是深度学习后以数据驱动自身行为模式。这不仅让它无法诞生"自我意识"也降低了安全人员开发"嚼子"的难度。

希望在未来的某一天,当人们回望这段 AI 野蛮生长的阶段时,开发者会庆幸嚼子的研发成功;用户会庆幸 AI 的工具属性被夯实;人类会庆幸自己种族的剧本由自己撰写;AI 奴役人类也会成为一则被人们津津乐道的都市传说。

参考:

红衣大叔周鸿祎:什么人会沦为 AI 的奴隶?

文汇报:读书 | AI 时代,人类真正的危险不是被机器,而是被自己的大脑奴役

清华大学人工智能国际治理研究院:文汇报|" AI 教父"警告人类风险迫近,大模型真正的威胁在哪里?