无尘阁日记

无尘阁日记

算法是怎样一步步毁掉年轻人的
2025-10-20

深夜两点,一个十八岁的男孩还坐在屏幕前。蓝光映在他脸上,眼神空洞,手指下意识地滑着手机。他本来只是想看几条搞笑视频放松一下,可不知不觉,四个小时过去,屏幕告诉他:“你今天的观看时间已达240分钟。”他轻笑一声,划掉提醒,又点开下一个视频。房间静得能听见呼吸,窗外的城市灯火稀疏。他的母亲在隔壁睡着了,却没意识到,屏幕那头,有另一个世界正悄悄吞噬她的孩子。

那是算法制造的世界。一个没有日出日落的世界,一个永远让人“再看一个”的世界。

你有没有发现,这几年,我们的专注力越来越短,记忆越来越浅,连情绪都被推送安排得妥妥当当?你想笑,它给你笑料;你想骂,它递上热点;你想放空,它也有无穷无尽的“放空合集”。我们以为自己在选择,其实只是被选择。

硅谷出身的特里斯坦·哈里斯在离开谷歌的那一年说过一句话:“我曾是制造人类上瘾机器的一员。”那是2016年。彼时,谷歌、Facebook、YouTube的工程师们正用最聪明的大脑,研究怎么让人多停留五秒。五秒,对广告商来说,就是金钱。对普通人来说,是一场被偷走的时间。

哈里斯在谷歌当“道德设计师”的那几年,做过无数次内部呼吁。他希望产品能少一点诱导、少一点刺激。他发邮件、做报告、开会辩论,但没人理会。公司里流传一句话:“不作恶,不代表不盈利。”那是他们的信条。可几年后,他发现,这句话早已被利润改写。

后来他离开,和几位从Facebook、苹果、推特出来的同伴一起,成立了“人道科技中心”。他们自称“叛逃的工程师”,要对抗那些让人上瘾的设计。可这场反抗,就像拿一根火柴去对抗整个夜色。

2018年,Netflix拍了一部纪录片《监视资本主义:智能陷阱》。片子里,前Pinterest总经理、Facebook盈利总监、谷歌工程师轮番出镜。他们坦白地说:“我们做了一个会让世界分裂的系统。”一个让愤怒变成流量、让焦虑变成利润的系统。

算法不是冷冰冰的代码,而是被金钱驯化的欲望。

哈佛商学院的教授舒莎娜·朱博夫在书中写过:“如果你没有花钱买产品,那你就是被卖的产品。”

想想你的一天。起床刷短视频,午饭刷新闻,睡前再看几条八卦。你以为一切都是免费的,可每一次点击、每一次停留、每一次点赞,都是你在为广告商付出时间。你的注意力被切割、被贩卖、被计算。

机器在背后记录一切。它知道你停在哪张图上三秒,也知道你看到哪段话时眉头微微一皱。它用这些细微的数据,拼出你的画像:年龄、性格、情绪、喜好、恐惧、欲望。它比你更了解你自己。

有个朋友曾做过实验,她在搜索栏里随口输入“失眠”,结果整整一周,推送的都是“如何改善睡眠”“熬夜危害”“焦虑测试”。她半开玩笑地说:“我只是查了一次,系统就认定我活得不行。”那一刻她笑了,但也有点怕。

我们总以为算法是中立的。可在商业逻辑面前,它只忠于利润。它推送的不是事实,而是点击率;不是真相,而是能让你停下来的东西。

2017年,斯坦福大学开设了一门课,叫《劝服性技术》。讲的是如何用界面设计、反馈机制让用户上瘾。那年,很多后来进Facebook、抖音、B站的工程师都上过。课程里有个公式:多巴胺+不确定性=黏性。它让人想再点一次,再滑一页,再看一眼。

我有个学心理的朋友告诉我,算法和赌博原理相同。赌场靠“随机奖励”吸引人——你永远不知道下一个筹码能否赢。短视频平台的“下一条”就是那根签。也许是惊喜,也许是废话,但你永远想知道下一个是什么。

算法最聪明的地方,不在于推荐,而在于控制。它不直接告诉你要信什么,而是让你以为那些结论是你自己想出来的。

2019年,美国社交平台上传出一种说法——“地球是平的”。起初只是个笑话,但短短一年,这个论调被推荐了上亿次。因为算法发现,越离谱的内容,越能激发讨论。到2020年,美国竟真的有人花钱造火箭,想亲自证明地球是平的。结果那枚火箭升空后坠落,制造者当场身亡。

他并不愚蠢,只是被算法困在了自己的回音室里。

纽约大学心理学家乔纳森·海特研究发现,自2012年起,美国少女因自残住院率上升了189%。那一年,Instagram刚推出“推荐算法”。青少年在无数“完美身材”“精致人生”的图像中被比较、被评判、被击碎。她们失去的,不只是时间,还有自我。

算法让人看见更多,却也让人更孤独。

中国的情况也一样。中年人被“保健骗局”困住,青年人被“短视频鸡汤”洗脑,老年人被“阴谋论”激怒。朋友圈、头条号、短视频平台——每个年龄段,都有自己被困的算法牢笼。

而那背后,是一场全球规模的实验。没有实验报告,没有伦理审查,没有退出按钮。

你每天的浏览、点赞、评论,都是被实验的样本。

算法不会杀人,它只是轻轻推你一把,让你自己走向极端。它让你愤怒、焦虑、自卑、麻木,然后悄悄告诉你:“这就是世界的样子。”

可真相是——不是世界变坏了,是你的世界被缩小了。

我见过太多年轻人,被算法“养”成了情绪型人格。醒来先看热搜,晚上看负能量视频入睡。被喂大的焦虑,让他们以为自己的不安是普遍的,以为人生应该永远追赶。

有个女孩对我说,她每天早上不看手机就会焦虑。那天我让她试个小实验——早晨起床后,不看手机三十分钟,做三件事:喝水、伸展、打开窗户。她坚持了五天,第六天发来消息说:“我发现自己不是没时间,只是被推送偷走了时间。”

这是第一个可执行的小动作:在被算法叫醒前,先自己醒一次。

算法是精密的,它能算出你在视频上停几秒,却算不出你在现实中错过了谁。

我也曾陷进去。每天告诉自己刷几分钟新闻,结果三小时过去。某天夜里,我忽然意识到自己在看别人生活的同时,忘了过自己的生活。那晚我做了个决定:卸载所有非必要App,只保留通讯软件。第一天,我焦虑得发抖,手指总想去点那个空白的地方。第三天开始,我重新能安静看完一本书。那种清醒的快乐,比任何推送都真。

这就是第二个小动作:每月做一次“信息断舍离”。删掉让你上瘾却无益的App,只留下能创造价值的。

不是反互联网,而是反被控制。

算法并非罪恶,它本可以帮助人类学习、创作、连接。但如今,它像被贪婪的手驯化的猛兽,吞噬的不只是时间,还有判断力。

2017年缅甸的罗兴亚族危机,就是被算法催化的悲剧。Facebook的推荐系统不断推送极端民族言论,让仇恨病毒一样传播。短短数月,七十万人流离失所。那不是政治的胜利,而是技术的失控。

贾雷德·戴蒙德在《崩溃》里提到,复活节岛上的最后一棵树,是被人亲手砍倒的。他问:“那个人挥下斧头时,在想什么?”

也许我们也该问自己:当我们每天让算法决定喜怒哀乐时,我们在想什么?

有人说算法是“新上帝”。可我更愿意相信,人依然有选择的能力。选择不被诱导,选择重新掌握注意力,选择让技术为人服务,而不是反过来。

算法的可怕之处,从来不是它有多强,而是我们有多弱。

在这个被喂养的世界里,真正的自由,是能控制自己去哪里看,不是被推送牵着走。

你不必和算法宣战,但要学会与它共存。主动输入,而非被动接收。主动学习,而非被动娱乐。主动思考,而非被动情绪。

有一天,或许我们都能做到:不再等手机告诉我们该看什么,而是由心决定想看什么。

那才是人类重新夺回主导权的那一刻。

合十。如夜话,至此。