算法陷阱、信息茧房?欧美大厂,是怎么被舆论批斗的?

Author: 古原 | Origin link: wechat link

2020年,欧美爆发了一场针对社交媒体的舆论战争,其引爆点,是 Netflix推出的一部名为《监视资本主义:智能陷阱》的纪录片。

这部片子,找来了一群曾经在谷歌、 Facebook、Twitter等公司担任过核心高管和工程师的 吹哨人

他们用一种 内部人 的、现身说法的、充满忏悔的口吻,为全世界观众,描绘了一幅极其恐怖的故事。

故事是这样讲的:

第一,这些社交媒体的商业模式,本身就是 邪恶 的。

我们以为,这些服务是免费的。错了!这部片子引用了一句名言: 如果你没有花钱买产品,那么,你就是被卖的产品。

我们每一次的点赞、评论、分享、停留,我们所有的线上行为数据,都在被这些平台,贪婪地收集和分析。然后,它们把我们的 注意力 ,打包成产品,卖给真正的客户 ——也就是那些广告商。

第二,为了最大限度地 开采 我们的注意力,它们发明了最强大的 思想武器 ——推荐算法。

这个算法,就像一个 24小时不眠不休的、驻扎在我们大脑里的 超级说客 。它的唯一目标,就是预测我们下一步想看什么,然后精准地、源源不断地, 投喂 给我们。

它知道我们的所有弱点:我们喜欢看什么样的刺激内容,我们对什么样的阴谋论感兴趣,我们会被什么样的情绪所感染。

第三,这个 算法投喂 的最终结果,是灾难性的。

对个人而言 ,我们被它 绑架 了。我们陷入了无休止的、被动的信息流之中,丧失了深度思考和专注的能力。我们的心理健康,特别是青少年的心理健康,因此受到了严重的损害(比如身材焦虑、网络霸凌)。

对整个社会而言 ,我们被分割、被撕裂了。因为算法,只会给我们看那些我们本来就相信的东西,它会不断地强化我们的既有偏见。一个左派,会看到越来越多的左派信息;一个右派,会看到越来越多的右派信息。我们每个人,都被困在了一个由算法为我们量身定做的 信息茧房 回音室 里。

最终,我们丧失了公共对话的能力,社会变得越来越极化,民主制度,也因此而岌岌可危。

你看,这个故事,是多么地具有说服力和震撼力!

它把我们日常生活中,那些隐隐约约的不安 ——比如 我怎么又刷了两个小时手机 ——系统化、理论化,并上升到了一个关乎人类文明存亡的高度。

这部纪录片,在全球范围内,都引发了巨大的恐慌和讨论。 监视资本主义 这个词,成了所有科技巨头的通用标签。

在这股强大的、反 算法操控 的舆论推动下,全球范围内的立法者,特别是欧洲的立法者,开始行动了。他们决心要用法律,来驯服这头 算法巨兽

最重磅的管制武器,就是 2022年欧盟正式生效的《数字服务法》(Digital Services Act, DSA)。

这部法律,被誉为全球数字监管的 黄金标准 。它对那些超大型的在线平台(比如 Facebook、YouTube、TikTok),施加了一系列极其严格的、前所未有的 管制义务

这个法律要求,平台算法需要透明,必须向监管机构和研究人员,详细解释其 推荐算法的主要参数和工作逻辑

平台还必须定期评估其服务,可能对其用户的基本权利(如健康、隐私)和社会公共利益(如政治极化)带来的 系统性风险 ,并采取措施加以缓解。

平台必须为用户提供一个 不基于 用户画像 的、非个性化的内容推荐选项 。也就是说,用户有权 关闭 那个被认为在操控他的算法。

除了欧盟这个 带头大哥 ,在美国,管制的焦点,则更多地集中在 保护儿童 上。

加州 ,通过了《适龄设计规范法》,要求在线服务在设计时,必须优先考虑儿童的最大利益。

犹他州 阿肯色州 等共和党主导的州,则通过了更激进的法律,要求社交媒体平台,必须对所有未成年人用户,进行严格的 年龄验证 ,并获得其 父母的明确同意 。有些州甚至规定,平台在夜间,必须 自动限制 未成年人的使用。

你看,一场针对 算法 的、全球性的管制大网,正在收紧。

好了,现在,我们要用我们的 X光眼镜,来审视一下,这个关于 算法操控 的恐怖故事了。

这个故事,最大的问题,在于它 颠倒了因果关系

它把 算法 ,描绘成了一个主动的、邪恶的 施暴者

但真相可能恰恰相反: 算法,更多的时候,只是一个被动的、极其高效的 镜子 仆人

它照见的,是我们人性深处的那个 地窖 ;它服务的,是我们自己都未必愿意承认的、那些古老的欲望和偏见。

我们先来破除 信息茧房 这个迷思。

你真的以为,在没有算法的 田园时代 ,人们就是生活在一个信息开阔、观点多元的美好世界里吗?

恰恰相反。

· 在一个只有报纸的时代,一个左派,他会主动去订阅一份右派的报纸,天天给自己添堵吗?不会的。他会选择看《纽约时报》或《卫报》。

· 在一个只有电视的时代,一个右派,他会天天守着 CNN看吗?不会的。他会选择看福克斯新闻(Fox News)。

· 在日常生活中,我们更愿意和谁交朋友?是那些和我们观点相投、能聊到一块儿去的人,还是那些天天和我们吵架、挑战我们三观的人?

你看, 为自己构建一个 认知舒适区 ,只愿意接触那些能印证自己既有观点的信息,这,是人性的本能。

算法,做了什么?

它只是用一种前所未有地高效的方式,满足了我们这个 寻找同类、回避异类 的本能而已。

它不是那个把我们关进 茧房 的狱卒。它只是那个最懂我们心思,不断地为我们添砖加瓦,把我们的 茧房 建得更舒适、更牢固的仆人。

我们不是被算法 在了茧房里,而是我们自己,主动地、舒服地,躺在了算法为我们编织的茧里。

再来看那个 思想操控 的指控。

算法,真的有那么大的能力,去 植入 一种我们原本没有的思想吗?

还是说,它更多的时候,只是在 放大 我们心中早已存在的、那些微弱的偏见和欲望的火苗?

一个内心充满不安全感和阴谋论倾向的人,算法会给他推送更多的阴谋论。一个对某种极端思想有潜在兴趣的人,算法会把他,一步步地,引向更深的 兔子洞

但算法,很难把一个内心平和、理性的人,变成一个极端分子。

算法,不是那个 播种者 。它只是一个极其高效的 施肥者 催化剂

而那个真正需要我们警惕的,不是 算法 这个工具,而是我们人性中,那个永远存在的、阴暗的 地窖

现在,我们再来看看,那些旨在 驯服 算法的管制,会带来什么样的意外后果。

以欧盟的《数字服务法》( DSA)为例。

它要求平台,必须对其算法的 系统性风险 ,进行评估和缓解。

这个规定,听起来,是不是特别好?

但你仔细想一想,什么叫 风险 ?谁来定义 风险

· 一个关于 疫苗副作用 的讨论,算不算 健康风险

· 一个批评欧盟移民政策的视频,算不算对 公共安全 的风险?

· 一个质疑气候变化主流叙事的帖子,算不算 虚假信息 风险?

当平台,面临着来自政府监管的巨大压力和天价罚款的威胁时,它最理性的选择,是什么?

宁可错杀一千,绝不放过一个

为了规避法律风险,它会变得 极其保守 。它会用更严厉的、一刀切的方式,去 审查和删除 所有那些可能引起争议的、处于灰色地带的内容。

一个旨在 提升算法透明度 保护用户权利 的管制,最终,很可能会演变成一场由科技巨头执行的、大规模的、事实上的管制

它非但没有让我们更自由,反而可能让我们,进入一个更单一、更乏味、更 政治正确 的信息环境之中。

再来看那些针对儿童的保护法案。

要求平台对所有未成年人,进行严格的 年龄验证 。这听起来,是在保护孩子。

但它意味着什么?

意味着,未来你可能需要上传你的 身份证、护照,甚至进行人脸识别 ,才能使用一个社交软件。

一个旨在 保护 儿童隐私和心理健康的管制,其代价,是所有成年人,都必须向科技公司,让渡自己最核心的、最敏感的身份隐私。

这,难道不是一个更可怕的 监视资本主义 吗?

一个清晰的链条,再次出现:

“信息茧房”、“社会极化”等复杂问题,简单归因于“算法操控”的错误观念 → 催生出“政府必须管制算法,保护用户”的负面舆论 → 推动了以欧盟DSA为代表的、对平台进行深度干预的管制 → 这种管制,最终可能以“言论审查”和“隐私丧失”为代价,带来一个更不自由的数字世界。

当我们因为恐惧一种新技术的力量,而急于呼唤一个 更强大的力量 去管制它时,我们很可能,只是在 引狼入室

我更奇怪的是,怎么欧美搞什么管制,中国也要跟进呢?