Author: 古原 | Origin link: wechat link
2020年,欧美爆发了一场针对社交媒体的舆论战争,其引爆点,是
Netflix推出的一部名为《监视资本主义:智能陷阱》的纪录片。
这部片子,找来了一群曾经在谷歌、
Facebook、Twitter等公司担任过核心高管和工程师的
“
吹哨人
”
。
他们用一种
“
内部人
”
的、现身说法的、充满忏悔的口吻,为全世界观众,描绘了一幅极其恐怖的故事。
故事是这样讲的:
第一,这些社交媒体的商业模式,本身就是
“
邪恶
”
的。
我们以为,这些服务是免费的。错了!这部片子引用了一句名言:
“
如果你没有花钱买产品,那么,你就是被卖的产品。
”
我们每一次的点赞、评论、分享、停留,我们所有的线上行为数据,都在被这些平台,贪婪地收集和分析。然后,它们把我们的
“
注意力
”
,打包成产品,卖给真正的客户
——也就是那些广告商。
第二,为了最大限度地
“
开采
”
我们的注意力,它们发明了最强大的
“
思想武器
”
——推荐算法。
这个算法,就像一个
24小时不眠不休的、驻扎在我们大脑里的
“
超级说客
”
。它的唯一目标,就是预测我们下一步想看什么,然后精准地、源源不断地,
“
投喂
”
给我们。
它知道我们的所有弱点:我们喜欢看什么样的刺激内容,我们对什么样的阴谋论感兴趣,我们会被什么样的情绪所感染。
第三,这个
“
算法投喂
”
的最终结果,是灾难性的。
对个人而言
,我们被它
“
绑架
”
了。我们陷入了无休止的、被动的信息流之中,丧失了深度思考和专注的能力。我们的心理健康,特别是青少年的心理健康,因此受到了严重的损害(比如身材焦虑、网络霸凌)。
对整个社会而言
,我们被分割、被撕裂了。因为算法,只会给我们看那些我们本来就相信的东西,它会不断地强化我们的既有偏见。一个左派,会看到越来越多的左派信息;一个右派,会看到越来越多的右派信息。我们每个人,都被困在了一个由算法为我们量身定做的
“
信息茧房
”
和
“
回音室
”
里。
最终,我们丧失了公共对话的能力,社会变得越来越极化,民主制度,也因此而岌岌可危。
你看,这个故事,是多么地具有说服力和震撼力!
它把我们日常生活中,那些隐隐约约的不安
——比如
“
我怎么又刷了两个小时手机
”
——系统化、理论化,并上升到了一个关乎人类文明存亡的高度。
这部纪录片,在全球范围内,都引发了巨大的恐慌和讨论。
“
监视资本主义
”
这个词,成了所有科技巨头的通用标签。
在这股强大的、反
“
算法操控
”
的舆论推动下,全球范围内的立法者,特别是欧洲的立法者,开始行动了。他们决心要用法律,来驯服这头
“
算法巨兽
”
。
最重磅的管制武器,就是
2022年欧盟正式生效的《数字服务法》(Digital Services Act, DSA)。
这部法律,被誉为全球数字监管的
“
黄金标准
”
。它对那些超大型的在线平台(比如
Facebook、YouTube、TikTok),施加了一系列极其严格的、前所未有的
管制义务
。
这个法律要求,平台算法需要透明,必须向监管机构和研究人员,详细解释其
推荐算法的主要参数和工作逻辑
。
平台还必须定期评估其服务,可能对其用户的基本权利(如健康、隐私)和社会公共利益(如政治极化)带来的
系统性风险
,并采取措施加以缓解。
平台必须为用户提供一个
不基于
“
用户画像
”
的、非个性化的内容推荐选项
。也就是说,用户有权
“
关闭
”
那个被认为在操控他的算法。
除了欧盟这个
“
带头大哥
”
,在美国,管制的焦点,则更多地集中在
“
保护儿童
”
上。
在
加州
,通过了《适龄设计规范法》,要求在线服务在设计时,必须优先考虑儿童的最大利益。
在
犹他州
、
阿肯色州
等共和党主导的州,则通过了更激进的法律,要求社交媒体平台,必须对所有未成年人用户,进行严格的
年龄验证
,并获得其
父母的明确同意
。有些州甚至规定,平台在夜间,必须
自动限制
未成年人的使用。
你看,一场针对
“
算法
”
的、全球性的管制大网,正在收紧。
好了,现在,我们要用我们的
X光眼镜,来审视一下,这个关于
“
算法操控
”
的恐怖故事了。
这个故事,最大的问题,在于它
颠倒了因果关系
。
它把
“
算法
”
,描绘成了一个主动的、邪恶的
“
施暴者
”
。
但真相可能恰恰相反:
算法,更多的时候,只是一个被动的、极其高效的
“
镜子
”
和
“
仆人
”
。
它照见的,是我们人性深处的那个
“
地窖
”
;它服务的,是我们自己都未必愿意承认的、那些古老的欲望和偏见。
我们先来破除
“
信息茧房
”
这个迷思。
你真的以为,在没有算法的
“
田园时代
”
,人们就是生活在一个信息开阔、观点多元的美好世界里吗?
恰恰相反。
·
在一个只有报纸的时代,一个左派,他会主动去订阅一份右派的报纸,天天给自己添堵吗?不会的。他会选择看《纽约时报》或《卫报》。
·
在一个只有电视的时代,一个右派,他会天天守着
CNN看吗?不会的。他会选择看福克斯新闻(Fox News)。
·
在日常生活中,我们更愿意和谁交朋友?是那些和我们观点相投、能聊到一块儿去的人,还是那些天天和我们吵架、挑战我们三观的人?
你看,
为自己构建一个
“
认知舒适区
”
,只愿意接触那些能印证自己既有观点的信息,这,是人性的本能。
算法,做了什么?
它只是用一种前所未有地高效的方式,满足了我们这个
“
寻找同类、回避异类
”
的本能而已。
它不是那个把我们关进
“
茧房
”
的狱卒。它只是那个最懂我们心思,不断地为我们添砖加瓦,把我们的
“
茧房
”
建得更舒适、更牢固的仆人。
我们不是被算法
“
困
”
在了茧房里,而是我们自己,主动地、舒服地,躺在了算法为我们编织的茧里。
再来看那个
“
思想操控
”
的指控。
算法,真的有那么大的能力,去
“
植入
”
一种我们原本没有的思想吗?
还是说,它更多的时候,只是在
“
放大
”
我们心中早已存在的、那些微弱的偏见和欲望的火苗?
一个内心充满不安全感和阴谋论倾向的人,算法会给他推送更多的阴谋论。一个对某种极端思想有潜在兴趣的人,算法会把他,一步步地,引向更深的
“
兔子洞
”
。
但算法,很难把一个内心平和、理性的人,变成一个极端分子。
算法,不是那个
“
播种者
”
。它只是一个极其高效的
“
施肥者
”
和
“
催化剂
”
。
而那个真正需要我们警惕的,不是
“
算法
”
这个工具,而是我们人性中,那个永远存在的、阴暗的
“
地窖
”
。
现在,我们再来看看,那些旨在
“
驯服
”
算法的管制,会带来什么样的意外后果。
以欧盟的《数字服务法》(
DSA)为例。
它要求平台,必须对其算法的
“
系统性风险
”
,进行评估和缓解。
这个规定,听起来,是不是特别好?
但你仔细想一想,什么叫
“
风险
”
?谁来定义
“
风险
”
?
·
一个关于
“
疫苗副作用
”
的讨论,算不算
“
健康风险
”
?
·
一个批评欧盟移民政策的视频,算不算对
“
公共安全
”
的风险?
·
一个质疑气候变化主流叙事的帖子,算不算
“
虚假信息
”
风险?
当平台,面临着来自政府监管的巨大压力和天价罚款的威胁时,它最理性的选择,是什么?
是
“
宁可错杀一千,绝不放过一个
”
。
为了规避法律风险,它会变得
极其保守
。它会用更严厉的、一刀切的方式,去
审查和删除
所有那些可能引起争议的、处于灰色地带的内容。
一个旨在
“
提升算法透明度
”
和
“
保护用户权利
”
的管制,最终,很可能会演变成一场由科技巨头执行的、大规模的、事实上的管制
。
它非但没有让我们更自由,反而可能让我们,进入一个更单一、更乏味、更
“
政治正确
”
的信息环境之中。
再来看那些针对儿童的保护法案。
要求平台对所有未成年人,进行严格的
“
年龄验证
”
。这听起来,是在保护孩子。
但它意味着什么?
意味着,未来你可能需要上传你的
身份证、护照,甚至进行人脸识别
,才能使用一个社交软件。
一个旨在
“
保护
”
儿童隐私和心理健康的管制,其代价,是所有成年人,都必须向科技公司,让渡自己最核心的、最敏感的身份隐私。
这,难道不是一个更可怕的
“
监视资本主义
”
吗?
一个清晰的链条,再次出现:
将
“信息茧房”、“社会极化”等复杂问题,简单归因于“算法操控”的错误观念 → 催生出“政府必须管制算法,保护用户”的负面舆论 → 推动了以欧盟DSA为代表的、对平台进行深度干预的管制 → 这种管制,最终可能以“言论审查”和“隐私丧失”为代价,带来一个更不自由的数字世界。
当我们因为恐惧一种新技术的力量,而急于呼唤一个 “ 更强大的力量 ” 去管制它时,我们很可能,只是在 “ 引狼入室 ” 。
我更奇怪的是,怎么欧美搞什么管制,中国也要跟进呢?