8 亿用户的 TikTok,过滤掉“丑穷残”的完美世界
推荐和过滤的算法决定了用户看到什么,不被言说的“规则”塑造出一种新的,对世界的理解。

近日,调查新闻网站 The Intercept 援引一份内部备忘录报道,短视频应用 TikTok (海外版抖音)明确指示其内容审核团队,屏蔽那些被认为「太丑、太穷或残疾」的用户上传的内容。

一份文件指示,审核员应检查上传的视频中是否存在「裂了缝的墙」或「破破烂烂的室内装修」,并通过人为地减少这些内容的曝光度,来打击比较贫穷的平台用户。

The Intercept 指出,备忘录似乎是中文起草,后被翻译成英文供全球办事处使用的,因为有些部分的翻译略显拙劣。消息人士称,这些政策至少在 2019 年底之前一直在使用。

作为回应,TikTok 母公司「字节跳动」承认这些政策的存在,但表示它们从未在美国市场实施过,目前也已经不再使用。更早先受到一家德国媒体的质疑时,「字节跳动」曾给出更详细的解释,称屏蔽政策是为了防止这些弱势用户被霸凌。

但对于最新获取的这份文件,这种解释显然不再适用,因为其中直白地将屏蔽这些内容的理由描述为 「不够吸引人 」

算法的黑匣子

备忘录中描述的,对于内容的定向过滤最终会反映在「For You」中,也就是大部分社交软件都会有的「为你推荐」这一栏。在这里,系统通过一套算法来挑选全平台的内容,为个人「定制」信息流。很大程度上决定了观众能看到的内容,以及作为内容生产者,作品是否会被看见,能否获得大量关注。

算法都有自己的偏好。皮尤研究中心曾做过一个巧妙的实验,试图找出 Youtube 上被系统推荐最多的视频是哪一支。

在他们追踪的 696468 次推荐中,一支名为 「Bath Song | + More Nursery Rhymes & Kids Songs-Cocomelon (ABCkidTV)」 的儿童音乐视频脱颖而出,以超过 650 次推荐远超第二名—— Marron 5 乐队的 「Girls Like You」 。

洗澡歌视频截图

被推荐的影响力是巨大的。在一个案例中,一支被反复推荐的儿童视频在一个月的时间内,点击量从 34000 直线上升到 3000 万。

但这套算法究竟遵循什么逻辑,就像是各厂的独家秘方,往往秘而不宣。可知的是,它们有一个一致的原则,即「用户留存」高于一切。

这让一些具有排他性和歧视性的筛选标准,都变得似乎可以接受。

比如,在 TikTok 的指示中,几乎所有审查门槛的设置理由都是因为「不够吸引人 」 。在这个大的框架下,一些身体特征或是环境被认为属于其中,比如啤酒肚、侏儒身材、皱纹很多的老年人、有明显的面部疤痕、破败的房屋、农村(自然风光类可以豁免)、建筑工地等。

「如果拍摄环境不好,对于用户的吸引力就会大大下降。」备忘录文件中如是说。那么,用户愿意留下来或再次打开的几率也会变小。

大多数企业都会将用户的增长和保持作为首要任务,这并不新鲜,但这些举措显示出一种更为激进的,扩张的野心。

而随着算法的进步,人工智能技术的介入,本身就不透明的推荐机制,变得几乎无法预测和追踪。当用户上传的作品被限流或是直接屏蔽的时候,他们也往往无法判断究竟是出于什么原因。

滤镜后的世界

如果说作为公司,通过这种手段来进行扩张有其道理;作为用户,人们可能更需要保持警惕。

社交软件已经成为观看外界的方式——据 eMarketer 的报道, TikTok 目前在全球拥有约 8 亿活跃用户。推荐和过滤的算法决定了用户看到什么,不被言说的“规则”塑造出一种新的,对世界的理解。

TikTok 让很多行为流行一时,比如“踢瓶盖挑战”

表面上,聪明的系统可以通过用户的浏览兴趣、停留时间、搜索历史等「猜到」每个人想看的内容并精准投放。但近年来的一系列媒体调查和内部曝光都显示了用户在其中的被动。

某种意义上,社交媒体就像一个大超市,就算人们知道自己来是想买什么,也一定会被其他东西吸引走目光,让你在等待结账时忍不住再拿一盒口香糖。看起来,购物者似乎掌握着绝对的选择权,但各种潜在的规则都在试图产生影响。

公共政策倡导组织 MoveOn.org 的创始人伊莱 · 帕里瑟在一本书中,将这种现象命名为「过滤泡沫」,即管理着网络世界的数字平台如何控制和塑造我们看到和关注的东西

尽管帕里瑟在 2011 年就提出了这个概念,它的真正起飞却是 2017 年,当「美国大选是否被操控」的争论让人们开始意识到,社交网络如何在自己的周围竖起了一座信息的围墙。

现在,我们全都包裹在各自的泡沫中,这些泡沫使我们与共同现实的任何面相完全分开。

——《福布斯》杂志

正如绝大多数互联网讨论,对于「过滤泡沫」的关注在火热了一阵之后又渐渐沉寂,但互联网公司的算法却在不断更新换代, TikTok 就是最新版本的怪兽。

就在 The Intercept 报道的几周之前, TikTok 还曾因为新用户推荐的算法而陷入另一场争议。 加州大学伯克利分校信息学院的人工智能研究员马克·法杜尔发现,TikTok 向他推荐的账户,个人资料图片与他已经关注账户的种族、年龄或面部特征都相匹配。

比如,如果他关注了一名头像显示为金发白人女性的用户,接下来平台就会给他继续推荐头像类似的用户。

马克·法杜尔根据软件对自己进行的推荐,做了一个图表

在对此事的回应中, TikTok 否认他们抓取个人头像作为算法的一部分,但表示,系统使用了一种协同过滤的推荐功能,即推荐你关注的人所关注的人,并以此来解释法杜尔所获得的结果。

法杜尔认为,这种做法的问题在于, TikTok 的算法让你认为自己获得了个性化的体验,但实际上它只是在建立一个过滤泡沫,一个回音室,在那里你只能看到同类的人,而对其他人几乎没有感知。在这个反馈的循环中,个人的偏见不断累积。

通过学习来自全世界的数据,存在偏见的喜好被快速放大,最终导致人群的割裂。

算法的偏见往往是狭隘的——比如淘宝会在你买了一个猫砂盆之后,继续推送形态各异的猫砂盆。还有的时候,它甚至会带来危险。 2017 年, 14 岁的莫莉·拉塞尔自杀前在 Instagram 上浏览了与自残或自杀相关的图片,后来她的家人发现,类似图片在她的 Instagram 和 Pinterest 账号推荐中又持续出现。

去年 Instagram 宣布加大对此类内容的审查和删除力度,回应这个事件。

新的怪兽

如果说三年前,人们还在讨论网络言论影响个人观点,那么在社交媒体高度可视化的当下,这种影响就是更加视觉的,也更难以为人所辨析。

而且比起被放到放大镜下不断责问的 Google 和 Facebook 等「老牌」企业,对于迅速崛起的新兴社交产品所产生的影响,人们似乎还没有那么在意。

固然,社交媒体的出现带来了许多正面的影响。比如,加拿大不列颠哥伦比亚大学研究人员就发现,对于许多厌食症患者,网络社区提供了很好的避难所,让他们可以互相支持,安全表达,获得现实生活中难以获得的疗愈。不同的平台也为各有局限的人提供了更广阔和丰富的看到世界的方式。

但在激进的扩张战略,对于更高用户留存的追求面前,「提供一个更优质,更包容的表达平台」这样的目标似乎显得不再那么重要。

《纽约时报》曾在一篇试图解释「 TikTok 究竟是什么?」的文章中,提出一个有趣的观察:主题标签 # 在 TikTok 上的作用出奇地大。

在 Twitter 或者中国网民更为熟知的微博上,标签 # 或是热搜话题 # 通常在一定程度上是关于当下发生的事情,# 让人们聚集在一起,就同一个话题发表意见产生讨论。但在 TikTok 上,# 是作为一个极为功能性的组织原则存在的,「 不针对新闻,甚至不针对 TikTok 之外的任何流行趋势,而是充斥着各种挑战、笑话、极为重复雷同的形式、动作和音乐……」

它不是现实生活的反映,甚至和你的人际圈毫无关系,它是自成一体的独立世界,有自生的内容生产机制。它观察人们的行动,千万次的点击,手指在屏幕上滑动的速度,海量的来自全世界的可分析的数据,取代用户自身,决定了什么是「优质内容」

人们在打开之前并不用思考「今天我想看点什么?」这种难题,机器已经帮忙做好了选择。

从这个层面来讲, TikTok 和人们曾经熟悉的社交媒体都不太一样。但在其巨大的成功面前,更多的公司正在学习和使用同样的逻辑。

那么,作为无法放下手机的,脆弱又被动的社交媒体用户,该如何面对这种情境呢?伊莱 · 帕里瑟曾在接受 Brainpickings 采访时给出他的解答:

《美国生活》节目有一期的内容很有趣 。他们采访了一名设计师,他要给一家公司设计一个新的捕鼠器。但他发现,事实上,并不需要更好的捕鼠器,因为普通捕鼠器的效果就非常好,90% 的情况下都奏效。

原因很简单:老鼠总是沿着相同的路线跑,通常一天跑好几次。 沿着这条路线放一个陷阱,老鼠就很容易落入陷阱。

所以,这个故事的寓意是: 不要做一只老鼠。 改变你的上网习惯,而不是每天回到同一个网站。 不仅仅是因为人应当看到不同的观点和想法,你也可能通过这种方式获得意外之喜。

阅读数 1.1万