监视资本主义:智能陷阱

记录片美国2020

主演:杰伦·拉尼尔,罗杰·麦克纳米,斯凯勒·吉桑多,卡拉·海沃德,文森特·卡塞瑟,马蒂·林赛,Ena Henderson,Chase Penny

导演:杰夫·奥洛威斯基

 剧照

监视资本主义:智能陷阱 剧照 NO.1监视资本主义:智能陷阱 剧照 NO.2监视资本主义:智能陷阱 剧照 NO.3监视资本主义:智能陷阱 剧照 NO.4监视资本主义:智能陷阱 剧照 NO.5监视资本主义:智能陷阱 剧照 NO.6监视资本主义:智能陷阱 剧照 NO.13监视资本主义:智能陷阱 剧照 NO.14监视资本主义:智能陷阱 剧照 NO.15监视资本主义:智能陷阱 剧照 NO.16监视资本主义:智能陷阱 剧照 NO.17监视资本主义:智能陷阱 剧照 NO.18监视资本主义:智能陷阱 剧照 NO.19监视资本主义:智能陷阱 剧照 NO.20
更新时间:2024-03-03 00:25

详细剧情

  我们发推文、点赞、分享 — 但日益依赖社交媒体会带来什么后果?随着数字平台日益成为人们保持联系的重要方式,硅谷内部人士通过暴露屏幕另一侧的隐藏内容,揭示了社交媒体如何重新改写文明。

 长篇影评

 1 ) 拿起手机,二十分钟没了;刷了几天手机,成傻逼了

《the social dilemma》(中译《社交陷阱》)里引用了一段儿新闻报道说,崔斯坦被认为硅谷里勉强有点儿良心的人。这部纪录片以他的一个项目为主线,讲了最近十年勃兴的社交软件对人类个体和整个人类文明的侵蚀。这些社交媒体公司(FB,twitter,wa,insta等,是不是应该感谢上帝,大部分在中国打不开^_^)只有一个目的就是盈利,赚最多的钱。在自由市场下,公平竞争的环境里,发展的硬道理是必须赚更多的钱。在这唯一指挥棒下,硅谷这几家大公司无所不用其极的利用人类的心理弱点,从个人身上攫取最大量的注意力和时间,打包卖给广告投放商以盈利,同时,连自己也没料到,无形中把人类社会推向非黑即白的两极。前半部分注重分析算法(人工智能+大数据)和经营策略对一个个体的影响。后半部分讲了对整体人类文明的影响:民主制度,人和人之间的关系,人和人之间的交流。

首先是人类个体部分。

其中一个硅谷投资人说,上一个世代,硅谷主要产生硬件和工具软件,例如苹果电脑,photoshop等等。她们是靠卖工具给你而盈利的,这个世代,主要收入靠广告投放,有产品吗?有,这个产品就是用户,每个人--你的时间,注意力,你任何的私隐--都被打包卖给了广告商。工具的特征是,工具会耐心的呆着,等你去用它,用完就关了,你用完Photoshop后不会再去把每个ps的菜单都看一遍过瘾的。现在的互联网产品(社交app)的特征是,不停的引诱你去用它,不停的抢占你的注意力,你的时间---简言之,让你上瘾,和烟酒毒品等其它上瘾品一样。结果也一样--短暂的快乐过后,你会感到疲惫空虚沮丧。

这里引述了几个前大厂主要技术和商业推广负责人,深度剖析这些产品的设计初衷,正如崔斯坦所言:一个邮件App的设计有二三十个人参与,大家对于字体,颜色等争论不休,从来没人想过它作为产品的伦理性--即会不会令人上瘾。twitter和FB的产品经理则直言他们背后的设计逻辑的理论基础就是心理学上的成瘾理论--让人上瘾,不停刷下去。trend(相当于微博里的热榜),话题推荐,都是为你量身定做的,目的都是为了把你留住,不停的刷下去。

这里有个值得争论的点,这些大厂可以为自己辩护:自控能力不行不是我的锅啊,和吸烟一样,你愿意吸烟吸死不是我卖烟的初衷啊。FB的产品经理说当初我们发明点赞按钮主要是想传播正能量,但有人因为获得的赞没有别人多得了抑郁症我们真的是没想到啊。其实这个争议正是崔斯坦和本纪录片想要推动的方向:立法。各国都有关于禁烟不同的条例,吸烟年龄,场合等立法积极干预。还有加税这种消极性的控制。社交网络也急需相应的立法。我记得是FB的一个人说,我觉得已经赚了这么多钱了,还干这样的事儿实在是不应该就辞职了--他可以辞职,但公司还必须往前开,别人会填补他位置继续干这种见不得人的事儿。

个人经验里,我记得刚有互联网时,web1.0时代,已经感受到互联网对时间和注意力的影响了。这种场景大家都不陌生,打开浏览器本来是为了查一个问题,最后半个小时过去了,你已经忘了当初为啥要打开浏览器。所以多年来我一直保持着一个习惯:去任何网站都是直接输入网址。google提供的界面也足够简洁,就是想你专心搜索你想要的东西,不要被任何事干扰。打开百度看看,首页已经一堆干扰了。

(以前google连这个也不会放,现在也蠢蠢欲动了)

百度的入口全是干扰,就是不想让你安静的搜你想要的东西

和现在相比,web1.0时代还没有人工智能,还是人类主导的互联网,网页体现的还是编辑意志,没法精确的猜你的好恶,更没法潜移默化的设置议程改变你的想法塑造你。你最后在网上流连忘返的最坏结果不过是杂乱无章的看了一些资讯而已,最多是浪费了点儿时间,没有其它伤害了。

而现在这个算法主导的世界里,你会发现你不仅浪费了时间,把自己的时间和注意力卖给了广告商。还潜移默化的被人工智能变成了个傻逼--这变化非常令人震惊,但的确是事实。把人变成傻逼其实并不难--该片举了”地平说“的例子,pizza门的例子。其实各种阴谋论都有人信的只要你能系统性的长期的接触同一类资讯最后都能自圆其说的被洗脑洗成个傻逼,完全不用逼迫,不用任何权力和金钱控制,就能做到。

后半部分主要说了对社会的影响--社会是由个体组成的,影响了个体必然会影响社会,这部分的展开有点弱,但结论是没问题的。AI导致了新闻农场,假消息的传播速度更快了。阴谋论盛行,人类的表达越来越诉诸情绪,走向非黑即白的极端,商业行为利用这些特点来卖货,政客利用这一点来拉票,这是一个比赛谁更极端的世界,稍微中性一点儿,温和一点儿的理性的声音已经被毁灭的差不多了。关于阴谋论片中举了个“pizza 门”事件,非常经典的阴谋论:指向政府高层(因此绝对保密,你不可能从正常媒体渠道看到),内部员工透露的资料(我是pizza店的XX, 这事儿是真的,我亲眼所见,但不敢说,说了会丢工作等等)。这种阴谋论传播的结果就是把水搅浑,大大削弱正常新闻的传播。这种玩意儿能大行其道主要还是因为社交媒体的”即刻性“属性,黑白两极的对立也是因为时效性--在一天几刷,一刷几个字(140字)的社交媒体上,人们已经失去了深究一个问题,一个人的耐性。诉诸情绪是最便捷的。当年论坛上盖几百层楼诉诸事实的争论不太可能存在了。

在web 2.0, blog,bbs时代,你点开一个人的ID,可以列出他所有的帖子,回复,你可以快速的对此人有个大致全面的认知(起码在一个小范围内比较全面),现在这个时代能翻翻他最近几条140字内的内容已经不错了。这种“活在当下”,是为消费主义,头脑一热买买买设计的,对于了解一件事一个人是有害无益的。以前网上的争论有最基本的几个共识基础:法律框架,逻辑推演框架。这两个框架下的争论又都必须建立在事实基础上。因此的确可以”真理越变越明“。现在的争论,这样的框架不存在了,因为不可能在140字内完成充分的论述以及完备的逻辑推理过程。事实究竟是什么就更没人关心了--搞清楚时间地点人物事件都需要花时间,需要动脑子,这正是社交媒体最不想用户做的。你一学会逻辑思考就会变得理智,不会那么冲动了,我怎么卖(骗)货(你)?

现在仍在发生的一个简单例子就是川粉和反川人士,两边都觉得对方是傻逼(而自己绝对正确),这是大数据和AI运作的结果之一,所谓的俄罗斯黑客助选其实指的就是这些手段。

从广告行业来看,从没见过这样的精确:你投了收效马上呈现,甚至是可控的。以前评定一个媒体广告的效果需要动用调查公司做抽样调查,放进数据模型里计算分析,勉强能得出一个也许大家心里都不是很有数的结论:这个广告投对了还是投砸了。毕竟那个时代,人们还生活在一个真实的社会,影响销售的元素太多了。而现在呢?几乎每个人都生活在自己的朋友圈儿,自己的社交网络上,整个社会已经是个幻象,想要控制幻象改几行代码就行了。像《黑客帝国》里的情节,你想偶遇一个红裙女孩儿吗?改几行代码就能实现--这已经不是天方夜谈和科幻片,只要取得她的地理位置,推送给你你就能“偶遇”。这种全知全能的控制是非常可怕的。

人类毕竟有反思的好习惯,这部纪录片算是揭开了反思的序幕吧,接下来对应的隐私保护立法,数据使用立法可能会艰难的推进。电视媒体刚走进千家万户时,波兹曼写了《娱乐至死》警惕作为大众媒体的电视对社会的影响。和电视时代的消极影响相比,今天主动操控人的网络社交媒体更进一步了。许多人对波兹曼这种批判嗤之以鼻--电视也没把我们怎么样嘛。是的,电视没把人类怎么样,所以,换了个更狠的办法来了。

对个人而言,生活在这个社交网络主导一切的年代,首先必须有自控能力,时刻记着是你在使用工具不是工具在奴役你。需要的时候才用,用完就放下。肤浅的快乐是有代价的,电视和网络都不会使你变得更快乐,更不会把你变成更完整的人而令你人生更有意义。很多时候每个人只不过是这个时代的噪音里微不足道的一个,与其画地为牢生活在社交媒体里,不如离开网络多看书多思考多写超过一百四十字的东西。成长是痛苦的,但成长的快乐也是结结实实的。

其次,珍爱生命远离网络吧,多交一些“真实”的朋友(无论这朋友是从网上来还是生活中来),真实的朋友需要花时间真正的交流,一个真实的朋友胜过一千个点赞之交。

 2 ) 对抗硅谷,为了“楚门的世界”里的27亿人

2016年,特里斯坦·哈里斯——这位谷歌的内部道德设计师决定离职,此时的他已经意识到,Facebook、谷歌(YouTube、谷歌搜索)、推特这样的互联网科技公司为了商业利益,利用算法吸引人上瘾的产品设计,是不道德的。这已经成为:

“人类生存的一大威胁”。

他想到了对抗。实际上,特里斯坦·哈里斯任职谷歌期间,谷歌有知名的“不作恶”准则。但这一准则并没有阻挡住算法基于商业利益走向偏路。离职两年后,特里斯坦·哈里斯拉着Facebook和Google等大公司离职或在职的技术专家,建立了一个叫“人道科技中心”(Center for Humane Technology)的组织,这个组织在2018年成立,用来——

对抗硅谷互联网公司让人上瘾的设计理论。

除了特里斯坦·哈里斯,参与这个中心工作的人,还有前Facebook运营经理;苹果公司和谷歌前通讯主管林恩·福克斯;前Facebook高管戴夫·莫林;Facebook早期投资人罗杰·麦克纳米。

纪录片截图:“人道科技中心”(Center for Humane Technology)

2017年前后,很多硅谷公司的高管,感觉到了算法操持的互联网平台,出现了道德伦理危机,纷纷离开了所在公司,2020年,网飞(Netflix)公司拍摄了一部纪录片叫《监视资本主义:智能陷阱》。片中,Pinterest 的前总经理、Facebook的前盈利总监Tim Kkendall说他担心算法操纵的世界最终导致美国内战;一个从谷歌出来的工程师,担心整个互联网产业的道德沦丧……

曾与马克·扎克伯格(Mark Zuckerberg)一起创办了Facebook的克里斯·休斯(Chris Hughes)离职后多年后,批评Facebook说,“扎克伯格是个好人。但令我感到愤怒的是,他对增长的关注导致他为了点击而牺牲了安全和道德底线”。

这样严重的担忧,是什么导致的,问题出在哪儿呢?

纪录片截图:一个前谷歌员工离职的原因

01

2018年,推特CEO Jack Dorsey在一次听证会上说,12年前创办推特时,他没想到推特会变成今天这样……

这段话,与《黑镜》第五季第二集的剧情正相契合,该剧正好也是网飞公司拍摄的。男主Chris Gillhaney因为在一次和女友驾车的过程中看手机社交消息,导致车祸,女友当场死亡。当他恢复过来后,他做了一个类似UBER产品的司机,每天在这家叫“碎片”的社交网站公司楼下接客。终于有一天,他接到了一个这家公司员工,绑架了他,通过要挟这个员工,逐层上接,和“碎片”公司CEO接上了电话,而他只是想告诉这个CEO,社交网站是怎样绑架了人们的生活而导致种种悲剧的。这家CEO的回答和推特CEO的回答很相似:

我当初创办这家公司的时候,没有想到它会变成这样。

“碎片”公司CEO阐述了一种逻辑:一个产品成型后,它的走势就不再是他能决定的,每一次更新和功能改进,都是因为用户喜欢、希望得到的结果,这并不一定是一个CEO想要的。

上瘾,几乎成了所有社交App追求的东西。

《监视资本主义:智能陷阱》采访了很多前硅谷科技公司的前高管和投资人。

作为谷歌前道德伦理设计师的特里斯坦说,当年他在谷歌做邮箱设计时,意识到一个问题,历史上从来没有过50个左右的20-35岁的加州工程设计师做出一个决定,就能影响20亿人,影响他们做出从来没有预想到的想法或决定——当用户早上醒来,谷歌邮箱就告诉他,应该这样工作。工作、文化、生活的意义,都来自一个鬼鬼祟祟的第三方操纵。而谷歌内部,没有一个人想把邮箱做得不那么致瘾。

纪录片截图:特里斯坦·哈里斯——谷歌前内部道德设计师

后来他做了一个呼吁:我们这些工程师,有道德责任去审视、讨论致瘾问题。

特里斯坦发出这个呼吁后,很多工程师都赞同,然后,就没有然后了……

作为Facebook 的早期投资者罗杰·麦克纳米说,硅谷的前50年,IBM、谷歌、英特尔都制造软件或硬件产品卖给顾客,商业模式简单而良好。但过去十年,硅谷最大的公司一直在“贩卖顾客”

互联网时代以前,人们所发明的东西,都是为大众服务的,自行车、汽车、计算器,它们是简单而中性的工具;当互联网时代兴起后,技术慢慢演变为向人类索取、引诱甚至操纵并从人身上获利的工具,已经由以人为主动型技术环境,转变为以人被动接受的、致瘾操纵型的技术环境。社交媒体不再是等在仓库里等着人去骑行的自行车,或驾驶的汽车,而是会自我学习、分析、操纵、致瘾的东西。

硅谷大公司的高管们就很警惕这个问题,比如比尔·盖茨和史蒂夫·乔布斯的小孩,童年就被要求与电子产品完全隔离。

这正是《纽约时报》2018年的一篇文章所说的,“技术专家知道手机的真面目,所以他们很多人决定让自己的孩子远离这些东西。”

雷慢曾说过,互联网是一个喂养型的社会。这种喂养是经过大数据分析、机器学习决策后,推送给人的。

这也是马克思、弗洛伊德等人对“异化”一次观点所说的,人作为客体被动地接受体验世界和自身;“物凌驾于人之上”。就像系统算法凌驾于外卖快递员之上。机器流水线凌驾于工人之上一样。

02

现在,互联网公司提供了大量的免费产品,FaceBook、微信、抖音、推特,大家都不为使用的社交产品付费。为这些社交App付费的是那些广告商,广告商就是社交App的顾客,而用户成了被销售的商品。这就出现了一种现象:

如果你没有花钱买产品,那你就是被卖的产品。

所以FaceBook、推特这些公司的商业模式就是,怎样让你最大程度的上瘾,花更多的时间在这些App上,付出你人生的时间。

人生值多少钱呢?

哈佛商学院教授Shoshana Zuboff被采访时说,在商业上,FaceBook、推特们为了卖出更多的广告,需要给与顾客确定性,所以,商业广告卖的就是确定性,这个“确定性”就来自用户上瘾背后的“数据分析”。

纪录片截屏:大数据可以记录用户在某张图上停留了多长时间,来判断用户对那种图感兴趣。

这就是纪录片标题所说的核心:监视资本主义。

为了获得数据,这些公司需要监视用户去过的每个地方,每种喜好,每种行为数据,无限追踪、分析、评估,无限逐利。

你喜欢看NBA的视频?好的,在你看下一个同类视频前,给你插播一条篮球鞋的广告。

纪录片截图:算法模型会给用户画像,这个画像是由无数的行为数据建立的。

这些数据不用人看管,机器可以自动深度学习,给出预判,这也是推特CEO所说,为什么这些产品成了当初他们所没想到的样子。

但高管们做了什么呢,预判人们行为轨迹的模型是他们做的,能够自动学习的程序代码是他们写的。

这一切都为了一个确定性:尽可能成功的将用户卖给广告商。Shoshana Zuboff将这个市场称为:

从未出现的、最大的人类期货市场。

过去我们交易猪肉期货、钻石期货,现在人类也成了期货。

上瘾带来的后果是,将你还没想到的部分,用算法推送给你,使它们成为你思想的一部分,还让你觉得这是自己所想的。

FaceBook、UBER等公司的高管都曾在斯坦福大学上过这样一个课程:怎么用技术劝服用户?这类行为被称为:

劝服的艺术。

这是一种极端刻意的、对人们行为进行设计的行为。用户的每一次下拉或上拉刷新,都是一次算法的重新推送。它们深入脑袋里,植入一种无意识的习惯,让人的脑袋更深层次地被编程。

FaceBook曾做过一个“海量规模蔓延实验”,测试用FaceBook上的潜意识信号来让更多人在美国中期选举投票,实验结果是:能。

这种影响并不会触发用户的意识,而是一种潜意识,这意味着用户根本不会察觉。

这种实验,谷歌和FaceBook每年要在用户身上做很多,用户就是实验小白鼠。

03

各种致瘾的大数据分析、算法推送,使美国Z世代的年青人成为了牺牲品。

纽约大学心理学家Jonathan Haidt提供的数据显示,大概在2011年至2013年前后开始,每年因为割腕自残而住院的少女出现了剧烈上升的趋势。

纪录片截图:近20年,美国每年少女因手机上瘾而自残与自杀的趋势

一个常见的现象是,人在孤独、无所事事的时候,总要找点什么事情做。如今这个空隙被算法推送的网络社交、短视频等占据了,人处理情绪的能力就退化了。

Cathy O’neil是一个大数据科学家。她说,算法是内嵌在代码中的观点,它并不是客观的。算法会被成功的商业模式引导、优化。

通常,在一个像FaceBook这样影响数十亿人的公司里,能明白某个程序算法工作逻辑的就几个人,相对于70多亿的人类来说,可以看成:人类失去了对算法系统的控制。

罗杰·麦克纳米说,这就像一个27亿人的《楚门的世界》,每个人都有自己的世界。没有人发现自己所在世界的本质真相。当然,实际上,活在“楚门的世界”里的人可能更多。在中国,类似的产品有今日头条、抖音等。

算法的每一个推送,都代表着一种商业利益。

在中国,中老年人喜欢看的一些鼓吹、煽动的假新闻视频, 并不是制作者一定相信这些事,而是假新闻传播比真新闻更快,流量能给他们带来商业变现,免费看视频的人,才是被卖的商品。

特里斯坦·哈里斯发明了一套理论:技术超越人类的第一个阶段点是超越弱点,其结果就是上瘾,上瘾会激化愤怒、激化虚荣,压制人类天性,挫伤天性。第二个点是超越人类的智慧。

算法喂养的世界里容易出现种种激化的矛盾,每个人的意见越来越不相容,因为每个人都从不同的推送里了解信息,而这些信息、知识又因为推送不同而不同。当两个因为同一个社交网站的鼓吹而同时出现在街上游行的美国人,对同一件事情产生争论的时候,他们容易发现:

哦,原来我们并没有看到相同的信息。

这种激化的分歧的一个知名例子就是“地球是平的”论,这种论调在YouTube上被推荐了几亿次,因为有的人喜欢,算法每天都在变着法地给人们推送“地球是平的”的内容,“地球是圆的”则被他们当作阴谋,而且越来越多的人相信了这种阴谋论。

这个事件的高潮是,今年2月,因为想证实地球是平的,美国发明家迈克尔休斯在用自制的载人火箭进行发射测试后,坠地身亡。

04

算法只推荐给人们感兴趣的东西,它并无道德感,它唯一的动力是商业利益,它可以一而再再而三地给人们推送虚假、阴谋论的信息。今天可以让人相信地球是平的,明天就可以让人相信喝消毒液可以杀死新冠病毒。

2016年,美国有成千上万的民众相信着一个假新闻——一个有民主党高层参与的地下娈童犯罪组织隐藏在一家华盛顿的披萨店,算法在这个事情发酵中,不停地推荐人们加入“披萨门”小组,直到越来越多的人相信它真的存在。

事件的高潮以一个男子拿着枪要进入披萨店仓库去解救“被迫害的孩子”、半路被警察逮捕了而告终。

在美国,疫情期间的谣言,和算法的推波助澜,加剧了谣言传播,个体各自为政。人们在街上游行,有的喊“新冠疫苗是阴谋”,有的喊“人类基因不适合新冠疫苗”。每个人执着于自己看到的信息。一个政府官员将其称为:

新时期的部落主义。

在算法推送的信息浸染下,2017年的一项皮尤研究中心的数据显示,2017年民主党和共和党的政治分歧达到了20年来最高点。

在缅甸,2017年以来FaceBook上出现了前所未有、情绪高涨的煽动性言论,这些言论被不停地推送给那些喜欢看的极端民族主义者,催生了严重的犯罪行为、种族主义迫害,并导致了70万罗兴亚族MSL逃离了缅甸。

纪录片截图:缅甸罗兴亚族MSL大逃离

《崩溃》一书作者贾雷德·戴蒙德阐明了社会是怎样崩溃的:一个社会一起推动一种不稳定、消极状态的前进,最终导致了社会的崩溃。贾雷德·戴蒙德的学生曾向他问出一个非常有意思的问题:

17世纪,复活节岛生态环境崩溃前,砍倒了岛上最后一棵树的那个人,那一刻在想什么?

我们是时候也思考一下这个问题了。

本文来自“新金融洛书”,欢迎关注公众号:

 3 ) 大危机之后的大觉醒?

观影过程中无数次有两种冲动并行,一种是检查手机有没有新消息,另一种是去卸载Facebook,Twitter,Instagram,或许还有微信的朋友圈。尽管两种冲动看似对立,但背后的原因是一致的,那就是,都是人类大脑因为生理机制和长期习惯形成的一种“冲动”,并不是我真的需要此时此刻去检查是否有新消息,也不是我真的经过深思熟虑之后才决定卸载掉社交媒体。对于后者而言,我也只是又一次被“灌输”了一种“观点”, 即,社交媒体是“坏”的。在这种意义上,人真的是一种很简单的动物,我们习惯于接受,因为接受是一种太容易的动作。推荐的广告,点开看看,推荐的视频,点开看看,推荐的新闻,点开看看,而无论链接后的内容和我们现实生活里的身份、形象、品味可能相差几何,先点开看看。Like, 既然有时间,why not。也许换个场合重新回顾我们的网络历史行为,我们会难以置信我们点击了一些如何愚蠢的玩意儿。

事实上,这部纪录片我也是在豆瓣动态上看到多个友邻推荐,并且刚好对这个话题感兴趣就重新激活了我的Netflix点开看了, 不这部电影绝对不是愚蠢的。因为它引发了我太多共鸣。大概是两年前,我回国做田野的间隙去了一趟北京,看望了一下在当时还叫今日头条的地方工作的高中同学。那个时候头条刚刚改名为字节跳动,抖音还没有今天这么火,但已经出现了疯狂扩张的苗头。我去他的公司参观,我们聊起抖音,作为和数据研发相关的核心成员,他和我介绍抖音的各项功能,只记得当时我对这一款产品持一种比较负面的看法,觉得其核心机制就是让人上瘾而且内容并没有什么营养。而我们聊的具体内容我已经忘了,只记得他向我展示了他的抖音界面,是很多可爱的小猫,即各种“吸猫”视频。唯一印象深刻的是从他看那些视频的神情上,我读出了他可能也是一个短视频产品的重度上瘾用户。后来吃饭的时候他和我说,现在百度已经不行了,很快就会被字节跳动超越,我当时还将信将疑。而今日,tik tok不仅火遍全世界,还significant到陷入中美商业大战之中。这是短短两三年前我完全没有预料到的。

毫无疑问,社交媒体是一个可怕而十分真实的幻觉,而这一点我最近才亲身感受到。虽然曾经一度是朋友圈重度刷屏用户,也偶尔在豆瓣上发点牢骚,但很少在纯陌生人社交媒体上生产内容。直到上一个月,我加入了鹅组,到目前为止发了两个帖子,其中一个是投票,没想到竟然有数百人参与了投票。这种现象会给你一种错觉,你的一个十分简单的行为影响了几百人的错觉。又或许这不是错觉,即便是在最微小的程度上,我的确影响了几百人的一种行为,我收集到了几百人的某一类数据。作为一个经历过十分困难地发问卷做访谈,需要实地调研才能收集到各种数据的社科生,这种感觉尤其奇怪,好像某种过去的看法和想法被完全地颠覆了。因为70万+人(爱八卦又有很多闲暇时间的)鹅组人,就像一个极其responsive的理想环境,即便是一个最无聊的话题,也可能会有很多人回复你。这种感觉太奇怪了。因为付出和收获似乎完全不成正比。可能我只是花了半分钟写了一几句话,就收获了几百个人的点击。很奇怪。

观影过程中,我既庆幸我上大学以前没有手机,上网的时间也很有限(尽管这样,还是一度对百度Hi和QQ说说上瘾过),又反思了自己从大一到现在的七八年,生活因为社交媒体、互联网产品发生了怎样的变化。我第一份有意义的长期实习是在学校的某求职公众号上无意间看到的,并且间接地决定了我第一个研究生项目目的地。我第一段认真的长期恋爱对象,是在网上偶然认识的,虽然我们现在分手了。ex是个一贯对社交媒体保持谨慎态度的人,尽管恋爱期间我们在Facebook上添加过好友,但他从来不在上面发布任何帖子,我们俩也几乎零互动,可能他只给我赞过一张照片。即便如此,当分手的时候我把他从Facebook联系人里删了,在那不久之后的某天,我竟然在fb的好友推荐里看到了他亲姐和他发小。不得不说一句,这是什么神机妙算。

说到这里,感觉已经完全跑题。In short,这是一部很棒的影片,尽管你可以说它也试图通过互联网媒体的力量sell its opinion,但它至少是在面对互联网资本力量不断侵蚀我们生活自主性的危险趋势下某种反思的开始。作为经历了现实和虚拟完全缠绕的一代,希望我们都可以找到一种驯服互联网工具的方法,而不是被驯服,成为资本牟利的工具, 面对一切信息,尽可能地保持冷静、保持批判、保持思考。

 4 ) What are Internet companies being paid for?

"For the last ten years, the biggest companies in Silicon Valley have been in the business of selling their users.

...because we don't pay for the products that we use, advertisers pay for the products that we use. Advertisers are the customers. We're the thing being sold.

The classic saying is, 'If you're not paying for the product, then you are the product.'

Many people call this surveillance capitalism, capitalism profiting off of the infinite tracking of everywhere, everyone goes by large technology companies whose business model is to make sure that advertisers are as successful as possible.

This is a new kind of marketplace now. It's a marketplace that never existed before. And it's a marketplace that trades exclusively in human futures.

Just like there are markets that trade in pork belly futures or oil futures. We now have markets that trade in human futures at scale, and those markets have produced the trillions of dollars that have made the Internet companies the richest companiesin the history of humanity."

 5 ) 关于技术的非客观性与不可控性

道理我都懂,可是谁能在拉屎的时候不看手机呢?

言归正传,以前一直叫嚣“技术中立”的我这些年来对技术,尤其是巨🐂🍺的技术,真的是越来越保守了。既然略微涉及到了自己专业方面的东西,不妨稍微多写点记录一下自己想法的改变,以及近期的一些思考,主要想说说两点,技术的非客观性和不可控性。

非客观性

任何对数学或是计算机科学稍有了解的人应当都知道,算法本质上就是一堆数学和运算,定义明确,不存在任何欺骗性和模糊性——给两组一样的输入,就会出来两组一样的结果(起码分布相同)。算法是如此地“笨拙”和“老实”,不管你是资本家还是无产阶级,算法不受贿也不行贿,只做它该做的事,这还不能被称为客观吗?

机器学习有个子领域叫机器学习公平性(machine learning fairness),专门研究算法中的偏差对社会公平性的影响。这个领域的研究经常会提到COMPAS数据集,里面记录了一些被告的个人特征信息与犯罪服刑记录等。研究人员用这个数据集去训练了一个机器学习模型,来预测某人未来犯罪的概率,发现训练出来的模型更倾向于错误地将黑人预测为容易犯罪。数学上,这种偏差一方面是来源于训练数据的分布,另一方面则是来源于一些复杂的因果关系,比如法庭上由于种族歧视等黑人更容易被判有罪。这些问题其实都可以通过技术手段,比如重采样或是引入工具变量等,来克服或是减轻,但它背后更本质的一个问题是:为什么我们的社会需要预测一个人是否有可能犯罪?有很多科幻作品比如PSYCHO-PASS都讨论过这个问题,包括社会心理学上也会从自我实现预言的角度研究该种预测对个人和社会所可能带来的影响。这里只做个简单的想象作为一个小小的思维实验,假设我们训练一个模型来预测犯罪,并希望它能最准确地找出潜在犯罪者,同时又训练一个决策或行动模型来逮捕最有可能犯罪的人,随着两个模型互相产生数据互相迭代,最终“犯罪”这个概念将完全由模型定义。当我们为机器学习算法设定目标时,即准确预测潜在的罪犯,我们是在默认地假设一个人是否犯罪是预先就被决定并且不会为环境所改变的。这种假设和目标的设定本身就存在巨大的问题,其反映的是目标和算法的设计者对于人类社会的偏见。

我们知道所有算法的提出和应用都是为了优化某个目标和解决某个实际问题,但如果我们的目标和问题定义错了呢?我们还要继续使用这些算法吗?问题错了,算法再怎么提升也是白费,it's not even wrong. 刨开它想要解决的问题,算法本身毫无意义,而这些问题被定义的方式,恰巧就反应了问题定义者对于一系列事件乃至整个世界的看法。Algorithms are not objective,它们是一整套价值观的投射,只要我们还在一个人的社会里,算法与其背后的利益关系就不可能也不应当被割裂开。可惜的是,在现在的学术界和工业界,绝大多数全世界最聪明的大脑关注的仍然是如何在特定目标下提升算法的表现,而我们的问题是否定义正确,我们的优化目标是否设计正确,相对来说却不太有人讨论。

这里我想到之前上的一位研究 Science, Technology and Society(STS, 中文还没有翻译)的老师的课,他论文里有一段关于优化算法的讨论特别有意思。优化算法我们一直都在学,求最值、线性规划、凸优化、非凸优化、动态规划、整数规划诸如此类。但实际上,“优化”是一个西方资本主义社会所创造和强化的概念,它的背后是一套利益最大化的逻辑,这在非西方世界的传统价值观中是罕见的。随着大航海时代与殖民主义、帝国时代的演进,这一套优化的逻辑也慢慢根植进了各个民族的思想,也写进了不同国家的教材。我并非是想说“优化”这个概念不好,或者我们不应该研究优化问题,相反,优化问题很重要,并且能建模很多实际问题。但正因为它能建模太多太多的实际问题,我们才更应该加以注意其适用范围,比如一个班里的同学或是一个组里的同事相互竞争,搞成绩最大化利益最大化,硬生生地把非零和博弈考虑成了零和博弈,这种内卷或许只对补课机构和资本家有益。

不可控性

当影片把我们所面临的问题赤裸裸地摆在面前的时候,我才真正意识到并惊讶于,一个我们无法理解、无法控制、拥有巨大预测世界和改变世界能力的技术,竟然早已悄无声息地融入到了我们生活的各个角落。我们一直在思考,如何提升人工智能的极限,或是AI还需要多久才能取代人类,我们看到的始终是AI在人类强项上的羸弱,如关系推理、结构生成等等,就好像AI仍然完全在我们的掌控范围内。但实际上,我们常常忽略的一点是,AI在人类的弱项方面已经做得非常好了,并且我们对其知之甚少。以前中学的时候和同学聊过一些关于基因工程、人体改造诸如此类的话题,结论是这类技术太过神秘、太过强大,在伦理道德和法律条文完善之前就不应该去触碰。现在想来,基因改造相对于复杂的算法来说,或许就是个弟弟。我说“复杂的算法”,并不是因为算法本身的实现很复杂(当然确实也挺复杂的),而是因为现在的很多算法,比如神经网络,本身就是一个“复杂系统”。

我个人认为复杂系统或者混沌理论是人类在20世纪所提出的最具革命性的概念之一,起码本科接触到这个概念之后,我的世界观迅速就改变了很多。复杂系统(complex system)简单来说,就是系统中有多个个体,它们相互之间会有一些交互,这些个体本身的行为模式或简单或复杂,其间的交互也能以各种形式呈现,可一旦当它们构成系统,整个系统中可能就会涌现出一些难以预见的行为模式。复杂系统或者混沌现象在我们的世界中无时无刻不在呈现,比如气象系统,洛伦兹当年就是因为发现自己用微分方程无法预测天气,而开创了这整个领域,大家常说的“蝴蝶效应”,其实指的就是微小的空气扰动也会在未来大幅影响整个气象系统的运行这一现象。除此之外常见的例子还有大脑活动、心脏跳动、股票市场的波动等等。康威在70年人为构造了一个复杂系统并将其命名为“生命游戏”,这里找到了一个模拟器,感兴趣的话可以玩玩。关于复杂系统和混沌理论的研究瞬间就颠覆了17世纪以来的牛顿范式(虽然爱因斯坦早几十年已经从时空观的角度颠覆过一次了),所有的研究结果都告诉我们,这个世界不是你推动小球,小球就会获得一个加速度,然后像你预想的那样运动——当这个世界由千千万万个小球组成的时候,哪怕你完全知道每个小球的受力情况,你也无法预测整个小球系统将会怎样运行。当然,刘慈欣的三体早就科普过,只需要三个小球,就能使任何人、任何计算机的大脑彻底瘫痪。之前看过BBC的科普纪录片《神秘的混沌理论》觉得很不错,里面也提到了在如此混沌的世界中,数学和科学还能为我们做些什么,答案就包括统计学等等,扯远了。

回到技术的不可控性,这里想重点讨论一下深度学习掀起的神经网络浪潮。神经网络(neural networks)是计算机科学家们仿照人类大脑的结构所提出的一个计算概念,在计算中,每个节点都被看做是一个神经元,它接收上游神经元所传来的信号,并在一番处理之后将结果信号再传递给下游神经元。单独看每个神经元的行为其实是非常简单的,就是一个带权求和再套一个激活函数(现目前最常见的激活函数就是ReLU,它保留正的数字并将负的数字变为0)。再看神经元之间相互的关系,其实也非常简单,就是计算结果的传递。然而就是这么一些简单的小小的计算神经元,却能从系统层面上发挥令人意想不到的作用——人脸识别、图像生成、阅读理解…很多理论上的工作都尝试去解释神经网络的运作机制,但目前还没有人敢说他真正地理解了神经网络。其中一个比较有代表性的讨论就是神经网络的泛化能力。泛化能力指的是模型把从训练数据中所获得的知识,应用到未曾见过的样例上的能力。做个简单的类比,就好像是你通过刷题来准备期末考试,如果相同知识点的题,刷题时你学会了,考试时你也能做对,那么你的泛化能力就很好。传统机器学习认为模型的参数或是可变性越多,泛化能力就越差。这就好像是你的记性特别好,过目不忘,那么为了做对题库里的每一道题,对你来说最省时省力的方法就是把所有的答案都完全不加以理解地给背下来,但到考试的时候你就会傻眼了。神奇的是,神经网络并不遵循这一规律,去年OpenAI公开的 GPT-3 语言模型中共有1.75兆个参数,但它在下游任务上的表现却完全暴打之前的模型。近期的一些工作比如 Neral Tangent Kernel 对此细致地进行了理论上的阐述,大体上讲,就是当大量神经元组成神经网络后,整个复杂系统就会涌现出一些新的性质。目前不管是学术界还是工业界,都把神经网络当作黑箱在使用,没有人知道这个黑箱中究竟在发生些什么,更不用说有谁能够做到精准地控制黑箱。

更加令人沮丧的是,神经网络等技术的复杂性还只是不可控的一方面,而另一个不可控因素就是人类社会。人类社会由许许多多的个体组成,个体之间也会经由社交产生各种互动,是一个典型的复杂系统。在人类社会的历史中,我们可以看到很多群体行为的涌现,如政党的形成、经济系统的构建、革命与暴乱等等。如此一个复杂系统本就已经够社会学、经济学、政治学、心理学等学科研究的了,而我们现在还要将复杂的神经网络运用到复杂的社交网络上,其结果想也不知。就如纪录片中所说,这些大佬们在开发产品的时候最多也就考虑了用户粘性等跟商业挂钩的指标,而诸如阴谋论、假新闻的流行,还有意见的极化和青少年成瘾等负面影响,都是在最初的产品开发时所难以完全预见的。至此可以看到,在我们将越来越多的权力交付给人工智能时,情况已经愈发地失控了。

最后

尽管快到末尾时大佬们把AI技术、社交网络等带来的问题归因为商业模式的运作,包括整部片子的译名也被加上了“监视资本主义”,但这些问题的根源绝不仅仅只在于经济形式——again, it's all about power moves. 任何形式的社会,只要有权力结构的存在,就会使算法带有一定的目的性,并且此种目的性也会由于算法和社会本身的不可控性,而造成难以预见的影响。

看到最后真的蛮感动的,有这么多厉害的大佬都不只是在关心自己的个人利益,而是利用自己的视角来为全体人类尤其是还在成长中的下一代做思考,怎么说,算是野蛮屠宰场里人类文明的微光吧。

 6 ) Netflix的陷阱

假设有一个传统的汽车公司,汽车公司从开始研发,测试,生产制造,上市,售后等等一系列环节构成了汽车这个产品的生命周期,在这生命周期的每一步,都有庞杂的数据,而且所有的步骤都要被记录以方便后续的研究和改进。在公司开始研发前或者期间或者投放上市后,公司相关部门比如市场部会进行市场和用户调查,了解用户的需要跟反馈,以便提供更好的产品与服务,还有之后的改进。这是一个传统商品的开发过程。汽车公司希望开发出最好的产品,这样他们就可以获得更大的效益。这个过程大家通常比较熟悉而且听起来也是合情合理。

科技公司的产品也有类似的过程。一个很大差别在于用户几乎在产品还没成型,仅仅是测试的时候就被参与其中,用户与这个产品全部互动的数据都会被记录以作为产品研发与改进的基础。而这一差别会造成很多的问题,传统行业获取用户的数据往往基于问卷或者电话或者邮件等等,这些方式在用户回答时已经知道自己提供的信息会被用于该公司的产品研发,所以用户是知情且同意的。科技公司所记录与收集的数据发生在用户与产品交互的所有过程中,其实用户并不知情自己的数据会被用于该产品的开发,更不用说同意。同时传统产品所需要的用户信息往往比较公开,比如喜欢什么车型,几口人用等等,这些信息涉及到的私密性比较低。但是科技产品所需要的绝大多数是用户相对比较私密的信息,比如你搜索了什么,你对哪个人感兴趣等等。科技公司所涉及的用户的知情权与隐私权是一个已经浮出水面多年的法律与道德问题,各方力量斡旋多年在寻求解决方案。

这一系列过程在影片里被称为监控,而且为了使监控这一概念更具说服力,影片设计了一些场景,比如以人来模拟产品背后运作的过程,好像对每个用户都有一套设备来监视他做了什么看了什么,甚至于他在想什么。以影片中的模拟场景来看,这的确是监控,而且这非常吓人。但是以脸书每个月大约30亿的活跃用户来看,根本不可能会对于每个用户有一个团队来通过很多大屏幕来监视其一举一动,来揣测他的心思。所以这个比拟是失实而且夸张的,完全不符合纪录片的原则。同时揣测他人心思会涉及到猜对或者猜错,这一环节被渲染到所谓的背后的模型会精准预测到用户的心理,甚至去改变用户。换句话说用户赤裸地处在一个危机四伏的敌在暗他在明的毫无防备的世界里,随时可能为人鱼肉。假如剔除掉这些场景模拟,与传统产品的开发过程进行对比的话,其实所谓的监控本质就是记录和收集数据。记录与收集也让人很不舒服,因为这涉及到用户的知情权与隐私权,这都需要科技公司尊重,但这远没有被监控听起来那么让人不寒而栗。监控一词奠定了这个“纪录片”的基调,就是让人恐惧。为了让恐惧这一情绪可以更强烈,影片找了形形色色的人来讲述科技公司如何在做“人类期货”的交易。通常记录片为了公正客观,会采访众多不同角度的人,众多不同的观点相互碰撞的过程中就会暴露其中某一观点的局限与弊端,而这一局限可以被别的观点所解释和完善,同样这个观点的问题又会被别的观点修复等等。这样观众会看到一个比较完整的画面。

Netflix背后有一系列模型,这些模型计算着如何给潜在用户打广告,给用户推荐,以及让用户订阅等等。从这个层面来看,Netflix也是一家如这部影片中描述的科技公司。事实上,它就是一家科技公司,而且它还是一家顶尖科技公司。Netflix不同于其他科技公司的很大一点在于,其他科技公司作为一个平台,它的产品本身是不生产观点的,它的观点是来自于平台上不同用户的不同观点。但是Netflix是出产影片的,所以它是生产观点的,不止如此,它还在生产情绪。这部影片里Netflix的观点与情绪就是科技公司在监控你,而且这是非常可怕的。客观的记录被强调为主观的监控所以从一开始它就没有预留给用户自己思考的空间,而且在这个观点与情绪之外,这个影片作为Netflix的产品它并没有像其他平台一样引入多方的观点与情绪,给予用户自己判断的空间。相反地,Netflix深知恐惧和焦虑可以在用户中快速传播,从而成就它的产品,它反倒在利用这一点。所以Netflix在这个产品里站在道德制高点上抨击着其他科技公司的种种行为,而在暗处它其实在做着同样甚至更糟糕的事。

 短评

在网飞纪录片序列中算不上惊艳,内容都能想得到,有个别地方倒是有启发。其实社交媒体不是重新发明了人性,只是顺应人性被发明出来。

7分钟前
  • frozenmoon
  • 还行

三星半吧。这个片子一边谴责社交媒体蛊惑人心,一边也通过背景音,模拟场景,动画,拼命传输自己想传达的意思。有点讽刺

10分钟前
  • C&TUTU
  • 还行

互联网是人类文明的硕果还是浩劫?这是一个问题。互联网发展太快,而互联网用户运用它的智慧却太慢。它几乎成为现代人剪不断的脐带,每个人都以为这根脐带为我们输送养料,却很少发现它也在吞噬我们的时间,消耗我们的生命。互联网背后是不断将我们异化的数据和图形,是将用户打造成韭菜的智能工具,而你我是它们手中的行货。尼采说,“在自己身上,克服这个时代。”然而,这多么困难。最有意思的是,看完这部纪录片后,我发布的信息也会成为互联网内容的一部分,不小心浪费了别人的时间。

13分钟前
  • 尘飞扬
  • 推荐

最讽刺的是你之所以能看到这部片子,多半也是因为它被网飞自己的大数据和算法推到了用户主页。这种感觉就像是有天迈克尔·贝跑出来拍了一部【电影艺术是如何被滥用CGI特效的好莱坞大片毁掉的】纪录片一样。

18分钟前
  • Laplace Demon
  • 推荐

“是批判者推动社会变得更好,批判者才是真正的乐观主义者。”

21分钟前
  • 烟雨如花转
  • 力荐

影片翻译成”监视资本主义“太符合中国上层领导了,其实就是讲了社交网络怎样赚钱、怎样改变和监视用户、大数据统治的,其影响会延伸和触及到人性、进化、政治竞选等领域。但人类历史中的谎言、煽动、阴谋、阶级等现象,并不是网络时代就特有的,只是网络时代让这些现象具有更大规模、更快的反应而已,但不能把原罪归于网络。

22分钟前
  • 炸酱面
  • 还行

“在整个人类历史中,每次有事情变好,都是因为有人站出来说:“这太蠢了,我们可以做的更好”。是批判者驱动了改进,他们才是真正的乐观主义者。我们正飞速走向毁灭,需要一个奇迹才能让我们回头,这个奇迹就是集体意识,再足够的公众压力出现之前,这台机器是绝对不会回头的。”

27分钟前
  • 亚比煞
  • 力荐

一边抗拒一边沉迷,也是无解了。

30分钟前
  • 桃桃林林
  • 推荐

聚众吸牍哪家强 网飞找来这群人一个劲戳别人脊梁骨 没种把自己的5秒跳转下一个视频算进去

31分钟前
  • Robo Captain
  • 推荐

最后还是把问题还原到商业模式和经济上去了 也就是说 不是简单呼吁大家自己控制社交媒体的使用就可以解决根本问题的 不过很有意思的是… 看完片子之后 大家还是屁颠儿屁颠儿跑到社交媒体上来打分了😂 这和竞争关注的结果其实没有本质上的区别吧 人生而愚蠢...也是没办法的事

35分钟前
  • ripley
  • 力荐

通过海量的数据加上对用户个体的行为记录,最终用户个体不再特殊。你的行为可以被预测,你的心理已被掌握,你已经无所遁形。在IT巨头面前,你只是一个可被盈利的工具。 --你以为你想买的东西其实是巨头想卖的东西,你想做的事情是巨头暗示你做的。下篇讲述 在网络环境中,虚假的信息传播的更快,其中人工智能的推荐起到了加速作用。 推荐系统的智能化是的信息发送方变得极化,同时是的接受的信息变得不再全面的。。。。

38分钟前
  • W.史密斯
  • 力荐

朋友圈已经关闭了好几年,也不用微博和fb的我感觉自己还是有点觉悟的。

43分钟前
  • 席德
  • 推荐

突然觉得,我如果能活到八十岁,说不定可以亲眼看到这颗星球毁灭……

47分钟前
  • 西决
  • 力荐

能请到离职的脸书 谷歌 twitter高管或功能创始人来搞一部揭露社交APP之罪的纪录片确实牛逼!!看影片开头好多工程师已经在担心律师函了。 我们以为的AI危机(人工智能)是电影中类似机器人入侵的画面,其实,人类早已被AI奴役好几年了,它们以智能手机APP的面貌出现在我们生活中,吃掉我们的时间,夺取我们的注意力,令我轻信、空虚、偏执甚至被利用…… 就连创造出这些APP的工程师们——这个AI统治者的创造者们都承认有手机上瘾症。if you are not paying for the product, you are the product.You would not realize it's a Matrix if you Are in the Matrix.

48分钟前
  • 七姐Claudia
  • 力荐

前半段谈的是个人的成瘾性,后半段谈到了对社会和政治的影响,甚至还提到了香港问题受到了推荐算法的影响,实在是强烈推荐的纪录片。推荐算法让人类看到更多他想看到的信息,而不是正确的信息;当算法没有被操纵的时候,假象会被传播和放大的更快,社会群体的分化会更严重;当被操纵的时候,它会成为比以往更高效的舆论控制工具。

53分钟前
  • 流浪四方
  • 力荐

某种existential crisis的压迫感沉重到可以将其归类恐怖片的程度:迫真humanity的一个至暗时刻。毋庸置疑新自由主义的放任默许了它们的野蛮生长。日渐两极化割裂的民主世界,中产的消亡,功绩社会里的精神暴力,抑郁及自杀率的攀升,ultra-right/left异军突起众多吊诡背后,总能追溯到科技巨头的鬼影。今年的BLM可谓一个高潮,空前的社会撕裂,内战的恐惧开始在北美大陆扩散,然而那种担忧早已经在太平洋对岸成为了现实,诸如废青和武统的呐喊此起彼伏,落入集权独裁手里的社交媒体正上演着数亿人的《楚门的世界》。

56分钟前
  • 帷野久
  • 力荐

中文翻译的标题线路很正确嘛

59分钟前
  • 里拉
  • 力荐

我一直是更亲近Yuval Noal那种对社交网的防御心,最近他跟唐凤的对话中,唐女士更接近Bill Gates,她们对Code is law的信任是基于他们对科技的掌握,略傲慢的盲目。人类善于发明创造工具,却总是不能智慧的使用好它,socialmedia被创造出时的工具属性越来越模糊,连接一切变成绑定一切,我们都在失去个人专注力的同时被训练的自动贡献出时间来替科技公司创造价值。见惯了友邻放弃包容,讽刺刻薄的针对陌生人,哪怕对方只是没把咖啡馆当图书馆对待产生噪音。我们大部分人,都忘了我们用社交网的初衷了,我们只是停不下来了,这不对,要自省。

1小时前
  • 姜小白
  • 力荐

可能是今年 Netflix 最好的一部纪录片,无论是 have no clue 的大众还是互联网业内工作人员,都能从中得到新的启迪。一段虚构故事结合湾区大佬们和学者们的访谈形式也耳目一新。Just fucking watch this right now!另外好多差评真是男言之瘾重灾区…

1小时前
  • 椒盐豆豉
  • 力荐

就提一个capitalism会死吗

1小时前
  • soyoungsogone
  • 还行

返回首页返回顶部

Copyright © 2023 All Rights Reserved