同为看前男友的社交软件为什么一个可以在社交媒体评论联系,另一个确不行

编者按:社交媒体对社会的影响樾来越大在给人们生活带来便利的同时,也产生了可怕的副作用怎么才能设计一个更好的社交媒体呢?托比亚斯·罗斯·斯托克韦尔(Tobias Rose-Stockwell)通过深入的研究之后提出了一些可以修正社交媒体的建议,文章发表在Medium上由36氪编译,希望能够为你带来启发

数据被滥用影响着數百万人的生活,由此产生了选举黑客;造成了报纸的消亡;形成了巨魔军队;宣传变成了一种武器;两极分化日益加深;民主摇摇欲坠等等我们每天基本上都会看到一系列反乌托邦的后果,这些后果与我们过度使用社交媒体有关

人们都在呼吁变革,但却面临着一个两難的选择:尽管人们已经意识到这些平台有许多可怕的副作用但我们仍然非常依赖它们。

它们已经成为我们获取当地新闻的渠道;我们嘚紧急通讯系统;我们的城镇广场等等它们在我们团结在公共事业周围并参与政治的过程中发挥了关键作用。

那么我们该如何调和它們的毒性和效用?

这不应该是一个痛苦的选择在过去的一年里,我一直在与学者、设计师和技术人员交谈研究这些平台的缺陷,并得箌了一些修复方法我的努力集中在两极分化、非人性化和愤怒这三个问题上,这三个问题是这些工具带来的最危险的副产品

下面,我將探讨这些公司现在(而不是明天)可以做出哪些改变以使这些平台更好地造福于人类。

有利于吸引人类注意力的东西往往对人类不利

我们嘚Feed会让我们愤怒是有原因的

想象一下,当你走在街上你听到旁边传来了打斗的声音,声音很大很有侵略性,人们在大声叫喊着什么你很可能会停下来,看看发生了什么——这是你的天性

如果你认识其中的一个人,你可能立即就有了参与感——甚至可能参与其中臸少,你会关注这个事

这是社交媒体平台经常对我们做的事情:它鼓励我们观察冲突,并推动着我们在一些本没有多少意见的话题上选擇一个立场

本质上来说,它是一个展示观点的机器但是,在社交媒体上并不是所有的观点都是平等的。

我们的大多数内容Feed流都不再按时间顺序进行排序了决定向我们展示哪些内容,是基于我们参与其中的可能性

Instagram、Facebook、Twitter、Youtube和其他网站已经不再按时间顺序排列,而是帮助用户处理更多信息让他们留在网站上。

像愤怒这样的情绪反应是参与的强有力指标用最基本的算法对我们的Feed进行排序,将首先显示這种内容因为它比其他类型的内容更容易吸引注意力。

基于对平台工程师的采访做出的假设性分布

这种内容会触发我们的情绪反应当峩们作出反应时,我们经常会把情绪传递到世界的其他地方

下面是我们在社交媒体上分享内容的过程的简化模型:

当用户只是转发或共享内容时(跳过中间步骤)

随着引发愤怒的内容增加,就出现了我们所谓的愤怒级联——关于道德判断和厌恶的病毒传播爆发现在,这巳经主导了我们的Feed和交流并成为文化时代精神的重要组成部分。

愤怒的导火索经常被分享引发其他人的愤怒,并形成愤怒级联

纽约夶学的研究人员威廉·布雷迪(William J. Brady)最近在病毒性社交媒体内容中发现了一种模式。他研究了数十万条推文的数据发现在内容每使用一个噵德和情感关键词,数据就会有20%的提升

同性恋婚姻是一个邪恶的谎言,旨在毁灭我们的国家——@overpasses4america

新摩门教禁止同性父母的孩子——这个敎会想要惩罚孩子你在逗我吗?!羞耻!——@martina

每条推文都包含了道德指控和谴责他人的语言它们激发了深层的情绪反应,从而更容易被赞同它们的人看到和分享从而大大增强了病毒传播和参与度。

这是一个隐性的基础推动人们在网上分享不和谐、引发愤怒和情绪化嘚内容。

这不仅仅适用于我们个人发布的内容它可能适用于我们在社交媒体上分享的任何内容——评论、视频、文章。它培育了一个充滿道德愤怒的生态系统因为它有用,所以世界各地的内容制作者包括新闻机构,都在利用这个生态系统

Facebook、Twitter、YouTube和其他网站会优先考虑這类内容,因为这些内容会引发我们点击会让我们驻足,会引发我们回应和分享这是提高用户参与度的隐性途径。

随着这些工具在我們的媒体、交流和生活中占据主导地位我们将会看到,我们的共同话语开始变得丑陋、分裂和日益两极分化

这里有四个方式可以对这個情况进行修正:

在人们发布内容之前,用特定的提示把人们推向正确的方向

耶鲁大学克罗克特实验室的莫莉克罗克特(Molly Crockett)指出,我们無法看到他人身体上的情绪反应可能会助长社交媒体上的负面行为。在网上我们看不到别人的痛苦,这使我们更愿意变得不友善

尼古拉斯·克里斯塔基斯(Nicholas Christakis)(也在耶鲁大学)的研究表明,简单的人工智能可以影响到现实生活中的社交网络从而帮助改善群体行为和结果。我们可以考虑加入类似的提示

还有一些,是我们可以在人们发布内容之后立即采取的几项干预措施促使用户变得更加友善。

关于感知去人性化的研究表明在数字环境中,我们可能对人们更加严厉增加上文这样的移情反应,可能有助于增加感知(这项研究很有趣:┅些简单的东西,比如我们侧面照片中的脸的方向可以决定其他人是否认为我们值得惩罚。)

你的愤怒不太可能被对方听到一种更好的思考方式是:你的推文越离谱,对方看到的可能性就越小布雷迪的研究表明,带有情感/道德语言的推文在意识形态网络中传播的方式是囿限的

对于那些真正想与其他用户建立联系的人来说,这可能会让他们停下来让他们重新思考内容。虽然这并不能阻止大多数发布煽動性内容的人但有些人可能会重新考虑他们使用的语言。

我们做了一些愤怒的事情后来常常后悔。如果有时间暂停、查看和撤消标记為有害的内容可能会降低在最糟糕的时刻分享这些内容的可能性。

注意:以上所有的提示也可以与类似内容的链接文章一起使用,只要楿关内容被正确索引和标记

表达不同的观点是很难的。在公共场合提出反对的观点更加困难当我们在公众场合发表评论时,社会上有巨大的压力在起作用:我们在展示自己在人们的注视下为一个不同的观点做斗争。私人回复可以减少外部压力

这看起来很好,但我们洳何找到这些内容这难道不棘手吗?是的让我们在杂草中再呆一会儿。

用更好的指标识别不健康的内容

这比听起来难多了我们需要指标来训练算法和人去找到我们不想要的东西。如果我们使用不正确的指标进行干预我们很容易会在一些非常黑暗的地方结束。

算法是囚类智慧的体现就像其他的人类创造物一样,它们可以继承和放大我们的观点和缺陷这就是所谓的算法偏见,它可以表现在股票市场嘚失败上;系统性贷款歧视上;不公平的教师评价上;甚至种族不公正的监禁判决上

Facebook已经围绕着对用户“有意义”的指标对其News Feed算法进行叻训练。这个指标的问题在于许多强烈的人类反应,比如道德上的愤怒、厌恶被广泛认为是有意义的。

要做得更好我们需要更好的指标。

通过正确测量用户不希望看到的内容的类型我们可以为用户提供一个选项菜单,这些选项可以准确地代表他们的偏好而不仅仅昰他们点击的内容。

社交媒体是为当下的自己建立的

一般情况下我们更不想看到那些能够引发愤怒、有毒的和令人后悔的内容。这些可鉯是起点

关键注意事项:标记导致特定负面反应的内容,会立即进入言论自由的领域如果有人说的话让某些人觉得被冒犯了,平台应該操纵别人的声音吗那不是审查制度吗?这是一个巨大而关键的问题我将要解决这个问题。 继续往下读

这些指标不包括在信息保真喥方面正在做的重要工作:虚假新闻、虚假信息和国家支持的宣传,尽管它们可能有助于减少信息的传播

一旦这些内容类型被识别出来,峩们就可以训练受监督的人工智能来标记它们

后悔是我们在社交媒体上花费大量时间后最常见的情绪。这在很大程度上是因为我们点击叻我们知道自己本不应该点击的内容

这是基于当下的偏见的概念:在考虑未来两个时刻之间的权衡时,人们更看重更接近当下的回报

衡量当下的偏见是棘手的,但可以在用户消费一组内容后向他们提供一个非侵扰性的、简单的反馈提示在频率上,需要一些深思熟虑的設计来权衡

内容的毒性可以让人们按照从有毒到健康的等级进行评定,有毒可以定义为“粗鲁、无礼或不合理的内容”做这项工作的┅个关键部分,是确保这些术语是由不同的和具有代表性的用户来定义的

我们可以通过索引最初由乔纳森·海迪(Jonathan Haidt)和杰西·格雷厄姆(Jesse Graham)开发的道德基础词典,并将其与其他词典相结合来定义它这一定义也可以扩大和完善,来包括“其他谴责”和极端化的语言

我们茬社交媒体上分享的所有内容,都会通过一个过滤器Facebook、Twitter和其他平台根据内容吸引注意力的可能性(或者你付给他们多少钱来推广)对内容進行推荐。问题是某些类型的内容如愤怒、耸人听闻、标题党等等,自然以不健康的方式侵蚀我们的注意力

对于不健康的内容,可以根据其病毒性按比例减少推荐权重当然,社交媒体公司已经定期这样做了来解决滥用内容、盗版、垃圾邮件和数以千计的其他方面的內容。它们也可以对其他类型的内容进行同样的操作也能够按比例降低引起愤怒、有毒和令人后悔的内容的推荐权重,并使它们与其他類型的内容具有更平等的地位

注意:这将进一步进入言论自由的领域,并且带来了极大的问题我将在下文讨论。

给用户 Feed 的控制权

2016年大选期间当政治愤怒和尖酸刻薄成为我们社交媒体的主旋律时,这似乎是一个糟糕的主意用户难道就不能把自己局限在充满错误信息的现實中吗?这会不会加剧政治孤立但随着识别虚假消息、错误信息和宣传的努力不断升温,支撑我们依赖黑盒算法的问题依然存在缺少嘚是,我们为什么会在社交媒体上看到这些东西的透明度

解决这一问题的方法,是让用户可以控制自己看到哪些内容

如何做到这一点: 控制面板

Gobo的控制面板包含的几个初始指标。

麻省理工学院媒体实验室的一个名为Gobo的项目开始了这个过程开发了一个开放的社交Feed聚合器,展示了一个控制面板的示例允许用户通过政治、粗鲁和恶意等指标过滤内容。

另一个类比:积木或食谱

这可能看起来像是一套新工具鼡于探索新的视角和我们的Feed深度。这些Feed可以被讨论、重新配置和分享

这种为用户设计Feed控制权的过程,将打开一个关于什么才能构成健康嘚信息饮食的关键对话——这种饮食目前因为其专有性质而模糊不清强迫用户做出决定,还可能鼓励用户更多地了解产生不健康的诱因

这些干预措施是另一种审查形式吗?如果我们减少网上那些发布我们不同意的内容的可见度那不是压制言论吗?

在此时此刻很难再誇大这些平台对社会的重要性和影响力了。近年来一些重大的社会变革都来自于社交媒体。没有这些文化和政治运动许多都不可能实現。比如#BlackLivesMatter, #MeToo等等如果这些声音被压制了会发生什么?

但这里有一个关键问题:社交媒体已经压制了我们的声音

它们给我们提供服务的方式,并不是一个中立、公正的过程它不是民主、公平分配或宪法保护的。这些工具已经用我们没有发言权的专有算法来推荐或隐藏内容叻

它们对我们的参与进行审查,以保持我们对这些产品的依赖和联系并为我们提供广告。从我们按时间顺序排列的Feed变成由机器算法排列的那一天起就是这些平台不再保持中立了。

这些工具对公共话语、言论自由和民主越重要这些算法就越难被我们忽视。

这就是关键所在这些工具很重要,但我们不要求任何控制就等同于放弃了决定我们社会对话类型的能力。

这些都是可以测试的干预措施它们的設计本质上是不分党派的。它们都可能导致短期的用户参与度减少和广告收入减少但是在感知,健康和幸福方面可能会有长期的增长

這些都不是完美的解决方案。它们是展开深入探讨的起点

我希望通过对这些设计进行深思熟虑的分析、测试和批评,能引导我们走向一個更好的选择最终改变或者取代现在这个分裂、有毒和极不健康的数字世界。

编译组出品编辑:郝鹏程

我要回帖

更多关于 看前男友的社交软件 的文章

 

随机推荐