查看原文
其他

算法调整到底如何影响用户?社交巨头频频变动,能让内容生态更好吗

2018-02-26 腾讯传媒 全媒派

巨头们迷恋的个性化定制资讯,几乎已经可以精准预测你想了解的人物,感兴趣的页面和你应当了解的当地资讯。哪怕再指责他们窥探用户隐私,你也无法阻止它看到你的喜好,甚至你的财富和情绪,可怕的是,你戒不掉互联网的瘾,它也戒不掉窥私瘾。



问题是,算法在让这个世界越来越方便的同时,是否让我们的信息环境变得更好呢?或许是有的。本期全媒派(ID:quanmeipai)就来聊一聊,不断演进的算法如何改变了我们的信息环境。



算法下的智能媒体环境


不得不承认的是,推荐算法已经成为当下信息环境中不可回避的一个部分,而这些不断调整的算法,的确帮助我们更好地与互联网相处。


Facebook


信息流中增加本地新闻比例


2018年起,Facebook开始在信息流中加大力度打击假新闻,同时更强调社交属性,宣布加大朋友分享和优质新闻源的出现比例,后又更新本地新闻比例,推荐更多朋友点击或将本地媒体发布的新闻推荐到用户首页。目前,这一系列策略已在美国推行,今年将推广到更多国家。


扎克伯格宣布2018年的更新动作


此外,Facebook还加入了Today In板块,目前已进入内测阶段,新奥尔良、小岩城、比林斯、皮奥瑞亚、奥林匹亚和宾厄姆顿六大城市的用户可以率先使用本功能,接收更多本地媒体资讯和当地官方发布的紧急消息。


Today In内容


新的算法采用了机器学习技术,当地媒体经由Facebook新闻合作组许可审查后,其报道能够登上Today In,在当地用户中获得更大阅读量。


扩大本地新闻在信息流中的比例也同样如此,这一举措对当地媒体或小众媒体是件好事,更集中精准的曝光量,有助于本地媒体,尤其是专注体育、艺术、情感报道的媒体巩固与读者的关系。令人欣慰的是,哪怕中心转变,它依然会继续打击假新闻、误导性报道、钓鱼新闻、情绪性新闻和不可信账号。


事实上,本地新闻(local news)属于Facebook在2016年特朗普意外当选美国总统后推出的新闻计划之一,其它的还有在信息流中加入突发(breaking news)和争议(disputed)标签,用技术手段控制假新闻的传播。


在信息流中加入突发标签


争议标签


能看光你钱包的算法Classifier


Facebook在2月1日向大众公开自己的算法黑科技,一键洞悉用户的财富情况,更好服务广告商,进行精准推送,大概等同于“在朋友圈看到奢侈品广告说明你很有钱”。


从树形图中可以看到,Facebook通过了解用户的年龄层、设备使用情况、教育水平、房产情况判断用户的经济状况,而个人旅游历史、网络使用和房屋信息也会列入参考,每一项加权计入总分,通过算法Classifier分拣后,所有用户会列为三类:工人阶层(working class)、中产阶层(middle class)、上等阶层(upper class)


Facebook算法专利的决策树形图


Twitter


自动裁剪图片嗨点,帮你当网红


Twitter在一项研究中利用眼球追踪了解影响注意力的因素,结果表明,人类很容易被人脸、文字、动物和一些强对比事物吸引。基于此,Twitter开发了图片自动裁剪机器人,利用机器学习技术,识别图片“嗨点”,并自动对预览图进行裁剪和优化。


以往的Twitter对图片的处理比较简单粗暴,一切有人脸的图片都在预览图中突出人脸,但没有人脸的照片则会比较奇怪。工程师开发了“认知提纯”(knowledge distillation)技术以识别图片中的有趣点,神经网络技术则加快了图片的处理速度。同时应用的“修剪”(pruning)技术,则确保算法能够保证不损伤图片优势的情况下,跳过图片的某些特征进行筛查。


如此一来,图片分享的难度大大降低,人人都有可能成为信息流中的修片圣手。


裁剪前:


裁剪后:


Netflix 


新图像算法,最大程度吸引注意力


熟悉Netflix的用户都知道,这家以算法著称的流媒体网站,对每个用户观看的视频标题都做了个性化处理。去年年底,Netflix再次公布技术升级结果:视频图片个性化推荐,即抓取用户可能喜欢的某一帧画面,或将剧中某一角色或场景艺术化处理作为封面图,以契合这1亿用户各自的兴趣点。


为新用户设计的推荐封面


举个例子,同样是电影《心灵捕手》,观看爱情电影较多的用户看到的封面图为Matt Damon和Minnie Driver的亲密无间,观看喜剧电影较多的用户,则会看到Robin Williams的片段。


不同用户的看到的电影推荐封面图


比起文字而言,图片会对用户产生更直接的冲击力,很难有人对这种标题、图片和设计全方位个性化的内容免疫。从更大的互联网语境下而言,我们无法评论这些算法是好是坏,但至少是一种趋势,互联网民越来越懒这一无法阻挡的趋势。


算法:想说爱你真的不容易


算法一直试图猜测我们喜欢什么,推送那些以为我们喜欢的内容。但,这些是否真的是用户喜欢和需要的呢?或许不见得。Twitter用户Caryn Vainio去年12月称,因为FB的算法,她连好朋友最后一面也没见到。因为好友长期不在FB上主动发状态,被算法列入低价值用户,连入院病危的状态都从未推送到好友首页,连再见都来不及说。



在不断被窥私的过程中,有人提出过对算法的质疑,然而,在技术大方向的驱动下,算法会调整,却从未停下。


受伤的媒体


Facebook:朋友看过的新闻


Facebook在1月宣布在信息流中加大“朋友/亲人看过”的新闻比例,在扎克·伯格看来,比起商业、品牌和媒体资讯而言,圈内资讯能让用户之间产生更多联系。


对用户而言,这似乎是个好消息,如小扎所说,少花时间泡Facebook,但花出去的每一分钟都该有价值。此前的一份研究报告表明,漫无目的浏览新闻的用户不会与资讯产生互动,这种感觉本身就会让用户感觉很糟糕,阅读“朋友看过的新闻”至少会提高他们的主动互动意愿,改善糟糕的情绪。甚至于,Facebook还牺牲了自己的短期广告收益,以求得用户认可,刺激用户增长。


此前一年多时间里,Facebook调整策略,减少对媒体的流量倾斜,部分媒体受伤严重。


媒体从Facebook获得的PV


娱乐网站Topix此前因Google算法变化元气大伤后,转而向Facebook支付流量,2017年12月数据显示,Topix的Facebook转化流量比在所有媒体中排名最靠前,达到35.3%,而Bustle和VICE的流量则下滑惨烈,和2017年初的40%转化相比,VICE 12月转化仅达到18.7%。2017一整年,从Facebook新算法中获益的媒体只是寥寥,委屈的还是大多数。


媒体流量倾斜策略下影响的媒体流量变化


这种“朋友看过的新闻或许你会感兴趣”的新算法,且不说是否会造成用户的认知局限,单是流量集中的形式,或许也会再一次导致媒体与平台的关系跌入冰点。


受伤的用户


无法清醒的Instagram 


Hellogiggles网站整理了其中几条对Instagram算法的排序的吐槽,其中一条高赞吐槽说道:



Instagram自2016年公布新的算法排序方式后,传统时间线被打乱了,自然催生了不少打败算法的攻略贴,比如多花点时间在ins上发状态、疯狂打tag、配合粉丝的活跃时间发状态(势必用到ins的推广工具Later)、和粉丝互动等等、建立品牌效应……


Ins的营销推广工具Later


然而,新算法依然让粉丝纷纷吐槽,于是Instagram不断改进算法模型,加入用户参与度、搜索量、点赞频率、关键词、发布时间,试图给用户一个“全世界最好的Instagram”,只不过唯一的问题是:用户需要的,只是一个可以按照时间线排序的Instagram。


Snapchat:用户的每一次更新都是渡劫


Snapchat悄悄更新了产品设计,用新的算法给“朋友”排序:喜欢的朋友排序靠前。据Snapchat解释:“你也可以把它作为一个智能的‘好朋友’算法,让你找人聊天时轻松找到想联系的人”,官方还补充,翻到底才能找到想找的人,这种糟糕的用户体验我们都有过,但现在,这些好友已经被自动置顶了。”


同时,还分开了“朋友”和“发现”右滑是“发现”,会有一些非朋友的媒体和博主的视频,且做了全屏处理,可以竖屏观看,当然,依然是Snapchat根据你经常点击的内容猜测的最合适你的内容。



当然,新版本的出现通常都伴随着吐槽,有人要“怒删”,有人觉得太“恶心”,有人觉得“忒复杂”,但Snapchat发言人回复《太阳报》:“此次更新之大,必然需要一些时间适应,但我们希望用户能够喜欢。”


用户是否喜欢需要时间去适应,但《太阳报》在文章最后,给出了避免升级的办法。


受伤的内容制作方


YouTube:严打(难打)侵权


为了打击屡禁不止的视频二传现象,YouTube对非官方发布的电视剧或动漫视频采取质量降级处理,这些二传视频可能出现加速、减频、画面震荡和雪花片现象,其目的是利用版权机器人规避侵权现象。



这是YouTube花了大力气开发的Content ID内容识别系统,提供封锁、追踪和盈利三种方式,通过标记内容以保护版权。但文化评论家Mike Rugnetta却认为,视频编辑有些“迷信”意味,YouTube迷信与内容方的关系,大费周章开发了一套一般人也能进行识别的系统,但是系统管得了盗传,却管不了同样是重灾区的下载行为。更何况,系统算法还常常错误标记,比如把一电脑电流声白噪音视频,标记成某一已有视频的电流声。


哪怕有严打侵权的好意,也可能办了错标视频的坏事,在一定程度上也可能影响UGC生态,即使非官方用户标记自己“不拥有版权”。所以,不少up主更选择了版权开放,甚至不再内嵌贴片广告。


系统算法其实从来没有跟上侵权的速度,哪怕用户是抱着好意分享的目的,早几年就有人提问:“如何绕过YouTube算法?”每次内容识别升级,答案就会更新一遍,手把手视频教学更是不少。


近几年的新形式是blind reaction,双屏播放,画面中能看到up主的实时评论和反应,完全合法,几乎从未甚至无法被标记为侵权,比如用户TheFlamingShark,不止二传,还传完了完整的《星际牛仔》动画,人气依然高涨,既没被平台处理,也未得官方追究。


TheFlamingShark 观看《星际牛仔》


至少在媒体LifeHacker看来,版权机器人的开发有些徒劳了。要想维持平台每天大量的内容产出,仅靠部分内容制作方远远不够,二传再制作就成了其中一个内容来源,至于是否打击或如何打击,这需要YouTube动脑筋了,至少up主们已经越来越聪明了。


受伤的社会环境


YouTube:算法扭曲了真相


在推荐算法的驱动下,YouTube常常根据用户的浏览记录、点赞记录等为他们推荐相关视频,即时用户只是偶然点开。这在一定程度上推动着有煽动性的或虚假的消息大肆传播,至今美国人民无法释怀的特朗普的当选,其军功章背后也少不了算法的功劳。


《卫报》Paul Lewis举了一个例子,一月初,Vlogger罗根·保罗探访日本自杀森林,因为视频不尊重死者,有哗众取宠之嫌,视频下架,保罗道歉。然而,看过视频的用户,其观看行为已经被算法记录,推荐列表里,有保罗粉丝的模仿秀、儿童盗窃的监控录像、儿童拔牙等让人感到不适的内容。这是算法的功劳。


更让人不适的,是YouTube算法也在推动阴谋论的传播,拉斯维加斯枪击案事后有段声称阴谋论的视频被大肆传播,而损害儿童身心健康的邪典视频,也在算法的驱动下获得了极大的观看量。


拉斯维加斯枪击案阴谋论视频


《小猪佩奇》邪典视频


如果在YouTube搜索“谁是米歇尔·奥巴马?”,随之而来的推荐视频都是“她是男性”,有80%的天主教相关视频把其领袖形容成“恶魔”、“反基督”和“撒旦”,此外,每天还有几百万声称“地球是平的”视频被上传,一切都只是为了满足算法需求,获得更多推荐曝光。


在不加监控的情况下,算法已然无法为用户提供中立有用的内容了,算法与个人兴趣之间形成了一个怪圈,不断恶性循环。


技术并不作恶,为提高效率而传播速度而生的机器算法,表面上看的确中立,但正如《嬗变的主体性和缺位的公共性:没有价值判断的个性化算法,真的让内容更好了么?》所言,没有价值判断个性化算法下的内容,是否让内容变得更好,或许还要打个问号。




您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存