2017年4月16日,广州,第121届广交会,广州智能制造展示区首次亮相。展示区的五子棋机器人,通过算法计算出机器人的最优下棋位置,通过运动控制执行下棋动作,从而实现人机对弈。供图/CFP
越来越多的资讯聚合类客户端运用算法机制进行新闻分发,这些没有新闻采集制作资质、不做原创新闻而以算法推荐机制为主的新型信息分发平台,日益成为新闻业主力军。艾媒咨询发布的《2016Q4中国手机新闻客户端市场研究报告》显示,资讯聚合类客户端今日头条(34.8%)、一点资讯(6.4%)和Zaker(6.2%)的活跃用户总量占据所有新闻客户端人数的47.4%。资讯聚合类客户端,促使原本纵向整合的“采制-编排-出版”的专业化新闻生产流程分崩离析,重塑着新闻生态,并冲击着传统的新闻理论。其中,媒介社会责任理论作为新闻理论构成中的核心概念之一,自然难以摆脱这轮变化的影响。
媒体社会责任的“破、立”之争
2016年12月,在《财经》杂志的一篇访问文章里,今日头条CEO张一鸣强调今日头条“算法没有价值观”等观点,引发了算法推荐新闻的优劣之争。
争论一方认为媒体必须要有特定的价值坚守,这需要人工加以干涉(坚守派);另一方认为媒体应当保持中立,不应拘泥于特定的价值观,人工不应加以干涉(破除派)。虽然在主观意愿上破除派在否定资讯聚合类客户端的媒体属性,但事实上,从用户和业界的认知,以及这类产品实际发生的作用来看,它们都有着不可否认的媒体属性。
透过喧哗的表面,双方争论的核心可以归结为一点——媒体应该坚持固定价值还是多元价值?这一问题直指媒介规范理论本身。目前,人类社会的媒介规范理论总的来说可以分成六个基本类型:“极权主义理论”“自由主义理论”“社会责任理论”“民主参与理论”“发展中国家理论”和“社会主义国家理论”。除极权主义理论已经被大多数国家抛弃外,其他五种类型的媒介规范理论仍在新闻实践中发挥着不同程度的指导作用,其中社会责任理论是目前的主流。
社会责任理论是一种以西方为本位、以传统媒体为背景的传媒指导理论,主张通过新闻界的自律、政府的干预和公众的监督,促使新闻界履行负责任的自由,认为新闻媒体不仅担负着即时传播真实新闻的责任,更承担着舆论监督及道德导向的义务。
随着技术的进步,新闻行业均在不同程度上采用了算法机制,因此围绕算法机制的优劣而产生的关于媒体社会责任的思索和讨论在业界和学界便一直断续有之。透过社会责任理论的核心要义,我们发现坚守派在手段上坚持的依然是社会责任理论的精神内涵,试图通过媒体对特定价值观的坚持和引导,达成社会共识从而实现社会和谐进步的目的;破除派则声称不应坚持特定价值观,而应充分尊重受众一方,通过多元价值的相互博弈来消解掉一个绝对力量的存在,这才是促成社会和谐进步的有效方式。
那么破除派的思路有没有可行性呢?算法机制给我们提供了一种多元化参与的可实施途径,然而问题在于,机器算法宣称坚持价值无涉,“不干预用户喜好,不干预在社会和法律容忍下的多样性内容”,在实际操作过程中,这一决策下的方案能否如它所言,真的保持中立?
机遇:从算法机制的应用看“中立性”
资讯聚合类客户端的算法主要用于给用户推荐新闻,它根据特定的编程,将用户的兴趣、社交、阅读终端等各类可能影响用户阅读的因素编入公式后,根据计算结果给用户自动推送新闻。从不同算法的设计思路来看,可以分为以下五种:基于内容的推荐机制、基于兴趣的搜索机制、基于社交的推荐机制、基于相似用户的协同过滤机制以及算法和人工混合的推荐机制。
综合来看,可以纳入算法公式的主要考虑因素有五类:第一,用户个人特征。比如兴趣、情感、职业、年龄、性别等,主要通过用户的注册和阅读行为来判断,用户的每一次点击、评论都是一种回答,都被系统记录,和关键词、Dom标签、作者、阅读时间等等一起构成多维数据矩阵,刻画出读者的特征。第二,用户网络环境。例如用户手机类型、使用的是Wi-Fi还是移动通讯流量、网速如何等。第三,用户社交特征。主要是指用户社交圈中好友的个人特征,以此来推断用户的隐性特征。第四,文章自身特征。它有哪些主题词、命中了哪些标签,还有它的热度,是不是很多家媒体都转载了。包括文章时效性和相似文章推荐。第五,人工编辑对新闻价值的大小判断。
对五类因素采取什么样的决策规则直接影响着算法中立性,目前主要的决策规则有排序、分类、关联和过滤。排序的过程就是给各影响因素的优先次序排序,意在强调部分因素,弱化其他因素;分类的过程主要是根据对特征的判断,将信息归至某个特定的类别;关联的过程主要是根据实体的相似度标注出不同实体之间的关系;筛选的过程主要是对内容或文章进行审查,在这个过程中会选择或排除某些信息。
综上可见,在不同的算法机制中,人为因素的影响处处都在。比如就用户特征来说,哪些用户行为可以纳入用户特征这个要素,对各行为重要性的赋分等。因此,所有算法从实质来看终归是人类的创造品,其中蕴含了算法编制者、所在机构的意图、所在机构的管理部分的意志等多种因素,算法“是可以被商业、政治等非技术力量操纵和改变的”。简言之,算法看上去是机器的力量,但决定算法的,是人。算法离不开人,有人的参与便会产生主观倾向,因此算法不可能是绝对中立的。
挑战:算法机制如何靠近“中立性”
通过算法来保持绝对中立,在现实操作层面存在很大困难。但算法的中立策略,是一条修正媒体社会责任理论的新思路,尽管随之而来也有许多新挑战,但这并不会成为放弃中立性的理由,因为算法机制在媒体中的渗透已然成为不可逆转的趋势,更为有益的态度应该是针对这些挑战来给出应对策略,使算法达到越来越“中立”的目的。
企鹅智库2016年的一项调查显示,用户对个性化资讯客户端(即资讯聚合类客户端)的信任度为14.2%,远低于门户网站新闻客户端(46.3%)、电视(40.6%)和传统媒体(24.9%)。这一数据也进一步揭示了用户对算法所谓中立性的不信任。用户的不信任源于算法机制暴露出来的三个主要问题:一是虚假信息的泛滥;二是单纯算法推荐会埋没重要或关键的信息,带来偏见与歧视,造成信息茧房;三是算法黑箱导致信息被操控。因此,有效克服这三个问题,是增强算法中立性的关键所在。
1.对抗虚假信息——算法+人工审核。今日头条的做法也许最有代表性。2016年底,今日头条宣布放弃绝对不使用编辑的原则,采取算法和人工共同合作的方式对谣言和不实信息进行审核。具体方法是,算法通过消息评论和用户举报等渠道的反馈,抓取符合谣言特征的内容,交给编辑进行人工复查。如果内容一旦被判断为虚假信息,该内容的推荐和展示均会被运营平台禁止,同时内容发布者会受到相应的处罚。如果是影响范围很广的不实信息,辟谣机制则会启动精准定向推送的功能——对于看过和未看过谣言的用户,系统会区别对待:对前者自动推荐辟谣文章,后者会根据用户的需求正常推荐其他内容,不会强制推送辟谣文章。针对虚假信息,所有的解决方法基本可以归为三类:招聘人工编辑、众包、算法式解决方案。
2.破除信息茧房——给予算法控制权。基于内容和兴趣的推荐算法,有一种形象的说法叫母亲算法,即用户喜欢什么样的新闻,便推送给他什么样的新闻。这种方式的一个最大弊端就是造成信息孤岛,只能根据出用户的显性行为来推断他的喜好,因此就有了基于社交和协同过滤的算法。2015年6月,国外公布的一项实验研究表明,当用户能够主动参与调整算法结果时,对整个预测工作更满意。但这一实验只从主观方面评测了用户对算法的满意度,实际上还不能成为推翻信息茧房这一假设的有力证据,尚待进一步的检验。这一实验更重要的意义在于提示我们,让用户参与到算法的制定过程中来,让他们能够对算法进行更多的主动设置,这种策略可以成为我们应对破除信息茧房的重点考虑对象。
3.打破黑箱——算法公开。算法在后台运作的属性无形中赋予了算法制定者隐形而又强大的新闻选择权,随之而来的怀疑就在于:算法制定者们的身份是什么?谁赋予了他们制定的资格和权力?他们带有什么样的价值倾向?哪些内容是被故意挑选出的?那些被屏蔽或删除的内容是什么?由于算法的复杂性,多数人并不能真正明白算法的实际计算原理和过程,这令算法成了无人监管的黑箱。打破这一黑箱的方法便是算法的公开,让用户参与到对算法的检视中,通过用户的监督,来形成对算法制定者权力的抗衡。(董小菲:山东女子学院文化传播学院讲师)
参考文献
1.彭兰:《机器与算法的流行时代,人该怎么办》,《新闻与写作》,2016年第12期,第27页。
2.李沁:《“第三媒介时代” 新闻价值的定位与建构》,《新闻与传播研究》,2015年第4期,第42页。
3.曹三省,《新闻机器:智能传媒之路又一程》,《青年记者》,2016年第2期,第26页。
发表评论