前沿•智能时代人的价值

 2017-08-18 11:02   彭兰

  机器与算法将是未来新闻生产的常态。未来人在信息生产中的角色和工作方式,在一定程度上也会发生变迁。人在未来信息生产中的重要程度,取决于其对于那些不可替代的角色的认识与实现程度。在机器时代,我们需要一些新的技术伦理与法规的约束。

  “2016中国新媒体趋势报告”发布,报告研究焦点是智能化媒体。在我看来,这是未来新媒体的重要发展趋向。在2013年我第一次与腾讯网合作的趋势报告中,便提出了影响未来媒体发展的七大博弈,“人与机器的博弈”被列为其中,报告指出,在网络媒体的未来发展中,还将有一种全新的力量出现,那就是“机器”。

  机器与算法:未来新闻生产的常态

  这样的观点是源于当时我对美国Narrative Science公司推出的自动写作工具的认识。2011年,用Narrative Science软件写作的新闻稿件已出现在包括福布斯网站在内的一些美国媒体上。2012年,这样的现象引起我的关注,凭直觉我意识到,这是影响未来新闻业的一个趋势。而从那时以来,类似的消息不时出现在我们视野里。

  2014年7月,美联社宣布用机器写作软件(Wordsmith)采写财经新闻,包括突发事件短消息和公司业绩报道。

  2015年9月,腾讯财经开发出自动化新闻写作机器工具Dreamwriter,并且逐步向风格化、个性化写作方向进化。

  2015年11月,新华社推出自动新闻写作工具“快笔小新”,“快笔小新”的“写稿流程分数据采集、数据加工、自动写稿、编辑签发四个环节。技术上通过根据各业务版块的需求定制发稿模板、数据自动抓取和稿件生成、各业务部门建稿编审签发‘三步走’来实现。”

  2016年8月的里约奥运会,催化了机器新闻写作的升温,因为体育报道正是机器写作所擅长的领域之一。署名为Dreamwriter的奥运消息在腾讯网随处可见,今日头条开发的写作机器Xiaomingbot也在奥运会报道中频频出手。美国《华盛顿邮报》的工具Heliograf,同样可以快速生成如比分、金牌总数以及其他以数字为核心的报道,并依托《华盛顿邮报》网站和它的Twitter 账号进行信息发布。

  目前的机器写作主要侧重于数据的采集、分析和提炼。它的快速推进,再度强化一个事实:数据是新闻生产的新思维、新资源,未来的媒体的竞争,将越来越多的是数据平台与数据采集、处理能力的竞争。

  虽然机器写作推进的速度超出想象,但无论是媒体人还是用户,对于这一现象都心存疑虑。机器写作不够自由个性、没有质感与温度,机器没有人的创造力,一直是今天人们对机器化写作的主要批评理由。但现实是,IBM的智能机器已经可以写作古诗,微软的智能软件可以创作对联,随着机器的自然语言理解、机器学习等能力的加强,未来的机器写作未必不会在个性、风格与情感这些方面实现突破。

  从技术发展趋势来看,未来的媒体将出现人-机一体的新闻报道体系。机器的作用,不仅仅是自动获取数据并进行填充,还将体现在:引导新闻线索的发现、驱动新闻深度或广度的延伸、提炼与揭示新闻内在规律、对内容的传播效果进行预判等方面。对机器能力的挖掘,成为未来深度报道发展的一个方向。

  机器深层进入新闻生产,还有赖于信息自动采集技术的提升,这与物联网的发展紧密相关。移动终端的LBS数据应用,已经成为物联网信息采集的先驱,并由此带来了“百度迁徙”等项目。而未来传感器的普及,将意味着自动化信息采集的大规模应用。作为信息采集工具的传感器,可以达及人的感官不能达及的深度与广度,这将为机器写作带来全新的可能。

  虽然机器化写作进入我们的视野时间并不长,但机器早就悄然进入新闻生产领域中。2004年起,谷歌、百度都推出了机器自动整合的中文新闻。即使很多人并不了解其新闻编辑的机制,但他们已经在享受机器编辑新闻的成果。

  今日头条、一点资讯、天天快报等个性化新闻客户端的兴起,让机器编辑这一现象完全浮出水面。当然,在这些新的客户端里,机器编辑改头换面成了“个性化算法”。与过去谷歌、百度新闻不同的是,个性在算法中成了权重最高的变量。

  作为对信息过载的一种自我保护,多数用户顺从地接受了可以节省他们信息获取成本的个性化信息推送算法。今日头条在新闻客户端市场的排名不断上升、目前基本稳定在前三位便是一个佐证。但对于个性化信息推送,用户也是矛盾的。在企鹅智酷面向用户的调查中,认为个性推荐能完全满足获取资讯的用户为15.2%,另有70.3%的用户认为满足程度为一般。认为个性推荐的内容太少(32.6%)和认为它会让视野变狭窄的用户(32.3)比例相当,而认为推荐内容不准(30.7)和推荐内容低俗(29.4)的比例也相当。

  今天用户所担忧的一些问题,未必是阻止机器与算法进入新闻业的理由,因为技术在某些方面会消除那些担忧。但这并不意味着,机器将垄断未来的新闻业。机器时代,人的价值的重新认识与定位,变得更为重要。

  超越算法:机器时代新闻生产中人的价值

  可以预见的是,未来的媒体生产将越来越多地基于人-机共生、人-机互动模式。尽管我们不必对机器的“入侵”过于悲观,但在人-机互动中,我们需要时刻思考:人如何把握机器智能的方向?如何超越算法,坚守人的价值?

  算法看上去是机器的力量,但决定算法的是人。人的失误会带来算法的偏差。不能发现或者无视偏差的存在,也是人的过错。在算法大行其道之时,人应该有更高的能力对算法进行评判,及时发现与纠正算法中可能存在的陷阱与漏洞。

  算法的常见陷阱之一,是它会带来的偏见与歧视,而且是用更隐蔽的方式。例如,搜索引擎的搜索排序,是算法交给我们的答案,但这其中,时时可能隐藏着人的干预造成的信息不公正、不均衡。如果搜索引擎服务的提供者不能尽可能保证信息的公正,如果搜索引擎的使用者不能提高对搜索结果的判定能力,那么,我们会一次又一次因算法而误入歧途。

  在公共信息环境的营造方面,算法也并非总是带来客观公正的结果。在算法不成熟、不完善的情况下,相比以往由媒体人所营造的拟态环境,机器算法之下的拟态环境,未必会更接近真实社会,甚至可能会出现更多干扰人们认知与判断的假新闻或噪音。

  2016年美国大选结果揭晓之后,Facebook在大选中的假新闻传播问题遭到质疑。而假新闻的增加,与Facebook采用算法而不是人工进行信息推送有一定关联。在2016年大选之前的一年中,Facebook是由人工进行信息筛选,然而有批评者认为其故意屏蔽掉一些偏向保守派的言论。于是在2016年8月,Facebook撤掉了其编辑小组,将人工审查、筛选内容改为通过计算机算法进行信息筛选。但也有批评者认为,也许这个变化给Facebook带来了更多假消息,干扰了选民的判断。

  尽管Facebook创始人扎克伯格认为,选民是基于他们的生活经历来投票,而不是仅仅基于在Facebook看到的假新闻做出决定。我们现在也并不能简单推断Facebook的信息推送算法是否对美国大选的结果造成了影响。但这样的事件在提醒我们,要警惕机器算法与个人兴趣双重过滤下人们对外界认知与判断产生的偏差。

  进一步,我们还要问:建立在大数据、人工智能等基础上的个性化算法虽然能理解并顺应人们的行为,但它们真的能读懂人性吗?徘徊在人的低层次需求上的算法,是否真的是人性的?完全围绕人的外在兴趣和行为建立起来的算法,是否会把人们带到“作茧自缚”的境地,形成“信息茧房”效应?

  就像美国学者尼葛洛庞帝在《数字化生存》一书中所说的,在极端个性化的“我的日报”的同时,我们还需要公共性的“我们的日报”。因此,以公共化信息来平衡个性化信息,是未来新闻业必须坚持的。未来的算法不仅要解决个性化信息推送的问题,也应更好地实现公共化信息的推荐。

  作为算法底层基础的数据,同样也可能随时成为陷阱。片面的数据、错误的数据、失真的数据,不仅不会更真切地映射环境和事物,反而可能成为一面哈哈镜。在数据质量无法保证的今天,我们更需要警惕贴着“客观”标签的数据哈哈镜。另一方面,我们也需要利用机器和智能来防止人为的数据造假。

  即使算法和数据都是合理、准确的,我们也不能把未来的媒体都交给算法。算法只是未来信息生产与分发的方式之一,而不是全部。人应该超越算法,保持自身对现实世界的洞察力与判断力。

  在机器可以大规模地进行信息的收集、加工与分发时,对这些信息的价值判断、真伪判断,还需要人,这既包括专业的媒体人,也包括有良好的媒介素养的普通人。

  在机器可以批量地进行事实性信息生产的时代,人的力量将更多地向意见性信息(如评论)生产倾斜。而有公共价值的意见的产生,是建立在人的判断与分析能力基础上的,即使机器可以帮助媒体更好地描绘现实世界的图景,但是对这些图景的解读,还是依赖于人。

  无论如何,机器进入到新闻的智能化生产领域,都不是坏事,它会在一定程度上将人从那些简单重复的信息生产中解放出来,这会促使人重新思考自己在传媒业中的核心价值,将自己的弱项交给机器,而强化自己的强项,当然这样一个判断与迁移过程将是漫长的。未来人在信息生产中的角色和工作方式,一定程度上也会发生变迁。人在未来信息生产中的重要程度,取决于其对于那些不可替代的角色的认识与实现程度。

  技术伦理:机器时代的缰绳

  人不仅需要警惕对于算法的迷信和误用,更需要警惕自身出于某些利益因素对数据、算法、机器的裹挟与滥用。机器时代,我们需要一些新的技术伦理与法规的约束。数据使用的伦理在今天的时代变得尤为突出。

  大数据时代,人在被全面数据化、可跟踪化,也就意味着,隐私泄露与侵犯在随时随地发生。当我们打着个性化服务的旗号随时随地进行着个人数据的收集时,如何在个性化服务与隐私保护之间实现平衡?个人信息数据收集与使用的边界该如何确定并得到有效实施?个人数据保护的技术之盾能否防住隐私侵犯的技术之矛?隐私权与被遗忘权,是否应成为新媒体时代个体的新权利?

  另一方面,当一个媒体、一家公司拥有了具有生杀予夺意义的数据与算法时,它们的权力是否应该被约束?

  对于这些问题的回答已经变得越来越迫切。而伦理与法规、自律与他律,则是缚住技术这匹野马的缰绳。

  虽然机器未来会具有更强的自我学习能力,变得更智慧,但是,当机器犯了错误时,谁应该为其负责,机器还是人?

  2016年9月,英国标准协会(BSI)发布机器人道德,指出:机器人的设计目的不应是专门或主要用来杀死或伤害人类;人类是负责任的主体,而不是机器人;要确保找出某个机器人的行为负责人的可能性。

  这些关于机器人的伦理,也适应于更广泛的智能机器,它们其实是指向主导机器的人的伦理。在引入人工智能和机器化生产的传媒业,这样的伦理原则,也值得参照。

  在未来人机博弈的传媒业,虽然还有很多不确定性,但有一点是可以确定的,人需要更好地提高自己驾驭机器的能力,否则,或许有一天,我们会被机器所驾驭。

(作者单位:清华大学新闻与传播学院,编辑李楠)