强国社区>> 新闻论坛
传媒频道 发表于  2016-08-21 23:35:54 5445字 ( 0/79)

雷明:腾讯优势技术和网络媒体业务的融合之道

人民网深圳8月21日电(记者 燕帅)由人民日报社与中共深圳市委、深圳市政府联合主办的2016媒体融合发展论坛技术分论坛在深圳举行,腾讯企鹅媒体平台负责人雷明发表题为“腾讯优势技术和网络媒体业务的融合之道”的演讲。
以下是腾讯企鹅媒体平台负责人雷明演讲全文:
大家下午好!
我这个装扮,刚刚同事跟我说,你有没有有领的衬衣,我说我好久没有准备这种东西了。像我们这种典型的技术人员,这种装扮也是我们平时在企业里面最日常的装扮。
刚刚听到财新网黄老师说,数据都在“BAT”里面,这个确实是实话,尤其是阅读行为的数据,确切来说都在“T”里面,在这个论坛之前我跟陈川老师做了交流,陈川老师也说现在对于传统媒体,最大的优势是内容生产和原创能力。对于互联网来说最大优势是内容分发渠道和用户理解能力。所以说两边应该有非常多,各方面不管是内容上还是技术上合作的地方。
今天我也借这个机会,给各位一起分享一下,我们腾讯媒体业务,在和串通媒体融合的一些点。
信息技术持续在变革,信息技术的变革一直会影响着信息传播的方式。最早期信息的传播,更多是靠形体语言,其实这种传播方式,现在在生物里面也会有很多体现。大家如果读过KK的《失控》,他会讲到蜜蜂会通过群体翅膀的抖动,和一些转动来传播他们群体的信息。随着人类技术的发展,象形文字和文字的出现,让信息传播更加便利,同时信息的可复制性还有信息的一些传播的成本,还有它的延续性和生命周期也大大提升了。但是这个时候会有一个很大的问题,当时的信息载体,比如说甲骨或者丝泊、纸张成本非常高。
而进入现代,报纸、电视、广播这样的载体,成本快速下降,所以导致信息产业和媒体产业快速成长。而进入到互联网领域之后,信息更是零成本复制。而这种复制的方式,也导致网络媒体快速星期快速成熟。但是我们看,无论是信息技术怎么变革,媒体产业如何变革,离不开一个内容,信息内容本身始终为王。同时我们还发现,用户阅读信息的渠道不同的时候,用户对于整个阅读行为也是不一样的,尤其在社交场景下,用户更愿意表达自己的感受,而且特别愿意去让信息能够理解自己。其实这两个点,是在不同阅读场景下一个特别大的变化。
而腾讯媒体业务,拥有中国目前,最优秀或者说最大的用户触达渠道。我们拥有腾讯新闻,是目前中国最领先的资讯APP产品,还有我们最近打造的天天快报,是另外一个基于兴趣阅读的产品,以及我们传统的门户像腾讯网,还有在社交媒体渠道微信上的新闻插件。其实这些载体,很多朋友就会关注,你们腾讯作为一个网络媒体,你并不能生产内容,你如何去保证你的这些内容,能够第一时间快速的触达给广大的网友?同时用户在不同场景下,阅读兴趣是不一样的,腾讯如何做到以最高效的方式把用户最关注的内容推送给用户?
这个是我今天跟大家具体分享的,腾讯的一些做法,希望能跟整个媒体融合的论坛,给大家有一些借鉴意义。
我们先回归到信息和内容本身传播方式,信息从内容生产方生产内容,到内容发现和聚合,到内容分发,有三个大的环节。在内容生产方,目前主要的内容生产者,更多是出去媒体,包括人民网、人民日报、新华。另外是一些地方的政务机构,还有一些PGC和UGC平台,或者个人做内容生产。内容生产完成之后,内容会通过类似于像腾讯这样的一些网络媒体渠道,或者其他的渠道进行聚合,并且进行内容的分发。
“内容的分发”会有几种不同形态,最早是传统门户形态,传统门户更多是目录结构,大家说:“什么叫目录结构”?,目录结构就像数据一层一层,新闻下有国际新闻、国内新闻、社会新闻,财经下有A股、港股、理财、上市公司,这是传统目录式。
社交场景下有典型的订阅方式,你喜欢我订阅我,最典型的是微信订阅号和微博大V。另外一个分发方式是基于用户兴趣和及其学习的推荐分发。这三种分发方式组成目前最主流的内容分发渠道。
腾讯在这三个领域分别做了哪样的解决方案,解决这样的一些痛点,包括内容生产、内容发现、分发的痛点。
首先内容发现领域,因为从内容产生之后,我们腾讯是没有生产能力的,我们最主要是怎么样快速聚合内容,怎么样快速发现内容。这里我们内部打造了一个很强大的内部监控体系,帮助编辑团队发现内容。整个体系包括四个大的纬度,从数据采集到数据互通,再就是对舆情监控,以及热点事件的趋势预测上。
在信息采集领域,我们目前采集了目前已知所有各大内容提供方所有内容来源,包括资讯APP,微信、微博上的大V,外媒、通讯社,核心的报纸、周刊、机构、政务,包括线人渠道和自媒体,这是我们整合最全的内容形态,每天大概有40万篇以上的内容会采集到这个平台上,内容采集后这时候最大的难题是怎么样把最优质的内容筛选出来提供给采编团队分发?这个时候基于我们自己,会有自己的机器学习技术,把重要的内容,去筛选、排重,根据媒体本身的权威性根据媒体本身内容报道纬度,我们会对机器进行排重学习,同时会有采编团队帮助我们标记整个内容的标签,用户的标签,保证内容被机器能识别出来。其实机器是不懂人的,必须要有人告诉他,什么是好内容,什么是不好的内容,机器是无法判断这个东西的,你只有通过人告诉他,什么是好什么是不好,机器才能去持续的自主学习。
同时当内容被机器学习和分析出来之后,我们整合整个内部的复杂的分发渠道,让内容第一时间能够触达到值班编辑以及最终用户。然后当事情发生之后,其实最关注的是事情持续的进展以及舆情的变化,所以我们也打造了整个舆情的监控。还有是当一个事情发生之后,更多人关注的是下一个事情在到来的时候,我能不能提前知道,会不会火起来?这个是非常多关注的点,所以基于趋势的预测,也是我们在平台里面,主要打造的能力。
这个平台最终我们内容做到,在全球各种形态内容源,能够在10分钟之内保证内容被我们监控和抓取到,同时也可以预警给采编团队,去把内容推给最终用户,我们打造了一个内容监控体系。
另外,在大事件发生的时候,我们会发现整个采编体系会有一个非常大的痛点,当一个事情发生之后,用户往往关注的并不是事情本身,他关注的更多的是事情,以及事情的周边内容,不只是说这个事情是什么样的,人都有八卦心理,他也许把一些其他东西或者相关领域,但是正常传统组织结构里面,更多是以本身垂直领域的结构在划分,比如新闻同事做新闻,娱乐同事做娱乐,财经同事做财经,在大事件发生之后,其实最典型的是马航事件,关注的并不仅仅是飞机坠落事件,更关注的是对旅游、财经,各个体系的影响。各个团队之间,怎么样互相协调?是当时我们遇到一个非常大的难点,基于这个难点,我们解决方案是打造一个多屏互动的体系,当事情发生之后,我们希望一个信息流,能通过不同的端,不同的渠道去触达给需要触达的人,让他在任何地方能够去审批,能够去保证信息发布的及时性。这里面“端”包括电视端,手机流和PC流,传统值班编辑更多是在PC流做,有一些需要审批的可能是在手机上进行更多操作。同时当一些大事件全景纬度,我们希望通过电视呈现整个事情的全景纬度,这个是大事件发生的时候我们的解决思路。
刚才讲完了内容监控和内容发现领域我们的解决思路,在内容生产领域,我们的解决思路是这样的。因为网络媒体没有内容生产能力,我们希望更多和我们传统媒体,和机构做好合作,包括人民日报这样大的媒体集团,我们希望更好跟这样的机构做好合作。我们希望把我们的能力和我们的渠道,都开放给传统媒体和我们的政务机构,让这些最优质的信息,能够第一时间通过腾讯的渠道触达给广大网游。
这里我们提供了包括RSS同步解决方案,包括媒体倒流,因为传统媒体更关注的是流量和盈利模式。
另外直播领域,我们希望把我们的直播能力开放给传统媒体。因为传统媒体在大事件的现场直播上,是有先天性的优势,这个是我们网络媒体确实不具备,也很难去做太多的革命的。这个时候就需要我们传统媒体的内容,来帮助整个网络媒体,更好的内容分发。所以直播的能力,我们希望更好的去开放给传统媒体。
还有一个方面是“本地化的内容”,本地化的内容是最贴近用户实际需求,最贴近用户的关注点。所以说本地内容,我们也是希望把本地内容的能力开放给传统媒体,包括把我们推送的渠道开放出去,让这些能力帮助更多传统媒体,做好内容的下发。
刚刚说完的是内容分发模式,另外一个是大家之前一直提到的大数据的学习模式,大数据的学习,其实主要会分成两个大的纬度。第一个是用户画像,第二个是推荐算法。用户画像,腾讯我们怎么做的?在用户画像里面首先第一个,我们融合了整个QQ和微信,他们两个应该是作为“国民帐号体系”,基本上每个人都有QQ号或者微信号。这个是作为我们对用户识别,用户画像的一个最基础的能力。另外一个用户在整个腾讯体系下的内容,以及它的标签。包括它在社交场景,资讯场景,电商场景,以及阅读普通的生活服务的场景,这种标签的采集能力,我们会把用户的登陆行为,以及用户的阅读行为,各种生活操作行为,都采集起来,这是我们用户画像的第一步,对画像和用户登陆行为的采集。
用户行为采集之后,我们更多的是希望整个用户的画像不单单只是一个画像,我们希望把它识别成一个真正的人。人看人和机器看人是不一样的,机器看人是结构化的,结构化的意思是说,因为机器是一个数据库,每个人都有具体的标签、行为,阅读行为是什么,年龄标签是什么?你的阅读场景是什么?
所以针对用户的兴趣,用户属性和用户的场景,三个大的纬度,我们分别去做了,对用户兴趣的采集和标准化,这里包括用户的阅读兴趣,用户互动兴趣。

第二个是对用户属性变化,这里包括基本的用户年龄、职业、性别,最重要的一个是对用户使用场景的一个标准化。这个场景其实是非常不一样的,是非常重要的一个地方。传统大家说,比如说用户画像,更多是兴趣和属性,但是实际上用户的兴趣并不单单只是兴趣,更多是在使用场景。
比如说王宝强事件,平时不关注娱乐的人,他可能都会扒一扒这个事情的进展。女排事件也是非常典型的,女排发生之后,很多人平时可能看女排很少,但是在今天这个事情发生之后,所有人都希望吼一句,助威一句,不同场景用户行为不一样的,所以怎么样识别用户在不同场景下的阅读行为。这里包括你的阅读位置,地理位置。比如说像我,我老家在湖北,我自己在北京工作,我除了关心北京本身的一些事情,同时我也非常关注我家里的事情,怎么样把你这个人,你的家乡,你的生活地,你的居住地,能够区分出来,是非常关键的。
我们现在正在做一个特别有意思的案例,怎么样区分?北京回龙观宇宙中心技术互联网镇的一个行为的收集,怎么样把这个小镇里面用户所有大大小小的事情,你关注哪个小区又发生什么事情,第一时间触达用户,这个事我们在这里面做了非常多的努力工作。
说完前面的用户画像的标准化和用户画像的采集,另外一个是我们说的,推荐算法体系。推荐算法也是基于用户画像和用户阅读行为,并且以机器方式分析好用户本身兴趣进行分发。刚刚也提到过,用户兴趣不是持续存在的。
比如说当你去买房子的时候,你可能特别关注房价。当你去买车的时候,你可能对车子的信息特别感兴趣。但是过了这个时间,你可能就不感兴趣了。这段时间周期该怎么识别,需要非常多的努力。
另外还包括随机的兴趣,当一个事情发生之后,大家可能都会特别关注,都会扒两句这种普世性兴趣都存在,你不能因为用户普世性兴趣决定用户对这个事情感兴趣。比如说他看了王宝强事件,他是不是对娱乐感兴趣?不一定,如果在这里边做甄别?我们解决方案主要是三个大的程度:“第一个是内容的关联度,第二个是兴趣的关联度,第三个是场景的关联度”。
内容的关联度主要是保证,让内容与用户点击行为做匹配,第二个兴趣关注度主要保证用户阅读兴趣和阅读标签,能够和内容的标签进行匹配。第三个就是对用户场景的收集,包括他的地理位置,包括他的一些持续的阅读时间,是早上读还是中午读还是晚上读,这种不同的阅读的场景,进行收集,进行控制。所以说这三个关联度,是我们做整个推荐算法的最关注的体系。
与此同时,对用户兴趣的收集和用户关联度这种收集,主要是通过协同推荐的算法,和内容精编的体系,目的打破信息传播壁垒,让用户对当前场景下最感兴趣的内容,即使推送给自己,这个时候会让用户有一种惊喜感和喜爱感。比如说当我在家里,给我推送一条我自己小区,或者我自己老家的一条消息的时候,这个时候的感觉,其实给我看大而全的新闻,这种感觉是完全不一样的。
所以我们希望,通过对用户场景和用户喜好的持续分析和持续的解读能力,让整个用户的阅读行为更加完善,用户阅读的喜好更加全面。
以上就是我对内容生产到内容发现和监控,和内容分发这三个领域腾讯具体的做法,希望对大家有借鉴意义,谢谢!

阅读全文:http://media.people.com.cn/GB/n1/2016/0821/c40606-28653077.html

1 页号:1/1 到第 页 
  查看完整版本:相关论坛内容