加入收藏 | 设为首页 | 会员中心 | 我要投稿 | RSS
您当前的位置:首页 > 大数据 > 大数据技术

App已死,智能永生——从万物互联到万物智能

时间:2017-11-16 16:31:33  来源:  作者:
您的位置:主页 > 业界动态 >

业界动态 App已死,智能永生——从万物互联到万物智能

2015-08-06作者:人工智能机器来源:未知次阅读

百度深度学习研究院人机交互研究带头人顾嘉唯近期分享了百度在物联网上的布局思路,以及深度学习和智能硬件之间的关系和百度对于人工智能的思考。我们正从万物互联走向万物智能的时代,人机交互和人工智能是重要的技术基础,如何创造技术产品,通过不断自我学习演进,感知场景变化,使得用户连接服务变得更加智能,变得尤为重要。
 
顾嘉唯观点小结:
 
我们正从万物互联走向万物智能的时代,人机交互和人工智能是重要的技术基础,如何创造技术产品,通过不断自我学习演进,感知场景变化,使得用户连接服务变得更加智能,变得尤为重要;
 
“互联网+”有机会重塑传统行业,从物联网到大数据引擎,再到人工智能,有机会把人从脑力劳动和智力劳动解放出来,并逐渐取代这些节点中的不必要的人类活动;
 
人工智能正循环的背后基础是大数据平台和深度学习算法,让硬件和手机在不同场景下通过传感器获得数据具备感知能力,进过深度学习和机器学习进行思考,最终实现智能化场景;
 
最自然的人机交互应该是用户意识不到人机交互和信息交换的技术存在,创造智能交互人机接口,最终实现让机器和人一样沟通交流,后台感知计算无处不在,前端智能服务联动推送;
 
依托于百度大数据平台和百度大脑,百度的智能应用产品包括无人车、无人自行车、BaiduEye、DuBike等。其在人工智能领域通过引进人才、原型开发、前瞻布局,不断扩大人工智能的应用范围,希望打造自我经验积累、自我理解、自我演进的系统。
 
大家下午好!我是顾嘉唯,我来自百度深度学习实验室,在加入百度之前,在微软研究院主要从事人机交互技术研究。
 
现在我们逐渐走进万物互联的时代,下一个阶段是万物智能的时代,今天我们身边那么多智能硬件,智能手环、手表,智能水杯,智能牙刷,智能电子秤,智能独轮车等等要进入市场,仔细想想,这些所谓的智能设备除了连上了网,在手机端呈现了一下数据信息,跟一个消费升级的普通电子设备有什么区别?那么智能究竟是什么?这里我想要谈谈万物智能的本质,人机交互和人工智能是怎么扮演着重要角色的。
 
首先区别一个产品是不是真的具有智能的能力,有一个很重要的维度,就是这个系统能不能随着用户用它的次数越来越多,变得越来越聪明,所以,学习能力是智能的本质属性之一,根据用户的使用经验,能够自我学习、自我进化的系统才谈得上智能。今天大家都在谈人机交互,回顾一下人机交互发展的历史,从电器设备旋钮时代,到键盘鼠标时代,再到触屏智能机时代,从CLI命令行界面到GUI图形界面,再到语音手势交互等NUI自然用户界面。你问我终极目标是什么?我的回答就是没有交互,用户意识不到人机交互和信息交换技术的存在,让机器和人一样沟通交流。人性千年不变,除了程序员,没有人喜欢和机器打交道。在人工智能飞速正循环的今天,我们有机会让你身边的所有设备不断学习你的使用习惯,潜移默化地理解预测你的需求,后台全场景感知计算无处不在,前端全自动智能服务联动推送,最终实现环抱式的智能化场景。
 
接下去,我会拿几个智能化场景的具体例子跟大家分享一下我的思考。
App已死,智能永生——从万物互联到万物智能
 
第一个想跟大家抛出来的思考,在座每个人都有智能手机,都知道智能手机App里的下拉刷新手势,最左边是Twitter在06年最早使用的这个交互方式。下拉式刷新,当时这个设计下拉比点击一个“刷新”button优越很多,类似双指pinch放大和缩小的手势,成为手机触屏交互上的经典,随后无数这样的产品,都是这样的方式,包括iOS原生的Mail也开始使用。其实我们回过来考虑这样一个问题,今天用户在使用这种连接服务的App产品时,是不是还必须要每次都手动刷新?如果App能感知用户的场景怎么样?根据LBS或者WiFi环境场景,如果用户解锁打开手机就进入最想要看到的内容?这个下滑刷新的交互方式的标准是不是最合理的标准?有没有可能让手机的App和用户服务连接得更智能,不要通过刷新的方式获得更新?这是我们要考虑的。
 
第二个我描述一个今天很常见的场景,在座的有可能经历过,你开车去赴女朋友约会,电影票你之前已经在百度糯米团购上买好了,女朋友先到了电影院,她打电话要你把券号发给她,在核销机器上先把电影票取了。这个看起来很普通的场景,但在你开车时是非常不方便的,我们来看看你需要做什么,首先要切换到糯米找到那一条核销券,复制或者分享到微信,女朋友这边要确认;然后回到百度地图,找到电影院的位置开始导航,这样开着车还要在各种App间切换的行为是很不安全的,因为今天用户已经每天很熟悉在App垂直多任务间切换,但在某些场景之下连续切换跳转App的行为是很麻烦的,这绝对不应该是用户在手机上服务连接带来智能生活的方式。
 
这里面我描述的场景想说明这样一个问题,在用户连接服务的入口上面,是不是能够更智能?所以我认为,今天的智能手机还不够智能,还有不少演进的空间,假设我的智能手机知道我要跟女朋友约会,知道我的位置,知道电影院看电影这个计划安排,当女朋友手机连上电影院的wifi,我地图定位坐标是在开往电影院的路上,能否让设备的核销信息,直接推送到我的女朋友那,有没有可能打破App的边界,让服务来找人?当然,前置条件是足够全面的用户数据信息打通,通过数据挖掘进行对用户行为的理解和意图的预判。
 
说到这里,我想说一个观点,App会消失。为什么?用户连接服务、接受服务的时候,现在的状态是不智能的行为。这并不遥远,微信这种超级App的形成就有可能加速这个用户习惯的进程,今天朋友推一个来自大众点评的饭店信息给了你,一个H5页面就可以清楚获取信息,你可以不再打开大众点评App了,你的服务连接已经逐渐可以不用App之间跳转完成了,但最终还是要OS来完成。今天你在Uber上打车用百度地图导航,我们系统可以获得你出行的数据,你用百度外卖定餐我们可以获得你的饮食习惯,你在手机百度上看小说找视频,我们可以了解你对娱乐内容的口味等等,而且很多用户已经不止是一个手机连网,你的手表,穿戴设备,家里的各种智能硬件都在无时无刻地更碎片地获取你的个人数据,你的每一个行为,每一个单体数据都互通互联,促成这件事的可能性越来越大,我们正在进入一个数据爆增的时代。那么下一个阶段,手机不再作为唯一入口的时候,信息和服务怎么推送?比如对着窗户问天气,而不是打开一个App,想想看,智能是永生的。
App已死,智能永生——从万物互联到万物智能
 
下面说第三个很有意思的案例思考。互联网的发明从一开始颠覆了信息的传递方式,百度当年正是找到信息不对称的缺口,进行桥接,让人平等地获得信息。大家知道现在“互联网+”炒得很火,物与物的传递也可能被互联网+颠覆,今天“互联网+”带来什么实际价值?左边这个图是一个O2O很火的领域,生鲜类电商,我想说如果“互联网+”进一步颠覆生鲜电商的运转效率,可能会颠覆很多传统用户的生活习惯。如果说生鲜类电商做到每天你下班回家送到你家门口当天要做的菜配好,那你家里冰箱的冷冻冷藏存储是不是会发生很大变化?这时候用户的生活方式和某些已经存在那么久的设备或电器还是否需要?
 
但是今天还有很多公司在造智能冰箱、智能厨房、智能什么什么,如果只是连上App加硬件,或者冰箱上加一块大屏幕,相比之下,哪个是趋势和前景?
 
针对“互联网+”的案例,我再说一个百度相关的,百度外卖。今天你用百度外卖试试订餐,体会一下送餐速度。这里面百度外卖骑士的智能调度现在就用到了我们的智能算法,我们通过一种更高效的方式去连接物流节点上的递送方式。很有意思的话题在于,当“互联网+”把传统物流颠覆的同时,这个节点当中的快递人员,还是不是必须用人力去完成?因为我给你的是一条指令,通过订单需求预测,商家出餐时间预测,系统完成智能派单、路径优化,然后下发到快递员手机端,什么时间点到哪,在哪个餐饮点等候多久,想一下这时候人做的事情跟机器一样,接受指令然后完成既定任务。
 
一个巨大的行业,物流这个行业当中,是不是下一个阶段,在递送这个阶段可以完全被机器人取代?比如你订一个披萨,从下单,在网上选择什么料什么口味,现在其实机器就可以完成这样的即便是客制化的批量任务,在不久的将来,我们可以做的是,外卖递送这个事情也让机器去完成。
 
这些并不遥远。为什么这样说?其实上溯几世纪,工业革命把人从体力劳动中解放出来。我们所处的这个时代,人工智能将把人从脑力劳动和智力负担中解放出来。我刚才有映射地说快递和机器人的讨论,我们实验室在过去的一年半做了一些比较有理想性的项目。
 
达芬奇是人类历史上最聪明的发明家。他曾经提过这样一个理论,骑车这个行为,要调动你的大脑认知、感知这个场景、路况应变,用小脑平衡四肢。调用你的肌肉、身体的各个关节平衡去行进。那我们实验室的工程师和设计师们就想用我们的技术挑战一下,有没有可能用计算机、机器完成人骑车这个高能行为,创造一台能“自行”起来的自行车?
 
大胆设想一下这个场景,然后付诸实现,不断迭代原型,我们一起看一下这个片子。这是我们当时做的这样一款能够自己骑行的,完成转向、行径平衡的,感知路况的单车。当我们做这个项目的时候,很多人会问这有什么应用价值?在座的大家可以回想一下我刚才抛出来的一连串观点中的第四个,就应该能想明白为什么要做这样的事情了。大家看到了我们做这个奇特的“自行”车,背后开发过程还是很有意思的,还有我们正在研发的自动驾驶汽车项目。
 
对于四个轮载的机动车,人车交互最重要的界面就是方向盘,方向盘是过去几十年一直没有改变的东西,在无人驾驶到来的时候,方向盘是不是会被干掉?这不是天方夜谭,Google从2010年开始了这样的项目,这是去年对外公布的最新一台,长得很Q,据说是为了让路上行人更安心,这台Google的无人车里面工程人员已经把方向盘给去掉了。
 
那同样在做无人车的百度怎么思考的?我们希望尽快把自动驾驶技术做成熟,从辅助驾驶到全自动驾驶。这里面,无人车也好,无人自行车也好,无人驾驶技术是集人工智能大成的,包括了感知层、理解层、决策层,还需要系统有自主学习能力。今天现有的地图只有路网的拓扑信息,我们正在使用SLAM即时定位与地图构建技术来实现对高精度三维地图数据的采集,推动无人驾驶技术的发展,这里不只是定位,还有对三维场景的语义理解:比如你到了一个岔道口,拿到前景的道路深度视觉感知,包括车道线、道路标志牌,对前方车辆实时位置检测,周围障碍物的监测,分析行人行为和并道超车的情况。另一方面,考虑这里面一个人车协同的设定,同之前提到的万物智能的本质一样,如何做到智能地学习驾驶习惯,不止是做到自动泊车跟车,应急紧急制动等,让半自动驾驶能做到和你副驾驶座上的老婆一样,在你过某个红绿灯时候就能推测出你要去的路线,我们希望创造出一匹城市中的骏马,马可以自由驰骋,同时当人要驾驭的时候,还有缰绳可以一手掌握。
 
今天人人都在谈创新,但创新是需要勇气承担风险的,需要公司能有愿景去持续支持一些基础技术创新。原来在微软研究院,我们做的很多项目的成果会发论文、写专利,起初会致力于做五到十年的技术储备。举一个项目案例,每个人口袋里面都有智能手机,自从2006年乔布斯把iPhone推出来开始,人与信息的交互方式只限于手指和冷冰冰的玻璃,但是人与物理世界的触觉感知如此丰富,如何打破这个局限,是我们当时在微软的思考。这是2013年发表的一个项目,重新定义触控技术。我们在屏幕周围部署的Piezo压电陶瓷,让触摸屏产生高频振动,当手指划过屏幕不同坐标位置,指尖和玻璃之间会因为震动的频幅差而产生表面的上下位移,进而产生手指间的摩擦阻力来改变手指接触相位上的触觉反馈和感知玻璃纹理的方式。比如我们在触屏上创造了金属按键的质感和橡胶按键的质感,长键程和短键程的力反馈,除此之外,想象一下这个技术如果能让你在手机上摸到购物网站上衣服的材料质感,电商的用户体验会被如何再造?另外,当时我们还用这个技术做了另一个demo,现在平板电脑或者手机上,你用双手拇指进行文字输入,眼睛需要看三个地方,光标位置,左手拇指和右手拇指,因而输入效率不高,如果用了这个触觉反馈技术,用户只要看光标位置就行了,因为让用户操作一段时间之后,左右手拇指就像一直操作实体按键和滑动滚轮,一样有肌肉反馈,同时通过机器学习,可以实时动态调整用户操作区域的数字信息和触摸区域,这是我们在效率工作上尝试提升体验。
 
物联网、智能家居、智能硬件,在百度框输入这些关键词,搜索结果多过千万,显然已经不只是在计算机领域或者行业领域关注的东西,大家很清楚这样一个大的浪潮已经到来。这里我是这样思考的,两个关健词,智能、硬件。智能的本质是在于学习,在于不断的积累数据经验。
App已死,智能永生——从万物互联到万物智能
 
这里,我把IOT分为两个部分,其一是智能硬件,其二是自动化场景。左边,智能硬件,这家NEST大家都不陌生,Google花37亿美金买的智能硬件公司,相比北美每家都有的常见温控设备,Nest产品设计优雅有品质,交互有特点,通过旋动物理圆壳来控制中心蓝色的圆形界面,几次使用之后,它知道用户使用温度控制的习惯,会逐渐调整配置时间和温度控制的关系等等,在办公室可以用手机远程预先调好温度。然后这张图右边的白色盒子大家知道是什么吗,有了这个智能蛋盒放在冰箱里面,在超市里买菜时可以知道家里还有多少鸡蛋。问题是,这些设备通常是手机App加一个智能硬件而已,大都是独立的智能单元体。 但用户要的是什么?是智能自动化场景。举例,早上起床闹铃把我叫醒,我当天的日历上有我一早开会的时间地点,根据现在路况和距离推算出我还有多久要出门,提醒我有多少时间洗漱吃早饭。我的咖啡机、面包机在我闹钟响的时候就运作起来了。当我洗漱、早餐完毕之后,会议室目的地坐标就会在无人车导航里,下楼坐上车以后,直接把我运到相应的位置。用户是需要这样的智能自动化场景,但真实情况下,这种场景中的变量很多,简单的联网硬件无法处理和预判用户的多维场景,更没有全场景自动化服务的可能了。那我们来谈谈到底什么是智能化的场景,市面上一直有一类在做智能化家居的公司,大家看视频里这是kickstarter建立初期非常火的十大项目之一,看看视频是怎么操作的?从一个房间到另外一个房间,你离开的房间,灯就关上了,进到另一个房间,灯就开了。这个场景,看似很智能、很自动化的产品,叫做Ninja Sphere。 但我说它有些可笑,为什么?因为只有单身汉家里才有可能用得上这样的场景,用这个智能设备取代开关,但问题是这样的,现实情况并没有这么简单,并不是一个简单的IFTTT条件计算逻辑。
 
我们来分析一下刚才的场景,比如说房间判断是不是空的,空着的,灯打开就可以。但如果卧室里面,老婆在睡觉,怎么办?有的人说这个简单,在床上放一个传感器或者装一个Sleep Cycle,或者再狠一点可以给老婆鼻子上夹一个酣睡传感器。但如果房间一个狗在睡觉,怎么办?可以在狗上面装传感器,也能解决问题。但这些都不是事,如果老婆在沙发上面看电视,喊老公进来,先开灯找一下遥控器,把频道调到湖南卫视,再把灯关上,这时候那些所谓的智能家居产品就要疯了,还不如把老婆大脑连上电路。不过这样的实际场景才是最常见的用户场景。这里实际情况是简单的IFTTT的逻辑,在自动化家居的真实情景下是不完全适用的。
 
那究竟什么是智能的本质?今天上午我也提到,其实用户需要的就是自动化场景下的服务,我们会被无处不在的智能设备包围,设备有感知能力,全方位的感知,收集了你很多数据,经过数据积累之后可以分析出核心事件背后的数据逻辑,对用户潜在需求进行理解。第一步是从各式传感器收集感知,第二步通过算法来理解和演进这些经验数据。一个好的智能,是具有学习能力的,是具有经验积累和学习能力的。第三个是决策,在获得这个判断之后,怎么去判别场景和用户状态进行推送?刚才那个卧室开灯的家居场景,我们来重新思考一下,换一个思路来做,不要去妄图用智能设备取代开关,想想你的卧室里面,通常有很多个可以点亮的东西,有床边的床灯,有电视机,有壁灯。我判断两个逻辑,判断里面有没有活物,有猫有狗哪怕有外星人都没有问题,如果没有,用户进去,灯就打开,如果有的话,逻辑就把这个决策权推回给用户,通过你的手表,提示要不要开,开多亮开多久,完成这个控制权限的人机协同。上面两层,感知和理解层是不是可以做到很好的判断逻辑推送给用户。
 
刚刚说感知,今天看在座的每位手机上面的传感器,比如说麦克风、摄像头已经变成标配。我经常跟朋友开玩笑,今天最简单的复制方法是拍照,因为人人都有至少一个摄像头随身带。这一张图很有意思,二十年前开摇滚演唱会时候粉丝都是很嗨地在空中摇晃手臂,后来举起来手上都是手机。这是五年前,今天举起来的是一个自拍杆,手机在上面,还有前两天很火的lily自拍无人机,摄像头已经飘到天上去记录你的每一瞬间的感动。其实你们会发现,摄像头也好、麦克风也好都已经无处不在,感知层大数据爆发的时代已来临,万物互联之后,有效数据变成了经验积累,让智能进程加速。第二个环节在于学习和理解层,为什么我们成立深度学习实验室,产业界说深度学习是人工智能的核心环节。最后一个是决策,反馈,送达服务的能力和场景。
 
人工智能已被科技领域标榜为这个时代最关键的技术。所有人都在谈机器人,因为在大众看来这两个是直接划等号的,那我首先说说我对机器人的看法,“星际穿越”这个电影很多朋友都看过。导演克里斯托弗-诺兰对机器人和人工智能的角色设定我们是很欣赏的,拍这个片子前一定跟很多专家聊过。左边这个图,这个叫TARS机器人外形是多条块状,并不是长成一个人形模样。到一个新的星球让它探路未知,它没有情感,不会有情绪,就没有畏惧感。机器擅长于做数据处理、精准的控制。电影里有一个场景,剧情中飞船要对接太空舱的时候,女宇航员问还有多少距离,TARS说这个事情交给我操作,这个距离算出来之后。推到将近接近的时候,一个引擎爆掉了,这时候需要人机协同,女主角把手动对接操作权交还给自己,完成了对接,这里面人机协同尤其体现出价值。
 
当我们在做无人车的时候,把无人车比作一匹在城市当中奔行的骏马。一个缰绳是用户的操控权限,一个是马的自我意识和控制力,可以类比我们在做的自动驾驶项目。
 
把人工智能的脉络理一下。最早60年代就有人提人工智能的概念。80年代各种各样的学派,说怎么样让计算机模拟人脑,但是人脑上亿个神经元网络的超大规模并行结构过于复杂,冯-诺依曼体系的串行结构体系使得计算机系统很难迅速有效地处理复杂的感知、推理和决策等问题,曾一度限制人工智能技术的发展。90年代以后,人工智能逐渐开始发展,一些理论变成了模型,演进了算法,早期人为标注监督式学习,通过模型算法的不断优化。到2000年以后,云计算使得成本低廉的大规模并行计算成为可能,GPU集群的并行任务处理让神经网络上亿节点连接运算任务广泛可用,同时海量的大数据集的训练不断提高机器学习的表现,真正加快人工智能突破性进化的是深度学习,这也是为什么谷歌、Facebook、百度这些公司会对此大力投入。其实,搜索引擎下面有一个非常精致的结构,利用它可以搜索到各种信息、知识,而且服务是完全免费的,给用户带来价值的。同时搜索引擎获得了大量的用户搜索行为数据,并实现它的商业价值,从数据到价值,这中间就需要大量的技术,尤其是基于大数据的人工智能技术
 
比如说我们的广告推荐,现在每天在百度上面有几十亿次搜索请求,比如说今天你搜关键词杨幂视频,出来结果你会点击图片、影像资料,点击周边的花边新闻、相关明星之类的。你的每一次点击都为我们的数据图谱带来一次有效数据节点的连接关系网,这个是用户行为给我们数据引擎和模型带来的价值。从另一个角度,之前你在百度全系列产品的搜索、浏览的记录通过我们的算法能够形成一个精准的用户画像来预测用户的行为和潜在商业机会,这时候,已经是千亿美元的产业规模了,广告推荐也好,数据挖掘也好,都在做这件事情。这是过去十年互联网高速发展过程中的应用。
 
刚才提到的是在PC时代互联网的产物,这时候特点是所有的东西都是在后台运作的,用户感知不到。如果今天不跟大家讲这些,很多人也许不知道。那么我们所处的这十年,从PC互联网过渡到移动互联网,在手机、手表端获取服务记录数据,用户开始逐渐感知到。为什么这样说?今天打开App手机百度,或者百度地图,已经可以用到我们最新的人工智能的服务产品,比如说语音,很多人可能用过语音在地图上导航一个目的地,订一张电影票,查一下当天的天气情况,等等,没用过的朋友下来可以用一下,看看准不准。这背后涉及到语音的识别、解析、自然语言的合成等多个环节都用到深度学习。还有图像识别,你在大街上看到一个喜欢的包,打开手机百度,拍照全网搜索相似款,用户逐渐开始感知到这些人工智能的产品,因为语音让搜索变得很方便直接,图像让甚至不知道怎么表述的内容都可以发起搜索,连接服务变得更无所不入口。
 
再往前看,当万物互联之后,这些数据在背后你是不用觉察的,数据的处理和理解分析是计算机擅长的,你获取到的都是服务。这里面数据就变成每个公司最核心的商品,人工智能技术厚度变成重要的企业竞争壁垒。我们能预见的智能蓝图,十年内可及的智能技术需求都属于弱人工智能,是用来辅助帮助延展人类的能力,并不是电影里出现的很多人在畏惧的那些毁灭人类的,强人工智能,机器只有有了自我意识,有了情感之后才会出现智慧,这里智慧和智能不是一回事。
 
从“万物互联”到“万物智能”过渡的过程中,深度学习这个关键性技术,正在迅速深刻地影响到百度,2014年底,国际主流科技媒体报道,这样的一家中国企业在人工智能领域的迅猛发展成果,是比较罕见的。在成立IDL实验室的时候,我们明确是想植根深度学习,在人工智能这个领域做深、做扎实。过去三年中,深度学习发展非常快速,体现在过去两年时间的投入和领域学术大牛人才的引进。百度诞生的第一天起就是人工智能的公司,全球最大规模的深度神经网络平台上,百亿级的海量数据集帮我们人工智能的模型在不断的演进。一个自我经验积累、自我理解、自我演进的系统才是最好的人工智能系统,也就是我们的百度大脑,还有两会的时候Robin提到的中国大脑。这张图说明的是我们百度大脑的三个核心能力包括:感知,理解和决策,大家看到在左边,我们通过哪些路径做感知层?我们有用户在移动端、PC端在线搜索索引的数字信息;还有通过人机交互在不同设备上的视觉、听觉、触觉等交互过程中跟人有关的信号和数据采集。还有无人车、无人机获得3D建模、物理场景传感网的数据。中间最重要的是百度大脑的核心,高性能分布式计算的能力,有着上千台服务器,包括PC服务器和GPU服务器的大规模数据处理系统,这是思考理解层。这个思考过程包含数据模型、算法模型,深度学习以及大数据引擎,这是我们的核心,等下我会详细说说这个“思考”能力具体我们是怎么做的。基于这样一个工程的能力,百度能够去开发各种各样深度学习的算法,应用在搜索优化、语音处理、图像处理、自然语音理解、用户精准画像、广告的用户匹配、个性化推荐、大数据预测等方面,还有语音、图像等应用,都是用户可以感知到的,当然还有我们正在开发的机器人、自动驾驶、BaiduEye、DuBike等。
 
我们百度大脑,为什么百度可以做这件事情,或者我们核心能力在哪里?首先有这些人才,有这些国际上绝对顶尖的人才在做深度学习、异构计算、图像的、语音的,用户自然语言处理的,用户行为建模的人才的能力。同时我们有足够多的海量用户数据,不断产生有标注的,有价值的,有图谱性理解意义的数据。还有我们不断演进、演变的数据模型,这是我们的核心能力。
来顶一下
返回首页
返回首页
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表
在线客服
推荐资讯
相关文章
    无相关信息
栏目更新