欢迎光临广东腾誉龙自动化设备有限公司官方网站

新闻资讯

热销产品

联系方式

联系人:梁小姐

手机:13509229853

电话:086-0769-22403133

邮箱:tengyulong@tylmac.com

地址:中国广东省东莞市南城区蛤地二村新南路10号

网址:http://www.tylmac.com

您当前的位置: 首页 > 新闻资讯

人工智能让天下没有难吹的牛!!!

发布时间:2017-10-17 来源:广东腾誉龙自动化设备有限公司

10月12日,中国科学院深圳先进技术研究院副院长、香港中文大学教授汤晓鸥教授表示,阿里讲“让天下没有难做的生意”,做人工智能是讲“让天下没有难吹的牛”。



今天我讲的题目是《人工智能的云中漫步》。人工智能其实我也听了很多人讲,我自己也讲了很多,我觉得总结起来做人工智能的跟阿里的理念其实非常相似。阿里是讲“让天下没有难做的生意”,做人工智能的是讲“让天下没有难吹的牛”:)。


这两天大会听大家讲了半天人工智能,讲了半天的云,一直到今天为止,一直到现在为止,我们其实一直没有看到真正的云,现在我给大家看一下。


这是高分一号卫星拍的云图。其实我们发射卫星拍摄这些图像,是为了分析地面上的情况。高分一号拍出来的图,有云有雪,遮盖了地貌,如何分辨云和雪和地面的物体,我们用人工智能、图像识别技术,可以做的比人更精准。大家可以看到褐色的是雪,白色的云,绿色的是物体。我们识别的这些云以后,还能用算法把这些云去掉了,这样卫星就可以识别云下面的东西。


如果这么一直讲下去,阿里的人可能急了,我们是阿里云,不是阿里气象局。当然,我们讲的是虚拟云,云计算,我们其实在不知不觉间已经生活在云中间了,我们生活在物理云下面,实际上我们也生活在虚拟云上面。今天就给大家讲你是如何在云上生活一天的,大概要讲8个小时。


一开始,早上起来要化妆。就是拿着手机可以当镜子,可以做美颜,换衣服,用各种特效效果看一整天该穿什么。这个化妆下来大概的时间从8点开始的,最后结束了以后,就到9点了,一般女孩的话大概也确实需要一个小时化妆,最后通过美颜、增强现实(AR)这些特效,不知道为什么最后这张图成兔女郎了。


然后接着这些AR技术还可以应用在其它的场景上,比如社交场景应用,你们现在看到的这些拍照APP,直播APP,有很多AR特效,其实绝大部分都是基于我们提供的人工智能技术,比如人脸的106点和最新的240点的追踪分析,是我们定义的行业标准。


我们不但做人脸、手势识别,现在已经做到三维的SLAM特效了,大家可能看过这种特效,游戏里面可以把虚拟物体加到这个现实世界里面,但是以前看的都是在一台很强的计算机上算出来的,现在我们这个是在手机端,手机上实时算出来,这是非常难的事情。


还有你刚才为什么花了一个小时换衣服呢?要一件一件换,不合适换另一件,很麻烦。我们实际上可以用计算机帮你换衣服,计算机生成衣服。这个用什么做的呢?用基于自然语言处理的图像图像生成技术,比如说我要一只小鸟,有白色的胸脯,灰色的头部,就生成这样的小鸟;再要一只红色的小鸟,黑色的翅膀,就再对应生成出来图像。这都是计算机自动的根据你的语言描述生成的,或者是花也一样,可以生成一些不同的花。


今天讲了很多关于城市大脑的问题。


我们要解决这些问题还是需要核心技术,来一样一样完成这些任务。首先我们人脸识别,已经可以做到没有任何人工配合的情况下实时地识别人物、抓捕犯人,在广州、深圳、重庆等几十个城市都已经开始帮助公安解决了大量的案件,抓了很多犯人。


人群,我们可以在上海外滩这样的公共场合,实时判断每一个点的人群的密度、人数,进来多少人,出去多少人,还有人流有没有逆行等特殊情况,这样可以防止踩踏事件。


再就是视频结构化,可以把视频里面所有的人、车、非机动车、自行车检测、追踪,识别出来属性,比如这个人穿什么衣服,男的女的,多大年龄,车什么牌子,哪年生产的,这些东西都从视频处理成文本文件,你可以进行对应物体的快速搜索。


所以其实你在走在路上的时候,所有的这些信息都是可以记录下来的。所以以后如果做坏事会越来越难。大家如果现在还有什么事没做赶紧做,以后再做相对会困难很多了。


12点钟大家可能出去跟朋友玩了。拍一些自拍照,其实拍的时候,就是用了我们的一些视频处理的技术,比如把一个手机拍照拍成单反的效果,这也是我们做的技术,先拍照后聚焦,拍完点什么地方就聚焦到什么地方。另外在拍之前,我就想看看单反预览效果是什么样子的,所以这时候你在动的时候,效果就要显示出来,这就是要实时视频级的处理。视频上能够实时把深度信息算出来,预览做出来。这些技术已经在OPPO R9S和R11用了很长时间了,包括里面的人脸技术都是使用我们的技术支持。


还有手机上可以做一些智能相册的特效、处理。计算机识别你的照片内容,然后根据内容打标签、分类管理。


这些特效,大家现在手机上可能节日期间也会用到一些这些应用,比如把卡通图片里的脸换成自己小孩的脸。但是我给你演示这些是我们十年前做的,我们十年前已经做到这个效果了,当然那个时候是在计算机上做出来的,现在把这些技术可以做到手机上了。


我们跟小米合作做了小米智能相册,跟华为合作做了华为智能相册,跟微博合作,把大V的照片管理做起来。两点多钟,你照完相了,吃完饭回来,对照片想处理,做一些新的艺术化的滤镜。


处理出来这些特效,这是在图像上做成的特效,其实这是我们两年前做的工作,现在满大街都是。我们现在又做了新的工作,是视频上实时也可以做出特效,而且可以做出各种特效。


4点钟,大家可以出去玩一玩,可以做一些体育运动了,大家可以想像一下,我们公司4点钟就下班了,开始去玩了。


这个就是我们在实时的把人体的整个结构都能跟踪出来,大家可能觉得这个不是什么新鲜事,因为几年前Kinect体感摄像头就能做的,但是原来是一个昂贵的特殊设备做的,设备有两个摄像头还有激光投影,我们是用一个几块钱的单个webcam,可以实时做这件事情,所以这个应用可以在各种的智能家居、自动驾驶,各种地方做到实用。


再往下用这些技术还可以做体育运动的分析。昨天讲到奥委会跟阿里合作,我们也在跟国家体育总局做合作。这个大家可以看到我们用智能分析的方法跟踪运动员的动作。然后也可以帮助运动员做康复的训练。所以昨天奥委会朋友讲,奥运会要做到更高、更快、更强、更聪明,那其实我现在给你讲的,就是如何做到更聪明。


同时我们可以用跟踪的算法,然后把整个画面分析清楚,用自然语言描述视频里运动员到底在干什么。


然后大家下班的时候要坐车回家了。这时候可以乘坐由我们自动驾驶技术支持的汽车。自动驾驶里面我们做了六个大的方向,三十几项技术,目前跟全球前五大车企其中一个顶级的厂商进行合作。


下面看一下刷脸支付场景,因为你下班了,总是要买东西的。可以用刷脸支付,阿里无人店可以用这些技术。还有一些门禁系统,酒店,机场等等应用,所有这些地方其实现都在用我们做的人脸识别技术,现在的准确率从当年第一次超过人眼睛极限的时候,从97.5%,到99.15%,到99.55%,一直做到万分之一,十万分之一,百万分之一,今天我们早就做到亿分之一,实际上已经达到了八位数密码的精度,可以做各种应用了。


到了晚上,这个视频里,我们分析人的运动方向。这些对整个分析视频的结构也是非常重要的技术。


我们综合前面这些技术,可以把整个这个视频场景分析全部做出来。可以看到左下角会讲你在什么地方,什么样的活动,每个人是哪一个人,哪一个演员,穿的什么衣服,后面有什么物体,骑的什么摩托车,所有这些结构化都可以做出来,大家网上看到很多公司用这两段视频结果演示做宣传,这个原创是我们做的,视频分析演示也是我们做的。这是《欢乐颂》,本来想做一个更新的,想用《我的前半生》,后来一想我的前半生也快过去了,还是做《欢乐颂》了。


刚才很多是我们已经落地的产品,是由我们的400多家合作厂商真正落地来用了的。下面还有一些新的技术突破,明天就可以马上用出去,就是因为这些新的技术突破,才继续推动做出来新的应用。


首先讲运动监测。还是回到奥运会这个应用,实际上我们可以在体育的视频里面把这些射门的镜头提取出来,两个小时的比赛可以很快缩到几分钟,可以完全自动做的。


或者田径比赛,真的很漫长的,但是精彩的镜头,百米、跳高那几个镜头,就是那几块,我们可以自动的识别提取出来,同时你也可以进行描述,要求怎么样提取出来,你感兴趣的部分。


然后还可以进行搜索。比如你要搜索音乐表演的视频,战争场面的视频,都可以自动搜索出来。


或者你要想做电影自动理解。比如可以明白这个镜头到底是灾难的镜头还是浪漫的镜头,用我们前面说的技术来分析整个场景到底是什么样的,红线代表浪漫的,蓝色是灾难的,实时分析镜头。或者说他们在吵架还是浪漫的镜头。都可以实时分析出来。


可以用自然语言来描述来搜索电影的场景。就是你可以说一段话,它就把那一段镜头的场景把它给搜出来,同时把所有人,物体和各种东西都检测出来。


还有对体育场景进行分析,就是说可以直接对运动视频进行描述,自动用自然语言描述到底发生了什么事情,这个时候其实我们就不需要播音员了,机器自动分析运动场景做什么,直接给大家讲解,就像一个专业播音员一样。


还有图像的分割,以前大家讲图像分割都是前景和背景分开,现在做的分割是不但把前景和背景分开,而且还可以像素级地把前景的每一个物体分开,前面有很多跳舞的,每一个人都标注出来,每一个物体,和背景都分割开来,就可以做很多很多各种各样的特效。


还有就是判断两个人的关系,如果你在网上放了照片,我们根据你这两个人的姿势和两个人的表情,分析出来你们两个人的关系。这个有什么用呢?比如说你跟一个很有钱的人照相,分析的结果是很友好,说明你认识有钱人这样可能你的可信度就增高了,我就可以把钱借给你了,可以做征信的一个维度。


还有我小孩的照片,他女朋友比较多,想知道哪个是他真正的女朋友,可以分析识别一下,后来发现每一个都是,他跟我一样对每一个都很专一。


我给学生发了一些比较难处理的关系的照片,比如铭铭6个月的时候跟他第一个女朋友的照片,第一个关系分析的还可以,第二个也分析出来了。后面两张照片就难多了,最后基本上搞不清楚他在干什么了,当然最后这张的这种探索精神还是值得敬佩的。



最后我用一个我们研究的例子来讲一下原创的难度,我刚才讲的每一个技术其实都不是那么简单的,都不是说一拍脑袋一下就做出来的,有非常多的事情要做的,这个例子是图像超分辨率增强,就是我们怎么把一张图放的很大,能够恢复的很清晰。这是美国的一个电影,FBI在抓人。最后他抓到一张很模糊的图像图像放大做成清晰的图像,当时觉得FBI很厉害,非常棒。我们用传统的技术也试图把这个图像恢复一下。当时希望把小图恢复成这样,用传统算法做了最大的努力,最后的结果是这样,所以我们很不满意。


这个应用有什么用处呢?实际上是把可以进行图像、视频放大,可以把普通的电视信号变成4K的高清信号,8K的高清信号,这是我们最新做出来的结果,可以看到如果直接放大是很模糊的,现在用新的结果基本上达到高清的效果,已经达到实用的阶段。


在日本有个工作叫WAIFU2X,他们用我们的技术做了演示,就是把太太(二次元妹子)放大两倍,然后用这个图,最后的效果非常清晰。


超分辨率这个工作是很重要的,因为有很多场合有应用。所以谷歌、推特也对这个非常重视,他们在2016年连着发四篇文章做这个工作。按照以往,大家可能都是跟着谷歌后面做,而我们不是,我们发表了全球第一篇用深度学习超分辨率文章,那是2014年,早于谷歌两年,2015年又发了一篇,2016年两篇,2017发了三篇,我们不但是做的最早的,第一个做的,而且也是目前做的最好的。所以是谷歌在跟着我们做!


做这一项工作要想做成功,牵扯的工作是非常多的,有各种各样的技术,涉及到十几篇几十篇的文章才能做到现在的效果。


所以现在我们已经可以做到实用,在街头上拍的照片,模糊照片可以真正看到罪犯的样子。


而且已经给深圳的公安用了,公安用手机可以拍人的照片,很模糊的图像可以在库里搜索,实时抓捕罪犯。


经过我们的努力,所有这些加一起,从原来这个效果现在可以做到这个效果了。


所以每一项工作后面都有大量的工作需要做的,都有大量的顶级文章。我们不是刚刚这几年人工智能热了才开始做的,而是十五六年的积累,04年到08年我们统计了一下在两个顶级的会议上,我们一个实验室发了57篇论文,而MIT全校是51篇,伯克利大学是33篇,牛津大学是45篇;我们十几年在顶级会议文章数量上一直是在全球领先的。在过去两年,三个顶级会议上我们统计了数据,微软最多是发了124篇,CMU是86篇,我们排第三是76篇,是亚洲唯一的进入前十名的。所以我们是有这种强大的人才和经验的积累,才做出刚才这些真正落地的产品。


在2011年到2013年深度学习刚刚开始的时候,这两个顶级会议上,29篇文章我们占了14篇,全球的一半,这里面16项技术,都是我们第一个真正成功的把深度学习应用到这些技术领域。


所以我们是深度学习的原创技术公司,是真正做平台的,和脸书的Torch、谷歌的TensorFlow一样,我们做了自己的原创平台Parrots,来在这上面开发我们深度学习相关的技术。


最后,大家看一下这一页上的这些图像的一个共同的点是什么?米开朗基罗、贝多芬、梵高、乔布斯、兰博基尼的设计首席设计师,这些人有一个共同特点,其实就是两个字:原创。中国最缺的就是原创,我们现在做的就是原创,做原创是非常难的一件事情,但是不做原创一个国家是永远也发展不起来的。


本文来源于网络,由 烫商标机 鞋垫印刷机 腾宇龙整理发布

  联系人:梁小姐

  电话:13509229583

  Email:tengyulong@tylmac.com

  地址:中国广东省东莞市南城区蛤地二村新南路10号

企业公众号

企业视频号


Copyright ©2024 广东腾誉龙自动化设备有限公司    技术支持:美中鞋业网(管理登录