首页 >> 科技 >> 癌症检查、仿生假肢、无人驾驶,你想要的人工智能这里都有

癌症检查、仿生假肢、无人驾驶,你想要的人工智能这里都有

姚心璐 来源:21世纪商业评论 2017-11-09
“创想,科技人文之光”是今年腾讯全球合作伙伴大会的主题。

timg

10月7日,腾讯合作伙伴大会在成都召开,腾讯公司首席运营官任宇昕 、《西部世界》导演及编剧乔纳森·诺兰、诺贝尔奖得主爱德华·莫索尔、MIT Media Lab媒体实验室知名教授休·赫尔、快手科技创始人CEO宿华、知乎CEO周源、米未传媒创始人兼CEO马东等350名行业领袖和近万名创业者参会。

在当天下午的人工智能分论坛中,腾讯相关负责人及休·赫尔带来以下内容:

成立了一年的AI Lab在做什么?

腾讯AI实验室至今已成立一年,其业务主要有三个面向:针对腾讯企业内部,为企业开发世界级的研究能力,并利用AI研究进行应用转化,这是过去一年的工作重点;第二部分是明年的重点方向,主要针对社会,为中小开发者提供技术能力,以及为一些行业提供解决方案。

第三,是与学界相结合,实现产学结合。在张潼的介绍中,AI实验室去年发表了81篇论文,在AI顶级国际顶级会议中共发表21篇论文。

腾讯希望可以将研究和应用相结合,近期一项关于人脸识别的论文,探索出利用深度测查网络进行特征学习,从而设计出能够达到更好识别效果的模型。张潼表示,在论文发表后,已经陆续有一些企业来寻求合作,如视频网站希望可以将这一项技术用在视频内容搜索上,通过对于明星的识别,为热爱明星的用户们提供更加准确的内容匹配。

在为行业提供解决方案上,腾讯觅影是目前一个成功的代表产品。张潼介绍说,这是一项通过人工智能识别医学影像,从而为食道癌进行早期筛查的应用,目前每次内径筛查用时可在4秒以内,食道癌发现准确率高达90%。这项应用已经在广东成立了人工智能医学影像联合实验室,中山大学附属肿瘤医院、广东省第二人民医院已首批接入应用。

感受机器成为自己的一部分

休·赫尔是MIT高端仿生学中心负责人,也是一位双腿截肢的残障人士。17岁的时候,因为在热爱的登山活动中发生事故,休不得不面临双腿截肢。“我当时对医生说,我还想开车、骑车、而且还想继续进行我热爱的登山攀岩,”他说,“医生说你今后什么都不能做。很多年过去了,我很高兴他说错了。”

在论坛现场,休戴着“仿生腿”当场进行了跑步及弹跳等动作,并展示了两张正在攀岩的照片。

与传统义肢不同,“仿生腿”与人的神经系统相联结。“人的大脑会产生信号,”休说,“当这些信号传递到仿生脚时,内置的生物仿生系统会去解码这些信号,然后控制你的运动。”

相对应的,当仿生脚做出某个动作的时候,其机器系统也会将将信息传递和反馈给人的神经系统,从而形成模仿人体自身组织的控制模式。“我们甚至可以看到,当患者的仿生脚上缠住一个胶带的时候,他会想摆动将这个胶带除掉,这个义肢已经成为他的一部分。”休说。

仿生神经系统现在可以用于截肢和瘫痪病人,通过数字神经系统对人体系统的模拟,带来与本体类似的效果。在休看来,这种技术实际上是消除了残疾,甚至可以在未来延伸人的能力,比如为普通人戴上翅膀。

从赛车游戏到无人驾驶

“研究游戏AI,不仅是为了要做游戏,而是希望能进一步用在现实世界中,”游戏AI负责人刘晗说。

游戏AI具备三个底层研究方向:感知、决策和对话。

感知是一个将外部的复杂环境转换为某种状态的过程,比如在无人驾驶中,将车外的环境转换为堵车、出现障碍物、出现水坑等具体状态;第二个步骤决策是将这一状态转换为行动决策,如遇到障碍物,决定刹车;第三个是自然语言交互能力,在虚拟和现实生活中,都会不断出现,可用于客服机器人等领域。

但目前来讲,这三个部分仍然有着诸多挑战,如对于大部分游戏而言,环境的复杂程度远超过阿尔法狗所处的围棋环境,处理难度很大;另一方面,游戏中常常是多个玩家共同参与,如何在其中准确协调,也是一个难点。

刘晗也给出了腾讯目前的解决方法,以状态空间过大为例,是运用模仿学习和强化学习相结合的方式处理。模仿学习是运用大量的人类数据,促使机器进行模仿式行为,强化学习与阿尔法狗的原理类似,是运用模拟器的方法,使机器进行自博弈和自思考,这两者的结合,可以一定程度上改善彼此的缺点。

“游戏AI是一个基础性研究,”刘晗再次强调,“未来可以用在很多现实世界中,如我们现在的赛车游戏,可以为无人驾驶技术打下基础。”

人脸识别是最成熟的AI技术

“人脸识别是人工智能行业最容易落地的一个方面,一个是因为这个技术是现在最成熟的,另一个是因为数据很多,很多大公司的人脸数据都在10亿级别以上。”计算机视觉中心负责人刘威介绍说。

刘威将多媒体的识别技术分为两个阶段,在AI之前,是图像识别技术。他表示,在过去长达30年的时间里,图像是别的技术始终围绕着提取特征展开,将具体的图像按形状、颜色和纹理分类,直到2012年深度学习开始后,才开始向深层分析发展。

他同时介绍了腾讯在多媒体识别上取得的六个成果。除了最常见的人脸识别,“图像描述生成”也是颇为有趣的一项应用,在论坛现场,大屏幕上出现了一张图片,右边是系统对这张图片自动生成的描述:一群人背着书包行走在山间的小路上。

这一描述的识别方式是:先对照片中的单个物品和行为进行识别,生成诸多单词,再用语义分析的方法,将单词们进行有机结合。“我觉得我们的技术还是挺浪漫的,”刘威说,“比如这边有一句的识别是这样说的:蓝天下被树木掩映的湖泊和亭子。”这项技术将在12月左右于QQ空间中上线。

现场还展示了目前AR与3D结合的技术进展,出现在AR中的3D小人,不仅可以在空间中来回运动,在遇到障碍物时,还可以自动跳跃。

机器翻译将为你写诗

机器翻译也是人们比较熟悉的AI技术,在人工智能分论坛的现场,腾讯再次展现了同声传译技术:当机器翻译负责人杨月奎发言的同时,两边的屏幕上同时出现相对应的中英文字幕。

同声传译的翻译原理是,将麦克风输入的语音传入前端处理系统,在检测和降噪后,进行语音识别,再加以标点和口语化处理,截止到这一步,可进行中文字幕输出;对应的英文字幕,则是由中文内容翻译而来。

不过,这一技术并非腾讯独创,在去年的世界互联网大会上,搜狗的同传技术首次亮相,并在之后的全球人工智能与机器人峰会、香港科技大学学术讲座等场合,为会议提供了技术支持。

杨月奎表示,机器翻译的研究,并不仅仅可以用于翻译这一应用场景。因为这一研究的本质是对自然语言交互的探索,因此,日后在问答系统、摘要生成、Query改写等场景,也可以实现应用。“当然,还可以发展一些比较浪漫的功能,比如写诗写词。”他说。

相关标签: 2017腾讯全球合作伙伴大会  
0
0
发表评论
loading...
相关文章