澳门申博赌场网址_澳门在线真人赌博_澳门赌场注册网址

王小川乌镇秀搜狗机器同传 有望取代人类

  第三届世界互联网大会于11月16日至18日在浙江乌镇举行,移动互联网论坛上,搜狗CEO王小川与脸谱公司副总裁石峰、斯坦福大学客座教授杰瑞·卡普兰等人同台论道,并发表了主题为《人工智能的未来之路》的演讲。王小川从现今人工智能技术的“能与不能”说起,和在座嘉宾一同畅想人工智能未来的终极理想,他表示:“搜索的未来是人工智能时代的皇冠,搜索和输入法未来将向问答迈进”。

  值得一提的是,此次分论坛现场王小川发布了搜狗人工智能新产品——机器同传,展示了实时机器翻译技术,将演讲嘉宾的中文讲话实时语音识别并同步翻译为英文上屏显示,引起轰动。这是全球首次基于神经网络的实时机器翻译技术在大型活动上的展示,效果可靠、准确率已接近人类同传翻译结果。基于这项技术,演讲现场屏幕上除了语音识别实时显示的中文内容外,还有机器同步翻译的英文内容,实时生成了演讲内容的双语滚动字幕。从现场演示效果来看,搜狗语音识别准确率已超过97%,机器翻译准确率达90%,未来有望取代人类同传。

  https://v.qq.com/x/page/d0347i2r088.html

  以下为王小川演讲全文:

  前面的十二场演讲中,嘉宾有讲技术、有讲产品,我希望给大家的分享一些不同的内容,以及自己独有的视角。今天大家都提到了AlphaGo,作为引爆人工智能的开端,深度学习在其中承担了最重要的责任。

  今天当大家开始畅想的时候,有可能认为人工智能未来真的会取代人。那么我希望今天的分享更多地能够知道人工智能在今天能做什么?不能做什么?未来终极的理想又是什么?

  AlphaGo之后,我们看到最重要的突破领域是在语音和图像领域,在文字领域的进展很缓慢。今天我们在机器翻译方面取得了一些突破,但是问答和对语义的理解是不够的。回到图灵测试,上个世纪五十年代图灵提出了问答机器推想这样一个概念,今天我们直观感受是语音图像进步很快,但是自然语言的处理其实是比较慢的。

  抛开技术,以一个产品经理的身份来看,人工智能有三个产品方向,一是识别——语音识别、图像识别、视频识别;二是图像——我们去生产图像,生成识别;三是创造。大家提到了人工智能进步的层次,我想换一个方式描述——工程师在人工智能时代会处于越来越重要的位置。我们开始提到传统的方法是把规则教给机器,随着统计系统的发展,包括深度学习,我们开始更容易地将答案教给机器。在数据的积累下我们就可以让机器变得更加聪明。这里面更前沿的方式是将目标教给机器,AlphaGo融合了几套算法,但是我和他们工程师沟通的时候,这样的把目标教给机器的强化学习,还并不成熟,也就是说如果没有之前三千万局人机对战的棋谱的话,AlphaGo没能够做到只通过强化学习来战胜人类,这是技术层面需要往下突破的重点。如果将目标教给机器,机器能够做自我学习,这方面有新的突破,那我们离新的人工智能时代就更近了。

  今年六月份,我去了英国伦敦,和DeepMind公司的工程师做了交流,我特别好奇的事情就是下棋的第四局机器输掉了,发生了什么事情?他们说不是程序有BUG,就是深度学习本身有瓶颈,围棋比赛是三月份,我是在六月份去的伦敦,已经过了三个月,三个月的时间,这个问题依然没有解决。但是我离开以后一个星期,他们的程序能够正确面对之前的第四局棋谱,我问他是否这个BUG修好了,工程师说没有,只是代表第四局那个特定问题,正好机器可以解决。但是我们依然不知道再什么情况下, AlphaGo会继续出错。所以深度学习这样一个体系其实还是有瓶颈所在的。

  所以在今天我更多想谈的是以深度学习为代表的今天的人工智能技术,还有哪些不靠谱的地方?在产品上不适用之处有哪些?

  第一个问题,语音识别靠谱吗?在百度、腾讯,都提到了语音识别的能力,今天我给大家的演示也用到了语音识别,这是搜狗自己的技术。在安静的环境里面我们的识别准确度已经到了95%,甚至97%,但是一旦有噪音,准确率迅速下降。当噪音还只是汽车的引擎噪音、风的噪音时,我们把噪音当成原始数据进入监督学习系统里去,把这种噪音变成机器见过的问题之一。但是事实上我们见到更多的情况,如果同时两个人说话会怎样?在今天的学术界依然无解。

  今年六月份,我问学术界的人,人和机器在语音识别上的区别,究竟怎么破解?我们用机器的时候,采用立体声的方式做定向的识别,也就是说我们做一个麦克风矩阵,通过立体的方式知道其中一个人在说话,把另外一个人说话去掉,但人本身是这样干的吗?如果把一只耳朵堵上,我是否没办法分离出谁在说话?或者把两个说话的声音录在一个单声道里面,人可以识别吗?人当然是可以的,所以人的方法和机器不一样。人怎么识别?因为人的音色不一样,还是因为两个人的一个声音大一个声音小,还是因为他们不同的语音,博士说但凡同时两个人说话的时候,只要能够找到差别,人就能够把其中的一个声音识别出来,所以人在和机器处理过程当中有巨大的不同。语音识别最成熟的领域其实还是和人有很大的区别。

  另外一件事情是语义靠谱吗?对语言的理解,谷歌在之前是用知识图谱的方法解决,现在遇到了瓶颈,也是今年六月,我在一个实验室看到最先进的人机对话系统,这个系统可以帮你订餐订酒店,对话过程当中机器的表现非常惊艳,我们上去试,有一个环节,机器问你:“你是需要停车位还是不要停车位?”这个时候我们回答要或者不要都没问题,如果回答“我没车”,大家知道机器会怎么样吗?他们完全不理解我没车代表着我不需要停车位,因为今天的机器,在自然语言概念的理解方面,还是远远不够的。所以自然语言处理是可以做的,但是语义理解到现在还是一个不靠谱的阶段。谷歌也在今年发布了一套对于自然语言能够做句子分析的引擎,把主语、谓语、宾语提出来,但是准确度只有90%,提不上去了,因为这个时候光靠统计靠语法已经不能支撑,往下是需要对句子当中的具体概念有理解才能消除歧义。我们知道不能把马路放在冰箱上面,这对于人来讲非常好理解,但是对计算机的挑战非常大,这是深度学习人工智能还不够的地方。

  很敏感的问题,无人驾驶靠谱吗?今天百度在大会上也提出了发布无人驾驶汽车,但是从我的了解,如果以今天人类的技术,我们确实再见过的场景和封闭场景中都可以使用。但是对于真正开放的环境,不只跑在高速上的汽车,以现在人类的技术是不安全的,因为这个场景只要没见过,可能会犯严重的错误,就像AlphaGo下棋一样会突然发疯,所以作为辅助驾驶是可以的,无人驾驶在真正的技术突破以前还做不到。今天的深度学习缺乏推理,缺乏对符号的理解,如果没有符号,对自然语言的理解就会成为瓶颈。