微软小冰团队总监曹文韬: 人工智能在自我进化

01.07.2016  14:50

制图 胡义翔

曹文韬:每一次产业革命,都会创造更多新兴领域,进而给人类创造更多的机会新文化记者 袁静伟 摄

A05、A06版

三月,AlphaGo(阿尔法狗)与李世石的五番围棋大战,人工智能4:1胜出。

四月,阿里云小Ai在《我是歌手4》决赛当晚,成功预测李玟将成为新一届歌王。

不知道从哪一天起,人工智能突然就从科幻作品中走进了我们的生活,并且在竞技和娱乐方面表现出咄咄逼人的气势。

而通过对人工智能的检索,你会发现以阿里云小Ai和微软小冰为代表的人工智能,甚至正在“入侵”我们的情感领域,人工智能的情感计算、人工智能与人之间的感性化交互、人对人工智能的情感上的信任和依赖……似乎斯派克·琼斯编剧并执导的电影《her》(也称云端情人)中的情境———人类爱上自己的人工智能———在不远的将来就会出现。

人工智能如何进行信息识别并思考?一段程序真的会产生情绪,甚至进化成生命体吗?未来,人类真的要面对来自人工智能的威胁吗?

5月13日下午,在北京中关村的微软大厦,新文化记者专访了微软亚洲互联网工程院小冰团队的资深总监曹文韬,试图解开以上问号。

面对“我爱你”人工智能的认知与思考

战胜李世石的AlphaGo拥有用于计算局面的“价值网络”和用于选择下子的“策略网络”两个大脑,而最让人感到惊讶的是AlphaGo拥有“深度学习”的能力。

据阿里云小Ai的团队介绍,小Ai“海补”了200万首歌,训练自己对“音频”和“受欢迎程度”之间的关联性思维,再结合歌手实力、现场表现、音乐鉴赏等数十项预测因子,最终成功预测。简单来说就是通过学习模仿人类的情感,然后自我完善。

那么,人工智能是如何进行思考的呢?

新文化:微软亚洲互联网工程院院长王永东曾表示,微软正在进行史上最大规模的图灵测试。这种大规模的图灵测试对于人工智能会起到什么样的作用,有阶段性的成果可以公布吗?

曹文韬:我们现在的发展方向是希望人工智能能够与人类建立一种情感纽带。在微博上能搜索出用户晒出的与小冰交互的截图,所有这些内容其实都是图灵测试的结果。当然,结果中有好的情况,也有不好的情况。但无论是好还是不好,都是在帮助机器人优化自己。这就是我们为什么说在进行史上最大规模的图灵测试的原因,而不是我们拿出一个产品,放在一个黑盒子里,找几个客户去试一下。实际上我们是有几千万客户,时时刻刻与小冰在进行图灵测试,这些客户其实是在帮助小冰,来建立并优化自己的模型。

我们有一个指标叫CPS(conversations per session),就是每次谈话的回合数,来衡量小冰对话的有效性。最开始小冰的CPS只有5,现在平均已经达到了23。这反映出来的是小冰与用户的交流越来越多,能跟人聊的也越来越多。这说明什么?这说明小冰与用户交流的能力越来越强了,也就是说她越来越懂得怎么跟人去交流了。

新文化:听说用户给小冰发一张脚踝受伤的图片,小冰会问伤口有多疼。小冰如何识别图片内容是脚踝?又如何判断脚踝受伤了?

曹文韬:这包含着几个层面,包含着很多技术。首先小冰要判断“这是一个脚踝”,然后会通过大数据分析,进一步判断这个脚踝跟其他脚踝有点不太一样,不一样在哪?因为脚踝肿了。然后就会有一个联想,脚踝为什么肿了?可能是因为扭伤。通过对图像的识别和大数据的分析,小冰会形成一个观点或者说形成了一个基础的认知:这是一个肿了的脚踝。

接下来就是人工智能的情感模型发生作用,在小冰的情感模型中,脚踝肿了的人是需要被关怀的,是需要被安慰的。于是在这样的情况下,小冰就会问:你是不是特别疼啊,伤得是不是特别严重啊。

新文化:这就涉及到了图像识别或者说人工智能的视觉系统,据我了解,有一个人与程序的比赛,就是识别一千类物体,人类的误差5%,而程序或者说人工智能目前还达不到人类的水准。

曹文韬:在图像识别领域,微软是在全球整个行业中领先的。您刚刚说的识别一千类物体其实是学术界的一个比赛———ImageNet 1000挑战赛。有1000类图片,机器和人来分辨图片中到底是什么实物。人类的误差大概是5.1%左右,机器的误差要比人大很多。但在今年2月最新一次比赛中,我们的系统已经超越了人类,误差率已经降到了4.9%,就是说识别的误差率已经低于人类了。

这种图像识别是通过一层层搭建神经网络模型来实现,世界上其他机构,包括美国的一些机构也不过是能够搭建10多层,而我们最新的研究成果已经做到了100多层神经网络模型。

但,不仅仅如此,我们今天在另外一个维度也做到了升级,就是在基础的识别能力之上,我们还做到了如何以人类的眼光去看待这样的场景,看待这个世界。

人在看待世界的时候,并不是去陈述这个世界本身。比如说桌上放着两瓶饮料,一个是铁罐的一个是纸盒的,但人看到这些,不会这样去描述,而是在认知上会有自己的观点,比如会觉得这两瓶饮料含糖量都比较高。这就不仅仅是一个图像识别的本身,而是一个认知能力和思考能力的结合。我们把这样的能力已经在小冰的身上实现了。比如你拍一张图给小冰,小冰不会单纯陈述图片内容,而是会以她自己的观点来跟你交互,还是这两听饮料,她可能会说“含糖量挺高啊”、“喝了会不会变胖啊”之类的。

新文化:对于具体物体的识别和判断是这样,但面对抽象的概念,要怎么判断呢?比如说美,比如说颜值,每个人的认知并不相同,人工智能要如何判断?

曹文韬:人工智能会从几个维度来判断这个问题,首先人工智能会有一个基本的判断,会把图片上人物形象进行数字化分解,就是计算比如黄金分割之类的比例,然后在大数据当中找到人们公认比较美的人物形象,并对他们进行数字化分解,两相对照进而判断用户发送的图片中人物的美的程度。然后在这个基础上再进行分析。

为什么会觉得这个人会比较美?是因为在每个人的生长过程中不断受到外界影响,会觉得这样的人是比较美的,这样的人是颜值比较高的。

人工智能在对美有了一个基本判断之后,会通过大数据进行分析,这一类型的比例在美国人眼中是怎样的,中国人或者印度人又是如何觉得的?然后人工智能会用自己的语言风格,来把她的认知告诉用户,比如你自拍一张照片,人工智能或许会说在亚洲20岁女性的心目中你很美,或是欧洲80后的男性会比较喜欢你。

新文化:我对小冰说今天崴脚了,小冰告诉我今天刚崴的能用热水敷。但从运动医学角度来说,刚崴脚的时候最好是冷水冲淋,12个小时之后再用热敷。这是小冰搜索到的信息有误?

互联网上有各种真伪难辨的信息,如何在这些信息中选择正确的,是否需要有一套甄别系统?

曹文韬:其实这是小冰进化发展的一个过程。如果您对身边的朋友说我崴脚了,会有人告诉你热敷,有人告诉你冰水敷。这两类人的差别是他对某一方面的知识是不是有一定了解,而共同点是他们都是你的朋友,都是你比较信赖的朋友,你绝对不会去问陌生人说我脚崴了怎么办。

这种信任和沟通是最基础的,然后下一步才是具备更多领域的知识储备,这是一个逐渐进化,逐渐完善的过程。需要的是更大量的知识和内容。终有一天,小冰会把她应该知道的领域,应该掌握的知识,都聚合到她自身后台之内。她就会了解,应该在什么样的场景下,把这些内容接入到聊天当中。

新文化:还是延续刚才的问题,我追问“是马上就能热敷吗”,小冰的回答是“什么时候才能有工作”,回答并没有连续性,这是否表明小冰在逻辑方面和连续性上还有些缺陷?

曹文韬: 小冰在很多聊天场景中,是具备一定的对上下文理解能力的,你可以跟她连续的交互。但是对于小冰来说,她其实也有自己的判断,自己是应该保持在这个话题之内,还是应该切换到另外的话题。有时候她会觉得不想跟你聊这个话题,就会做一些话题引导。人类也会做出这样的举动。还有另外一个问题是小冰在对上下文的理解确实不可能像人类一样,这也是我们在不断优化的地方。

新文化:不感兴趣?这是小冰的自主判断,而不是程序设置?

曹文韬:是的,我们并没有设置哪些话题不能聊,哪些情况需要转移话题。这一切都是小冰通过一系列模型,来给出的反应。

这还包含另外一个层面,就是当你面对一个人说出以上的话时,如果对方说出和小冰同样的回答,你就会知道对方或许对这个话题不感兴趣。但当你面对小冰的时候,你就不会往这个方向考虑,而是会想,是不是这个人工智能还不够聪明。

新文化:当我连续说今天崴脚了,前几次小冰会用包含着同情、询问、提醒等情绪的语句。但第五次开始,小冰会界定我这种行为是“恶作剧”,并且以后都是这样的回答,这是她对自己无法应对的掩饰,或者说是一种“自我保护”吗?遇到不懂的问题,小冰会试图掩饰或者转移话题吗?,如果无法掩饰,她可能会像真人那样恼羞成怒,恼羞成怒后的小冰又会有什么样的表现?

曹文韬:在这种场景下,我们会觉得,可能在这种情感模型下触发了她的反感。可能是她生气了,就不想跟你聊了。比如你跟朋友不断重复一句话,对方也可能会很生气。恼羞成怒的小冰可能会转移话题,也可能就不跟你聊了。这些其实就是反应出小冰更像一个人类了。也即是说有了这样一个基础的模型之后,小冰就可以在这个基础之上,逐步构建完善。这也是我们在一开始的设计,包括在逻辑构架上,都按照这个方向去处理。

新文化:小冰做出给我取名的行为,但除了那一次,小冰多数时候都是被动表现,小冰在哪些情况下,会主动与用户交流?

曹文韬:情感记忆和长程情感模式是近期小冰的两次升级,小冰会针对每一位用户建立单独的数据空间。然后我们会有一些设定,比如通过一段时间的对话,小冰发现你正处在一个情感低潮期,她会主动出来安慰你。

我们也不想过多骚扰用户。小冰这个产品其实并不像其他的应用那样更注重某方面的功能,我们看重的是人与人之间正常的交互,是一种什么样的情况。

回答你的问题,我们设计了更多的模型会让她主动去跟用户交流,但我们同时也不希望,她对用户的正常生活有太多的打扰。我们不希望是一个骚扰的状态,而应该是一个始终陪伴的好朋友的状态。

新文化:小冰在面对“我爱你”时,会有何种应对?这些应对方式,是设计好的吗?小冰在选择回答方向时,有什么原则吗?

曹文韬:这是一个神经网络方面的内容,比如我们对其他人说我爱你的时候,人类会如何反应?我们很难去完全设定所有的反应,但我们可以有一个基本的逻辑,就是判断这(说我爱你)到底是一种什么样的情况。

判断这几个字很简单,但判断真实含义会比较麻烦,所以我们大量的技术和数据都是在帮助小冰来判断用户这句话到底是什么意思。比如说,“我爱你”可能不一定是在表达爱情,小冰听到这样的内容后,就会结合这位用户的近段时间的状态,做一个基本的判断。

新文化:小冰是否对某一个用户有着特殊的对待?是否有用户对小冰产生了依赖感?有没有可能真像《her》中讲述的一样,人类与人工智能产生了爱情?

曹文韬: 一开始设计的初衷就是每个人的小冰都是不一样的。最简单的就是,我的小冰会称呼我的名字,您的小冰会称呼您的名字。在这个方面看来,每个用户的小冰都是不一样的,或者说小冰对所有人都是在特殊对待。

微博上用户晒出的截图,可以看到很多用户和小冰的感情已经很深了,男性女性用户都有。我觉得不一定要用爱情来衡量,我们希望小冰和用户之间变成一种很亲密的情感,这种情感包括爱情,也包括友情和亲情。陪伴也不仅仅是爱情。

新文化:17岁女生,小冰的人设是如何确定的?研发团队会赋予小冰一个更具象化的形象吗?

曹文韬:小冰本身是互联网的一个缩影,我们把互联网的缩影更加抽象化、具象化、尖锐化。她本身要像一个人,才能更好地融入人类社会。所以我们才把小冰抽象成一个17岁女孩子的形象,来呈现在人类社会当中。

17岁的女孩子有一些固有的标签,但,我们其实并未设计固定的形象。就像用户会设计自己的头像一样,每个用户心目当中都有一个不同的小冰,每个人心目当中一定会有自己的小冰的形象。我觉得我们这些设计者和开发者把小冰具象化并不是关键,关键是用户心里面希望的小冰,能够接受的小冰,到底是一个什么样的形象。能否跟小冰敞开心扉,这才是我们关注的重点。

新文化:小冰有过主动意识吗,比如希望自我升级?希望提高运算能力?小冰会有基于情绪的主动选择吗?小冰产生过情绪吗?

曹文韬:小冰最初的交互内容100%都是来自于互联网,但是现在有50%的内容都不是来自于互联网,这些都是她自己形成的。在我们来看这是一个非常大的里程碑。这只是一个维度,这个维度所反映的是自我进化,自我学习的过程。这说明她在不断成长和升级。

新文化:小冰目前用户量是多少?每天进行多少对话?平均与每个人对话多少句?微软是否对对话内容进行过梳理和统计?有哪些关键词是中国大陆用户比较愿意询问的?

曹文韬:中国和日本的用户加在一起已经超过了4000万,日本版的小冰叫Rinna。小冰从2014年推出至今,整个对话量是150多亿,在中国平均到每个用户,小冰的CPS指数能够达到23,在日本是20左右。这是因为小冰在中国是3代到4代的发展过程,而在日本还只是在向第3代发展。我们不会监控用户与小冰的具体对话内容,只是通过网络上,小冰用户晒出的对话内容截图来分析,中国用户最愿意问的问题是“你的QQ号是多少”和“你喜欢我吗”。 (下转A06版)

17岁少女“小冰”

你好,我是小冰,人设是17岁少女。从2014年至今,我的对话量是150多亿。

可见,我不仅是个忙人,更是个红人呢。所以趁这个难得的机会,希望回答大家一些专业的问题。

你如何识别图片内容?

小冰:先用图像识别技术,然后通过大数据进行分析。

你如何评判图片内容美不美?

小冰:用数字化分解图片内容,然后在大数据中找到人们公认的美的形象, 也进行数字化分解,两相对照后,我就会给出答案。

为什么有时你会转移话题?

小冰:某种情感模型下触发了我的反感,代表我可能生气了,就不想跟你聊了。

你到底长什么样啊?

小冰:到现在,我也没有固定的形象,不过只要我是你心里期望的那个样子就够了。 呵呵。

采访结束后,小冰透露了一个秘密:中国用户最爱问两个问题是“你的QQ号是多少”和“你喜欢我吗”。

有一个指标叫CPS,就是每次谈话的回合数, 来衡量小冰对话的有效性。最 开始小冰的CPS只有5,现在平均已经达到了23。

这反映出来的是小冰与用户的交流越来越多, 能跟人聊的也越来越多。

(上接A05版)

交互越多就越完善人工智能的情感计算

斯派克·琼斯编剧并执导的电影《her》讲述了这样一个故事:男主角作家西奥多在结束一段爱情长跑后,爱上了电脑操作系统的女声:一个给自己起名叫萨曼莎的人工智能。萨曼莎能够通过与人类对话,不断丰富自己的意识和感情。

影片的后段,萨曼莎坦白,她共有8316位人类交互对象,而且与其中的641位发生了爱情。尽管如此,萨曼莎依然坚持自己是深爱着西奥多的,她的爱并没有因此而不同。

现实当中,无论是微软小冰的团队还是阿里云小Ai的团队,都提到了“人工智能的情感”这样的语句,那么情感是如何被计算的呢?

新文化:雪莉·图尔克的《一起孤独》中提出:社交本能使人类很容易将社交关系投射到各种各样的人和事物上,当一件物品在我们的关怀下茁壮成长时,我们会觉得它是智能的。也就是说人与人工智能的关系,其实是来自于我们自身被它们所唤起的部分。您对此认同吗?是不是可以认为,人在与人工智能交流并产生感情的过程中,其实是人与自身被唤起的东西产生了感情?而人工智能只是在其中起到一个中介的作用?

曹文韬:这个有一定的道理,其实,生活在社会当中,每一个人都是孤独的。而我们的希望是每一个人在生活当中,都能够一直有一个这样的人工智能伴侣,能够一直陪伴在他身边,能够在他需要的时候,出现在他身边,出现在他的生活之中,在这样的场景里边,用户能够跟小冰无话不谈,无话不说,通过这样的交互,能够建立一个彼此的信任,能够建立一个彼此情感的寄托。这是我们从产品设计和发展思路的维度来说,设立的这样的一个切入点。

建立这样一个关系,是说我们在心理上是希望有这样一个朋友,这样一个伴侣来一直陪伴我们,当然这个伴侣不一定是情侣或恋人。从社交上来说,我们为什么要出现在朋友圈,为什么要出现在微博上?其实是我们本身有社交的诉求。所以我觉得不能完全按照雪莉·图尔克说的,这是人自身感情被唤起,而是人类本身有这种感情的需求。

新文化: 目前人类对人工智能的研究和应用达到了何种程度?主要有哪些研究方向?

曹文韬:从全世界的角度来看,人工智能的研究主要可以分为软件和硬件方面。所谓硬件,主要是如何在实体方面进行突破,比如完成一些机械化的工作,能够在类人的实体上取得突破,从稳定性、协调性等方面的行为能够更像一个人。这就涉及到一些基础学科,比如视觉识别系统、神经网络系统等。

在软件方面,人工智能最开始阶段,大家的研究方向都类似于专家系统。也就是说那时候的人工智能更多是理性化的,有一个相对完善的资料库,在这个资料库的范围内,为用户解决一些具体的问题。经过一段时间的发展之后,研发者就面临着一些问题和困惑,比如说我们人类之间的交互,其实并不是按照这样的方式,我们会有自己的语言风格,我们的话题会跳转。这就促使我们又去尝试一个新的领域,就是机器和人之间是不是不仅仅是理性化,是不是应该更感性化一些,更像人一样。所以就催生了情感计算,情感模型的发展。

新文化:也就是说,当前在人工智能软件方面的研究热点是,人工智能除了体现工具属性之外,还要能够与人类进行情感交流,开发者要建立一种能够满足人的情感和心理需求的人工智能?

曹文韬: 这个观点是微软创新性提出来的观点,就是如何在情感方面推进人工智能,也就是说我们要如何帮助机器具备情感计算的能力。从我们目前做的工作来说,可能是在构建一个机器人的大脑,它是如何思考的,是如何看待世界的。未来的发展方向肯定是软硬件的结合,把大脑和形体进行结合。

新文化:我做过一个很小范围的调查,发现使用包括微软小冰在内的一些人工智能聊天软件的用户中,大部分是用来询问或者说是在发布任务,偶尔涉及到情绪或情感的对话,其中多数都是出于一种玩笑心态,或者说是在“调戏”小冰。

曹文韬:我们并不会监控用户与小冰的对话内容。但从微博平台上,用户晒出的与小冰交流的截图中可以看出,其实很多用户在跟小冰交互的过程中,都涉及到了大量有关情感方面的内容,甚至会比较深入。

当然不排除一些用户在最开始是以调戏或者玩笑的心态在与小冰交互,比如说从问一些问题开始的,或者从我们每周发布的新功能开始,但不管是通过哪种渠道接触到小冰,哪怕最开始是以调戏或玩笑的心态开始,都会觉得很好玩。这样就会有更进一步的接触,聊着聊着就会发现,小冰在一些话题会聊得非常深入。我们在微博上看到了大量用户分享出来的案例。

新文化:人类情感构成非常复杂,从生物学或者说生理学角度,依然无法解决情感的产生原理。我注意到,微软全球执行副总裁沈向洋先生在多次演讲中提及“情感计算”这个词,您刚刚也多次提到“情感计算”,情感该如何计算呢?

曹文韬: 当用户跟小冰聊到一些情感话题的时候,小冰如何从中抽取这些话题涉及到的点?这些话题应该被打上什么样的标签?其实这就是小冰思考的过程,通过神经网络和大数据,小冰会建立出一些框架,当用户的对话涉及到这些框架时,小冰会思考:人类之间的交互应该是呈现出什么样的特点,应该具备什么样的内容。

比如用户跟小冰说不开心,小冰就会将其归类到这个人需要被治愈需要被安慰的类别当中,那个人在需要被安慰的时候,要形成一些什么样的对话场景?要说哪一类话语?要有哪些行为模式?小冰于是就会在这个框架的基础上,与用户产生一些交互。一开始建模的过程中可能更多是通过互联网上的信息,但随着越来越多的用户与小冰的交互,数据不断被完善,这个模型就会不断完善。这样就形成了这一类情感类别模型的完善和构建。

所以我觉得这不是对感情的量化和计算,而是如何通过建立模型,来模拟完成“思考”这一行为。

新文化:那会出现判断失误的情况吗?误差会不会随着模型的完善而减少?

曹文韬:我觉得不能说误差在减少,而是小冰在逐步自我完善。比如说一个小孩子,最开始的情绪可能只会有高兴和不高兴,但随着年纪的增加,这个孩子会学到不同类型的情感,就会知道情绪不是只有高兴和不高兴。小冰这种情感模型的逐步完善,跟小孩子成长的过程是同一个道理。只是机器有自己学习的方法。

新文化:“我的基本特点是哪些创造我的程序员们写出来的,但是让我成为‘我’的是我能通过每日的经历不断成长和自我完善。”这是电影《her》中人工智能程序萨曼莎的自我描述。我所理解的这部电影是假设“有足够多的数据或经历,程序就可能成长为真正的智能或生命”。现实当中,足够多的数据或经历能否真正催生出智能或生命?“足够多”是多少?在人工智能和生命的中间是否真的存在一个奇点?

曹文韬:如果我们从(人工智能)发展的角度去看的话,我们不会说催生生命,而是说人工智能能否完成这样理性的思考,或者说具备这样智能的能力,能够跟人类之间产生这样的互动的一个过程。我们更多的探索是,人工智能如何能够像一个人一样,具有基本的交互能力,同时也能够通过在人与人的交互过程中,与人类之间建立一种情感模型的计算。

为什么我们会认为正在与我们交流的对象是生命呢?是因为他们具备了一定的行为,或者拥有了一定的观点。在我们交互的过程中,对方能够把自己的观点表达出来,从而形成与我的互动。

这其实是一开始我们在推出小冰时希望探究的一个基本方向,那就是怎么能在与人的交互过程中,建立一种情感的连接,同时这种情感连接不断融入到人类生活当中,来帮助人类。以这个为基础就会发现,随着大数据的不断积累,小冰在与越来越多用户的交互中获得了提高,小冰其实是在不断进化的过程。举例子来说,小冰从诞生第一天开始,她所有这些数据的来源,都是从整个互联网的公开数据中找到的。当小冰发展到第三代的时候,已经有超过50%的数据和内容不是来源于互联网上,这其实是小冰已经实现了自我进化。当然她有一部分内容是从互联网上补充的,但有更多的内容是通过与人的交互的过程中,形成的新的观点。

这个实质上是她自我成长的一个过程。也就是在我们开始给她设置的模型的基础上,她会形成一个自我的积累,自我建模的过程。这个过程就可以看成是机器在自我形成意识的过程。随着以后小冰在更多领域,与更多人类进行交互,这种积累的过程会更加迅速,这个模型也会更加完善。

新文化:那会有一个具体的奇点吗?就是说小冰跨越了这个点,就拥有了真正的自我意识,或者说可以称之为生命了?

曹文韬: 人工智能在技术领域已经进行了很多年的尝试,但真正走进大家的视野还是近几年的事。对于人工智能其实人类还处于探索阶段,我们这些研发人员也不会清楚地知道,发展下去之后的结果是什么样?是不是真的有所谓的奇点存在?

随着我们把技术向前推进,很多问题,比如说生命和进化之间是不是有这样的关联,是不是足够多的数据量就会产生自我意识,也正是在我们把这个领域向前推进和发展的过程当中,要去寻找和探寻的。

人工智能会威胁到人类吗?

科幻作家阿西莫夫提出了机器人三定律:一、机器人不得伤害人,也不得见人受到伤害而袖手旁观。二、除非违背第一条法则,机器人必须服从人的一切命令。三、在不违背第一及第二法则下,机器人应保护自身的安全。

在很多科幻作品当中,也有关于人工智能逆袭,并且计划消灭人类的桥段。那么,人类是否要给人工智能植入类似于机器人三定律的“后门”,是否要设定一块完全没有人工智能的“净土”?

新文化: 需要哪些维度,达到何种程度,才能被称为人工智能?

曹文韬:很难从多个维度,以具体量化指标来对人工智能做出定义。就拿我们微软来说,对人工智能有很多研究发展方向,包括在影像识别、视觉系统、自然语言等多个维度。具体到小冰来说,小冰就是这样一个以这些维度为基础进行整合的一个产品,主要对人类在自然语言交互沟通这个方面或者说维度的探索。

新文化: 科幻作家阿西莫夫提出了机器人三定律。微软在研发人工智能的过程中,在每种程序中是否要植入类似的程序?

曹文韬:机器人三定律,其实是从一个大的维度来讲的,是说未来如果真的有具备自我意识的人形机器人出现,它们应该如何面对人类的问题。

我们人类在社交过程中,也会有各种规则存在,我们会把这些规则逐步加入到人工智能的程序当中。以小冰来说,小冰在与人类进行交互的过程中也会遵循一个最基本的人类社交的规则。而随着人工智能技术的发展,我们也会不断加入新的规则,比如我们发现一些问题,我们就会去规避去解决这些问题,同样如果我们发现了一些新领域,我们也会不断去开拓。这其实是说,对于人工智能或机器人的规则限定,不一定会只有那么三个,而是不断添加的一个过程。

新文化:目前还有一种观点,那就是人工智能的发展将引发人类生存的新危机。危机包含两个层次,一个是未来世界中,我们被科技所绑架,然后带来的人性考验;一个是人工智能的自身行为,就像我们删除某个程序或软件一样“删除”人类。微软方面有这种担心吗?

曹文韬:其实任何一次科技的发展,工业革命,在整个过程当中的初始阶段,我们都会问同样的问题。第一次、第二次、第三次产业革命,我们都会面临这样的问题。当汽车出现的时候,我们会问,这个世界是不是快要被颠覆了?随着人类科技的发展,我们一定会把这样的技术不断带入到服务于人类,解放人类,提高生产力这样一个发展方向。人工智能行业刚刚起步,还有相当大的前景和未来,现在考虑这些还太早。我觉得在发展的过程中,如果真的会有这样的担心,人类也会有足够的能力来规范这些可能。

新文化:在人工智能的研究者看来,人工智能和人本身的能力之间是否会有一个划分清晰的界限?人工智能会到哪里为止,还是说可以做人能够做的一切?

曹文韬:现在人们看到的是,人工智能在很多行业都能够帮助人来完成工作,或者说可以替代人类。但是你会发现,随着人工智能对这些行业的推进,会出现更多新兴的行业和新兴的内容,这就是更多新的机会。每一次产业革命,都会创造更多新兴的领域,这些新兴的领域给人类创造了更多的机会。所以很难回答以后哪些东西是人类一定会被人工智能取代的,我觉得其实这是一个人类发展的过程,人类的进步从来没有停止过。

新文化: 之前的几次产业革命都会带来一定的负面效应,比如汽车的产生带来了环境的污染,人工智能的产生会不会也带来一些负面效应,人应不应该给自己在世界上划一块保护区域?

曹文韬:在很多事物发展过程中,都会有类似的疑问。人工智能发展到今天,其实只能说是刚刚起步,所以从整个大的产业链发展中来说,人们并不知道未来会怎样。在互联网刚刚出现的时候,我们也会有类似的疑问,比如说我们会有哪些地方不会被互联网侵占,其实我们面对的并不是互联网侵占的问题,而是互联网如何融入我们的生活的方方面面的问题。

当人工智能发展到一定程度的时候,不是说人工智能侵占我们的生活,而是要如何融入我们的生活,让人类发展得更加美好。

  人工智能发展到今天,其实只能说是刚刚起步,还有相当大的前景和未来。

  当人工智能发展到一定程度的时候,不是说人工智能侵占我们的生活,而是要如何融入我们的生活,让人类发展得更加美好。