2018年10月15-16日,由决策者金融研究院和决策者集团主办的第十届金融科技决策者大会在上海隆重召开。
香港科技大学讲座教授,国际人工智能联合会IJCAI理事长杨强出席本次大会并作“人工智能和未来社会挑战与机遇”主题演讲,与大家探讨人工智能,尤其是在金融的场景。
香港科技大学讲座教授杨强现场演讲
以下内容根据杨强教授演讲实录整理而成:
人工智能现在热度很高。它在过去几十年的成就很多是来自一个一个攻克,一个一个里程碑。
第一个里程碑是1997年深蓝,人类的象棋冠军第一次被计算机打败。然后在2016年,我们熟知的AlphaGo也发生了几次非常瞩目的事件。2004年,第一次无人车突破了一百多英里的沙漠,成功地到达了目的地。2011年,IBM的对话机器人成功击败了电视辩论冠军。2017年,离现在最近的一个里程碑是德州扑克被计算机攻破。
计算机能有这么大的能量,主要取决于人工智能的成就。人工智能为什么能达到这一点?
首先,我们现在已经熟知的计算机视觉,就是在做了各种图片的标注以后,训练一个模型,这个模型通过大量模型参数的学习,我们可以记住这些像素和语义之间的关系。这种关系也可以延伸到语言。比如像IBM对话机器人可以把一句话转变成一个向量,最后可以在数据库里进行匹配,得到一个准确的答案来回答问题。AlphaGo引入了一个新的概念,叫做强化学习,使得机器在学习当中,不断地改进自己,最后能跟自己进行博弈,取得了瞩目的成就。
像这样的成就来自于几个基本方面,其中一个很重要的方面是大数据下的知识表达方法,也就是高维度的向量表达。比如我们把一个图片给分解成许多层次的模式,这些模式所对应的高维空间中的点都可以互相加以比较,他们的距离可以度量。有了这样的一个度量,我们首先可以取得一些特征。不管在图像识别还是语言处理,还是机器人的行为,都可以归纳成这三个要素。
第一个要素是要将数据变成大量的特征,这个特征是极高维度的,所以我们叫做极高维度的表达,同时也叫做世界统一表达。不管语音文字还是在金融方面的金融行为都可以在一个坐标系下面加以比较。
同时,我们引入了算法,使得我们可以去比较和学习这些高维度空间下的点。我们引入的概念包括强化学习、深度学习、迁移学习等等的学习机制。最后我们还需要一个非常有效的计算机架构。这个架构要高度可扩展,它不仅能够处理大数据,并且能够安全地处理在多方分布条件下的数据,这样的一种联合学习模式。
这里我举几个例子,也是我周边的一些同事所经历的例子。
香港科大利用了深度学习去准确地预测天气,比传统的天气预报用传统的统计方式和解析方式来做的要准很多。像这样的工作现在也大量用在气象台来做更加细微的天气预报。根据卫星图像处理,这种预报可以是公里级别的,也可以是小时级别的.
另外一个方向是在新闻推荐,我们现在熟知的信息流推荐,像我们每天用的今日头条等等。在这方面,我们大家可能不知道的是背后的强化学习模型,不仅要利用你现在用户个性化收集的用户资料,比如用户已经点击的文章来了解用户的个性化需求,并且还要照顾到用户可能没有看过的文章,可能还没有想到的这些兴趣,在这些方面,把这两者加以结合,这种结合的策略可以从一个领域迁移到另外一个领域,我们在这方面也在大数据的数据级,甚至在不同应用场合的数据级。比如一个数据级是APP推荐,另外一个是新闻推荐也取得了成功,就是推荐策略的迁移。
说起迁移学习,这也是我们人类比较习惯举一反三的能力,像我们学会了骑车,我们就可以很容易学会开摩托,正因为这两种活动间有很多的相似性,我们人类可以很容易比较和使用这种相似性。
这种学习过程也可以运用在商业、金融。AI应用公司在营销的数据级上取得了成功,在这个数据级上有一个特点,当消费的金额是大额消费的时候,用户数量特别小,那么小的数据是很难训练出一个好的模型来。如果用迁移学习方法,就可以在小额营销的数据上做一个模型,然后再把这个模型再迁移到大额消费的数据上。在迁移的过程中,要照顾到两个数据,两个领域之间的区别,这样就成功地把小数据的模型也能够建立起来,取得了不小的成功。
这个例子是在另外一个场景,城市计算的场景迁移学习和深度学习的共同作用取得了成功,这是上海汽车公司提供的一个互联网汽车数据,在根据汽车的轨迹,其中一个应用,一个任务是把汽车的用途进行分类。比如要问一下汽车是私家用还是网约。在这两分类的过程中,如果在一个城市已经取得了很多的成功,在另外一个城市,我们就根据城市之间的相似性和不同性进行成功的迁移。另外也可以从出租车到网约车也可以进行成功的知识迁移。
这个例子是斯坦福大学和联合国最近一起做的成功案例是通过卫星图像来为非洲大陆的贫困程度打分。这种工作往往时间很长,成本很昂贵,需要一些官员到本地去做调查。但是他们在这个工作当中,利用卫星图片上能发现的一些特征来进行分类,来进行取样。标注的事情是怎么样进行的呢?他们就很成功地利用了夜晚时间,利用灯光来告诉我们这个地区的经济发展程度,以此来取得一些初步的结果。再通过白天的卫星图像取得一些更加细节的特征,把这两个合起来,进行两步的深度学习和迁移学习,最后取得一个和人为几乎一样的调查效果,大量地节省了时间。
这种对话系统,像今天外面有演示,尤其像任务型的对话系统,现在在客服系统上已经大量的使用。这种系统是收集了很多特殊场景下的数据,比如开车时候的场景数据,这种数据的特点是它有目标,它的目的一个是要完成任务,一个是要让它对话的程度越短越好。这个过程可以用一个人工智能的技术,叫做强化学习来模拟。这个过程就是右边图所示,经过一系列的转换和深度学习的过程,最后就可以找出最有可能的答案,而且往往是针对这个任务是最简洁的答案。这样的工作也被一些金融公司采用,在这里的例子是微众银行面对几千万的用户,每天有大量的用户问询,在电话上、微信上跟客服的交流,现在几乎98%都可以用机器人来自动完成,就节省了很多的人力成本。
我们总结起来,像上面的案例都是在一些具体的场合有清晰的目标,有高质量大数据的场合来进行的。这种要持续的成功,就得有持续的外部反馈。这里我们说场景就是指清晰的目标和高质量的、连续的数据反馈。
同时我们又在想人工智能在这些领域取得成功,是不是就代表着人工智能很快地就在所有的方面,比如金融的所有环节都会自动取得成功呢?我们之所以今天对人工智能特别感兴趣,是因为我们不断地在提高效率,在提高收益,减少费用。
在这个过程中,当数字化的进程到了一定的成熟度以后,人工智能这种自动化的过程就很自然地被提出来。但是我们也要看到,人工智能也是经历了几起几落,在这里展示就是从上到下沿着时间,我们看到人工智能是经历了两个低谷,现在处于第三个峰值上面。
我们要问如果再来一个低谷,这个低谷有可能是为什么产生,我们现在为什么还没有看到我们周边大量地使用人工智能呢?这个里面的原因有很多,但是这里我要特别指出一点,数据的缺乏和大数据的缺乏可能是导致下一个人工智能低点的重要原因。这里我要举一个例子,我们认为大数据是一个聚集在一起的在一个很大的数据中心,像大公司才有的云或者数据中心里面聚集的高维度、多数据源的中心处理,但实际上不是这样的,数据往往是以孤岛的形式存在。
最近我们听说欧洲引入了一个新的法案,叫GDPR,个人隐私保护法。它大概的思想就是要保护隐私,但是举的这些条款却对人工智能来说是一个非常大的限制。
比如说要求收集数据方必须明确的说明这个数据的收集目的,这是为了保护用户。但是,如果这个数据被用在另外一个场合,另外一个目的,一定要回去跟原始用户说明取得同意才可以这样用。并且,用户是有被遗忘权的,如果一个用户的数据被用在一个模型里,他有权来把数据撤掉,就要删除用户的记录等等。
尤其对于人工智能来说,对于自动化模型是提出了非常大的质疑。现在提出全面禁止,也就是一个模型的背后要有责任人,这个模型如果出了错,要知道这个模型是向谁去解释这个模型的失败。用户也可以对模型提出质疑,他有权对自动化的决策进行解释。现在的人工智能,尤其是深度学习模型却做不到这一点,我们知道深度学习模型里面的参数是海量的,所以它的可解释性是极差的。
这就使很多的学者,包括下面的推特作者开始质疑我们现在做的人工智能方向和人类的要求,社会要求是对模型可解释我们可以有遗忘权,数据一定要有责任人,这种要求是不是背道而驰。
所以,我们现在对人工智能的下一步,我们认为数据是一个关键点。
当然,在人工智能领域也有人提出了各种各样的隐私理论用来保护用户隐私。大部分都是在数据里搀杂一些噪音,搀杂噪音的结果其实并不是很好,第一个是还需要把数据从A转移到B来进行共同建模。第二是加入噪音以后,模型的质量就会变得更差。这样的效果就促使我们再研究一些新的方式。
现在我们跟一些学者一起提出了新的建模架构,叫做联邦学习,具体叫做联邦迁移学习。如果我们看样本维度,用户维度,这些用户在A端和B端,浅蓝和深蓝的两端,可能他们的交集非常少。如果我们通过加密的算法,能够发现他们的交集。
在两边互相不透露隐私的前提下共同建模,我们就有办法能够达到一个协作,并且保护隐私的目的。我们提出的思路就可以使得企业的自有数据不出本地,模型效果和聚集在一起的模型通过加密技术,叫做同态加密技术做出来的效果一样。
在这个基础上我们使用区块链技术和人工智能技术加在一起,能够使多方联合建模。就像右边的图所示,这是一个技术图,表示建模的过程。
人工智能虽然在一些单独的领域,在一些里程碑式的应用上取得了成功,但是现在毕竟还是一些孤岛式的成就。它的一些主要成就来源是大数据,但是我们现在看到数据还是以孤岛形式存在。而且数据的联通变得越来越难,尤其是人为的规章制度。
我们如何能克服这些问题?就需要我们来提出一些新的算法架构。比如这种联邦学习的架构,还有建立数据联盟,能够在保护隐私的前提下,共同建模,一起成长。
大会相关文章链接: