Nvidia教授关于金融深度学习的世界

19
05月

高性能游戏和人工智能计算巨头Nvidia去年推出了深度学习研究所(DLI),现在提供有关将此技术应用于金融垂直领域的首批课程。

首批深度学习实验课程之一将专注于资本市场交易领域,将于12月5日在举行的 (地点有限)举行。

金融服务人工智能负责人兼Nvidia高级主管Andy Steinbach解释说:“没有很多学术研究表明如何采用这些神经网络技术并使其适应融资。我们已经非常需要这一点。

相关:

“我们开始开发实验室,展示如何结合基本构建模块,如自动编码器,循环神经网络,强化学习,以及非常相关的财务问题,如算法交易,统计套利,优化交易执行等等,我们已经完成了那。”

高性能计算和AI

Nvidia在推动人工智能和深入学习未来的同时,还有风。 并行计算硬件使得在大型数据集上构建模型和训练算法比使用CPU更快地实现。

Nvidia的DGX1系统是一个功能强大的开箱即用的深度学习启动设备,适用于数据科学团队,它带有一个云软件注册表,其中包含预构建的即插即用软件容器中的深度学习框架。

Steinbach说:“许多IT基础架构团队尚未开发深度学习方面的专业知识。因此,深入学习框架运行的任务 - 无论是CPU还是GPU - 可能会落到数据科学团队。但DGX允许您避免您的数据科学团队花费大量时间在基础架构操作上,只是为了完成您需要他们做的AI工作。“

除了GPU架构非常适合需要扩展到许多并行计算的算法之外,深度学习框架还有助于处理网络的多样性。 例如,递归神经网络适用于金融工程,因为它们允许您合并时间序列。 像自动编码器这样的工具可以帮助您解决可能没有标记数据的事实; 你可能实际上并不知道你在寻找什么; 一些行为模式 - 但你不能标记它,你希望网络发现它。

然后还有更先进的技术,如强化学习,可以学习游戏策略,谷歌用它来创建击败世界上最好的Go玩家的Alpha Go; 或者像生成对抗网络这样的方法,它们实际上学会模仿某些东西,它们可以欺骗对方看着它。

斯坦巴赫说:“深度学习框架使研究人员能够非常快速地构建这些网络,而不必每次都在软件方面重建轮子。”

“有趣的是,大多数这些算法都缩减为引擎盖下的主训练算法,称为反向传播,它是高度并行的,可以更容易地在多个GPU上扩展计算。

“该算法需要大量数据流 - 它可以是图像,可以是音频,也可以是数据 - 并训练这些网络和所有参数,因此这些复杂的深度学习算法映射到这个相对简单的大规模并行算法。

“如果您的深度神经网络在大数据集上的训练速度不够快,您实际上可以按下按钮并将其扩展到数据中心的更多GPU。”

市场预测问题

虽然人工智能在计算机视觉等用例中出现了一些“大爆炸”,但将这种类型的学习应用于金融世界仍然是一个主张较少的学术证据和示例代码的命题。 试图预测资产价格意味着在大型非平稳数据集上运行模型,并借助于此,试图预测未来 - 几十年来一直在努力解决的问题。

金融市场被描述为短期投票机,长期称重机; 换句话说,趋势跟随和投机之后是更有意义的估值。 解读这些非确定性的行为模式是一项挑战; 行为模型仅对某一点准确,称为模型风险。

“然而,深度学习代表了数据科学的范式转变,当你开始使用数据来构建模型时,而不是相反,”Steinbach说。 “这大大避免了模型风险,因此在量化金融工程中将变得更加重要。”

上面提到的行为模式可以具有特征时间尺度。 这些模式可以存在于微秒级别,例如,高频交易者通过利用高速网络的不同交换之间的微小差异来获得微小的套利收益。 动量股票周围存在日间交易模式,人们都必须在午餐时间或当天结束时平仓。

“现在这些规则中的许多都是由计算机驱动的。如果你可以研究市场中的模式,你可以推断人们用什么规则来交易;如果你能推断出那么你可以在那个时间尺度上预测,“斯坦巴赫说。

深度学习算法也可用于标记市场中何时发生政权更迭; 该算法可能无法预测之后的实际行为,但至少你有这个红旗,编码到你的算法中,可以说,“嘿所有的赌注都关闭了 - 你最好降低风险,”Steinbach指出。

“或者算法可能能够告诉你市场体制正在发生变化 - 并且通过一系列对过去行为进行过训练的算法,它实际上认识到它正在从几年后变为不同的制度,或者另一种行为模式识别。

“深度学习可以发现趋势,情绪变化和风险,风险偏离行为,这可能就像从一种类型的股票转向更具防御性的类型一样简单。”

过度拟合和深度学习

过度拟合是一个典型的统计问题,因此模型不能很好地概括从训练数据到看不见的数据。 当模型描述随机误差和噪声而不是基础关系或信号时,通常是因为模型过于复杂并且可能具有太多参数。 深度学习可以使用诸如“辍学”之类的正规化技术来缓解过度拟合。

斯坦巴赫说:“辍学者做的是随机设置权重为零;他们试图做的是让所有个体神经元能够自己做出贡献。

“他们正试图消除可能导致过度拟合的不太可能的神经元组合。有一种Okham的Razor原理,如果你有一条穿过每个数据点的疯狂曲线,你可能会过度拟合。

“如果你使用这些技术来正确地避免过度拟合,那么网络将找不到那种不存在的相关性。如果它不能准确地产生,它就不会给你错误的答案。”

大数据突破

在2000年代发生的大数据方面取得了一些重大突破。 该技术的一个开创性阶段始于2006年,当时来自斯坦福的Fei-Fei Li的研究团队标记了一个巨大的图像数据库ImageNet,利用众包解决方案以亚马逊机械土耳其人的形式进行大量图像检查。

2009年的一篇论文发布不大,但该项目逐渐成为ImageNet竞赛,该竞赛成为图像分类算法在ImageNet数据集上执行情况的基准。

2012年ImageNet竞赛的结果被认为是人工智能研究历史上的一个突破性时刻。 这看到多伦多大学的Geoffrey Hinton团队使用深度卷积神经网络(CNN)将现有的准确度水平提高了10%以上。

在过去几年中,CNN的准确率达到了97%。 Nvidia的研究在使这些网络进程更快的过程中发挥了作用。

Andy Steinbach将于12月6日至7日在纽约举行的新闻周刊会议上讨论深度学习,该会议是人工智能和机器学习交易专家最重要的聚会。 加入我们与主要行业参与者进行为期两天的会谈,研讨会和网络会议。