Meta和巴黎理工学院的研究人员共同通过AI探讨了李雅普诺夫函数。在最新的这项研究中,研究者提出了一种从随机采样的李雅普诺夫函数生成训练数据的新技术。在这些数据集上训练的序列到序列Transformer在held-out测试集上达到了近乎完美的准确率(99%),在分布外测试集上达到了非常高的性能(73%)。研究者表示,生成模型可用于解决数学研究层面的问题,为数学家提供可能解决方案的猜测。黑箱模型提出的解决方案是明确的,其数学正确性可以得到验证。论文已经入选了NeurIPS 2024。
牛顿没解决的问题,AI给你解决了?
AI的推理能力一直是研究的焦点。作为最纯粹、要求最高的推理形式之一,能否解决高级的数学问题,无疑是衡量语言模型推理水平的一把尺。
虽然我们已经见证过来自谷歌DeepMind的Al以一分之差痛失IMO金牌,也从陶哲轩频频更新的动态中得知,AI工具已经在帮助数学家解决像「纽结理论」和「海狸难题」这样困扰数学家几个世纪的难题。
但是这些成果大多数都需要数学家作大量的前期工作,对于没有已知通用解法的开放性问题,AI也是一个小白。

最近的一项研究打破了这个局面。Meta和巴黎理工学院的研究人员共同探讨了一个困扰数学界长达132年的问题:李雅普诺夫函数。简单来说,李雅普诺夫函数用于判断一个动力系统相对于其平衡点或轨道,随着时间无限延长后是否能保持全局稳定。论文已经入选了NeurIPS 2024。

这类问题中,最出名的可能就是三体问题了:两个物体在没有其他引力的影响下相互绕行,如果再添加一个物体,在大多数情况下,这三个物体的运动都会变得混乱起来。

牛顿、拉格朗日和庞加莱都研究三体问题,但都没有找到根本性的解决方案。著名俄罗斯数学家和物理学家李雅普诺夫(Александр Ляпунов)发现,如果能找到系统的类熵函数—李雅普诺夫函数,就能保证系统的稳定性。遗憾的是,目前还没有已知的方法来推导一般情况下的李雅普诺夫函数,而且只发现了极少系统的李雅普诺夫函数解。
在最新的这项研究中,研究者提出了一种从随机采样的李雅普诺夫函数生成训练数据的新技术。在这些数据集上训练的序列到序列Transformer在held-out测试集上达到了近乎完美的准确率(99%),在分布外测试集上达到了非常高的性能(73%)。
这项研究表明,通过使用少量(300个)可以用现有算法方法解决的简单样本来丰富训练集,可以获得更高的准确率(84%)。AI模型在各种基准测试中的表现已经远超最先进的技术和人类的表现。
研究者表示,生成模型可用于解决数学研究层面的问题,为数学家提供可能解决方案的猜测。黑箱模型提出的解决方案是明确的,其数学正确性可以得到验证。或许,这项研究是解决数学开放问题的人工智能驱动蓝图。
三体问题与李雅普诺夫函数
三体问题是经典力学中最著名的未解问题之一。牛顿提出了万有引力定律,并通过微积分为两个物体之间的引力相互作用提供了精确的解。然而,当系统中增加第三个物体时,系统的复杂性显著增加,传统方法无法应对。

18世纪,拉格朗日做出了突破性的贡献:拉格朗日点。三体系统将在拉格朗日点达到平衡。然而,他的发现依然无法解决三体系统在长时间尺度下的整体稳定性问题。
到了19世纪末,庞加莱通过发展拓扑学和混沌理论,证明了某些条件下,三体系统会出现不可预测的混沌行为。这表明三体问题的复杂程度远超人们的想象,也意味着不存在普适的解。
1892年,李雅普诺夫又将这个世纪难题向前推进了一步。判断三体系统是否稳定,可以借助李雅普诺夫函数。
李雅普诺夫函数 V(x)需要满足以下条件才能保证系统的稳定性:
1.稳定平衡点

2.全域渐近稳定平衡点

不过,李雅普诺夫只提供了理论上的证明,想要实际计算出一个系统的函数解极为困难。虽然像SOSTOOLS这样的计算工具可以辅助,但它们的能力仅限于处理小型的多项式系统,对于更复杂的情况往往无能为力。
这项工作中,研究者训练序列到序列Transformer来预测给定系统的Lyapunov函数。他们将这个问题定义为一个翻译任务:问题和解决方案以符号Token序列的形式表示,模型从生成的系统和Lyapunov函数对中训练,以最小化预测序列和正确解决方案之间的交叉熵。研究者使用学习率为10⁻⁴的Adam优化器,在16个样本的批上训练具有8层、10个注意力头和640嵌入维度的Transformer,初始线性热身阶段为10000个优化步骤,并进行反平方根调度。所有实验都在8个V100GPU和32GB内存上运行,每个GPU的训练时间为12到15个小时。
数据生成
本文模型是在成对稳定系统和相关Lyapunov函数的大型数据集上进行训练和测试的。对此类稳定系统进行采样会遇到两个难题:首先,大多数动态系统都是不稳定的,没有通用的方法来判断一个系统是否稳定;其次,一旦对稳定系统进行采样,除了特殊情况外,没有找到 Lyapunov 函数的通用技术。
对于一般情况,研究者这里采用了后向生成法,即采样求解并生成相关问题;而对于小程度的可控多项式系统,研究者采用前向生成法,即采样系统并用求解器计算其解。
研究者生成了2个后向数据集和2个前向数据集用于训练和评估,并生成了一个较小的前向数据集用于评估。
后向数据集BPoly包含100万个非退化多项式系统S,其系数为整数,等式数为2到5(比例相同)。研究者还创建了BNonPoly,一个包含100万个非退化非多项式系统、2至5个等式的数据集。在这个数据集中,f的坐标是通用函数的多项式,对于这类系统,目前还没有发现Lyapunov函数的方法。
两个前向数据集都是使用Python的SumOfSquares软件包中的求解器生成的,并采用了与SOSTOOLS类似的技术。这些数据集中的所有系统都是具有2到3个方程的非零整数多项式和整数多项式Lyapunov函数,这些方法只能求解这些系统。FLyap是一个包含10万个系统的数据集,这些系统的Lyapunov函数都是非同次多项式;FBarr是一个有30万个以非均质多项式作为障碍函数的系统。这些数据集规模较小的原因在于SOS方法的计算成本以及发现Lyapunov或障碍函数的难度。
为了与发现多项式系统Lyapunov函数的最先进方法SOSTOOL进行比较,研究者还生成了一个测试集,其中包含SOSTOOLS可以求解的1500个具有整数系数的多项式系统(FSOSTOOLS)。
结果
研究者在不同数据集上训练的模型,在held-out测试集上达到了近乎完美的准确性,且在分布外测试集上则有非常高的性能,尤其是在用少量前向样本丰富训练集时。这些模型的性能大大优于此前最先进的技术,而且还能发现新系统的Lyapunov函数。
分布内/分布外准确率
表2展示了4个数据集上训练的模型性能。在它们所训练的数据集的保留测试集上进行测试时,所有模型都达到了很高的域内准确率。在前向数据集上,障碍函数的预测准确率超过90%,Lyapunov函数的预测准确率超过80%。在后向数据集上,基于BPoly训练的模型的准确率接近100%。可以注意到,集束搜索,即允许对解法进行多次猜测,能显著提高性能(对于性能较低的模型,束大小为50时,性能提高7%至10%)。研究者在所有进一步的实验中都使用了束大小50。

检验在生成数据上训练模型的试金石是它们在分布外(OOD)的泛化能力。表3展示了后向模型在前向生成集上的评估结果。在使用平方和Lyapunov函数(FLyap)对前向生成的随机多项式系统进行测试时,所有后向模型都达到了很高的准确率(73%到75%)。非多项式系统(BNonPoly)是最多样化的训练集,其性能也最好。在前向生成的具有障碍函数(FBarr)的系统集上,后向模型的精度较低,这可能是由于许多障碍函数并不一定是Lyapunov函数。在这些测试集上,后向模型必须应对不同的分布和(略微)不同的任务。另一方面,前向模型在后向测试集上的性能较低。这可能是由于这些训练集的规模较小。

总的来说,这些结果似乎证实了后向训练模型并没有学会反转其生成过程。如果是这样的话,它们在前向测试集上的表现就会接近于零。
丰富训练分布以提高性能
为了提高后向模型的OOD性能,研究者在其训练集中加入了极少量的前向生成的样本,带来了性能的显著提高,如表4所示。将FBarr中的300个样本添加到BPoly中,FBarr的准确率从35%提高到89%(尽管训练集中前向样本的比例仅为0.03%),而FLyap的OOD准确率提高了10个百分点以上。增加FLyap中的样本带来的改进较小。这些结果表明,通过在训练集中添加少量(几十个或几百个)我们知道如何求解的样本,可以大大提高根据后向生成数据训练的模型的OOD性能。在这里,额外的样本解决了一个较弱但相关的问题:发现障碍函数。由于提高性能所需的样本数量很少,因此这种技术特别具有成本效益。

与baseline的对比

如表5所示,在FSOSTOOLS上,一个以BPoly为基础并辅以500个FBarr系统训练的模型(PolyMixture)达到了84%的准确率,证实了混合模型的高OOD准确率。在所有生成的测试集上,PolyMixture的准确率都超过了84%,而findlyap在后向生成的测试集上的准确率仅为15%。这表明,在多项式系统上,与以前的技术水平相比,通过后向生成数据训练的Transformer取得了非常出色的结果。
平均而言,基于Transformer的模型也比SOS方法快得多。当尝试求解一个包含2至5个方程的随机多项式系统时,findlyap平均需要935.2秒(超时2400秒)。对于本文模型,使用greedy decoding时,推理和验证一个系统平均需要2.6秒,使用束大小为50时需要13.9秒。
发现新数学
表6列出了本文模型发现的正确解的百分比。在多项式数据集上,最佳模型(PolyM)分别在11.8%和10.1%的(degree 3和degree 5)系统中发现了Lyapunov函数,是findlyap的10 倍。对于非多项式系统,有12.7%的样本发现了Lyapunov函数。这些结果表明,从生成的系统数据集和Lyapunov函数中训练出来的语言模型确实可以发现未知的Lyapunov函数,其性能远远高于最先进的SOS求解器。

专家迭代
鉴于表6中模型的性能,可以利用新解决的问题来进一步微调模型。具体来说,研究者创建了一个针对多项式系统的经过验证的模型预测样本FIntoTheWild,并将其添加到原始训练样本中,然后继续训练模型。他们还测试了对模型进行微调的不同策略,并在表7中总结了正向基准和「wild」的性能。

在100万个训练集的基础上增加1000个经过验证的预测后,「to into wild」测试集的性能提高了约15%,而其他测试集(n4)的性能则没有受到影响。增加更多样本似乎是有害的,因为这会降低在其他基准(n5和n6)上的性能。研究者还注意到,使用来自其他分布的混合数据进行微调并不高效(结果n1和n2),而使用少量数据已经有助于获得一些改进(结果n3)。最后,使用来自FIntoTheWild的数据从头开始预训练模型并不高效(结果n7)。
更多研究细节,可参考原论文。
--机器之心