人工智能技术应用于分子性质预测,这一领域在过去的十余年里进展飞速,通过优化算法与程序实现,计算模型的预测性能不断攀升,愈发使人满意。然而与此同时,人工智能模型的“黑箱”问题正变得更加严重。从早期引入的经典机器学习技术,如支持向量机(SVM)、随机森林(RF)等,到近年来相当热门的各类神经网络模型,模型复杂度的提升伴随着可解释性的下降。在药物设计领域,即使可靠的计算手段能为药物化学家预测出系列分子的生物活性,但究竟是哪些因素带来了活性上的有效改善或产生了不利影响,这些构效关系依旧难以获取,因此无法给出有价值的结构改造思路。
面对这样的问题,近年来相继报道了LIME、SHAP等用于从深度神经网络(DNN)模型中获取解释性信息的方法框架,以及此前通用的基于梯度或反向传播的方法。这些方法在经典机器学习和深度学习模型上均有所应用,但局限于提取单一特征并只能定性标记为正、负值,而不能反映出特征贡献的相对强度。
近日,赛诺菲公司的ChristophGrebner及其汉堡大学生物信息学中心的合作者报道了一种新的可视化方法,通过基于原子的热图,将可解释人工智能模型(XAI)给出的影响分子活性的解释信息,定量映射在分子中。这项工作发表在美国化学会出版的计算化学和化学信息学核心期刊JournalofChemicalInformationandModeling上(J.Chem.Inf.Model.,62,-)。
这项研究中,作者针对两种深度神经网络模型进行可解释化方法的应用,一种是采用2D分子指纹为输入的简单多层感知机(SimpleMultilayerPerceptrons),另一种则是通过DeepChem实现的图卷积神经网络(GCNNs)。随后,作者分别采用以下四种模型解释方法,并重点探索了第四类SHAP方法,而以前三种方法作为参考进行比较。
1.原子热图(AtomHeatmaps)
2.相关性分数分层传播(LayerwiseRelevancePropagation,LRP)
3.梯度热图(GradientHeatmaps)
4.SHAP(ShapleyAdditiveexPlanations)
其中,SHAP是一类基于博弈论中Shapley值的加性解释模型,作者具体采用了其中的Kernel-SHAP、Gradient-SHAP及Deep-SHAP三种方法。从后续的结果上看,三种方法的表现几乎没有明显区别(如图1),但在运算速度上后两者有明显优势。
图1:不同模型解释方法得到的肾素配体吲哚-3-酰胺系列化合物5k可视化热图(从左向右依次为DeepSHAP、GradientSHAP、KernelSHAP、梯度热图和虚拟原子热图;绿色表示对亲合性有利,红色表示对亲合性不利。)
为了研究可解释深度神经网络模型的实际性能与可视化效果,作者以公司内部药物研发时积累的数据设置了三个数据集,用于模型的训练、验证和测试。这些数据来自于对肾素和Xa因子(fXa,一种丝氨酸蛋白酶)的抑制剂设计和生物活性实验结果。由于并未进行额外的数据增强等处理,因此数据集能反映在真实世界中的药物设计情况,同时这两个靶点也得到了较为全面的探索,对其口袋与结合模式等都有充分的证据补充,其中的代表性配体有相应复合物的X-射线晶体衍射结构,如图2所示。
图2:人肾素抑制剂吲哚-3-酰胺系列代表性配体的复合物X射线晶体结构(分辨率:2.5?,PDB:3oot,IC50=2nM)
经过模型训练及参数调优,所得到的一系列DNN模型在亲合性预测上表现出中等水平,这主要是受到训练集大小的限制。由于现实的药物研发过程中,分子设计及结构改造、优化大多需要对构效关系进行研究,并基于此指导下一轮的探索。因此,为了重点讨论模型能否捕捉到药物设计中的构效关系,作者对数据集中具有代表性的例子进行分析,从模型解释方法给出的可视化结果中,可以发现模型根据这些微小的结构变化,预测出了其所带来的显著影响。
如图3所示,三种分子的活性从纳摩尔级到微摩尔级,有明显的变化趋势,而其相互之间的结构差异较小,区别主要集中在吲哚4、5位上的取代基和吲哚-2-苄基上的基团修饰。从图像中可以看出,DeepSHAP方法有效地提取到了吲哚环上修饰的微小差异,认为4-甲基、5-羟基的取代模式显著地改善了2n的亲合性,而5-甲氧基则为不利因素。这与图2晶体结构中展示的结合模式相匹配,即5-羟基可以与His形成氢键相互作用,改造为5b中的甲氧基则会破坏原先的氢键供体。在下方苯环的修饰上,模型解释认为三种分子的亲脂性基团取代均有利于蛋白配体相互作用,与实际的晶体结构相对照,发现该苯环处在S3疏水口袋中,提示适当增加亲脂性基团有利于更好地填充子口袋,提高亲合性。以此为例,上述两点均表明,DeepSHAP方法对深度神经网络的解释可视化可以获取到SAR信息,并为分子设计和结构优化提供有价值的建议。
图3:吲哚-3-酰胺系列化合物5k、2n、5b的DeepSHAP解释可视化热图。
但在另一方面,对于该系列分子的某些关键药效团,模型解释未能发现其重要性。图2所示的晶体结构中,配体分子右上角吗啉环上的仲胺在口袋中被质子化,并与S1子口袋中两个Asp残基形成静电相互作用,然而模型解释认为其影响不大。作者分析指出,由于训练数据中的分子在设计时已知这一重要的相互作用,因此基本都含有吗啉片段,对于模型而言自然无法学习到该片段的变化所带来的影响。这一现象提示了模型的预测及解释依赖于所使用的数据集中结构与描述符的变化。
进一步地,作者探索了训练集大小与化学多样性对于模型预测和解释能力的影响,将靶点fXa的数据集分为仅含吲哚-2-酰胺系列化合物的小数据集和包含各个系列抑制剂的大数据集。结果表明,由于较大的数据集中高活性分子占比更小,因此模型在评估各个子结构的亲合性贡献时,基线的水平被整体拉低。因此在小数据集模型上表现较为不利的结构片段,大数据集模型认为其对亲合性的负面影响相对更小。如图4所示,化合物1中的吲哚环在上下两种模型预测结果存在着明显差异。这进一步证明了模型的解释性能受到了数据集中数据分布的影响,提示研究者在使用XAI模型时,最好能对模型所使用的数据分布与特点有大致了解。
图4:吲哚-2-酰胺系列化合物3、1、21的DeepSHAP解释可视化热图。(第一排为小数据集模型结果,第二排为大数据集模型结果)
小结
这项工作对用于亲合性预测的深度神经网络模型如何进行模型解释展开了有效地探索,表明在应用模型解释方法(如SHAP)的情况下,深度神经网络模型可以利用真实世界中的药物设计数据,获取关键的构效关系信息,并通过有效的可视化手段直观地启发研究者,产生进一步的分子设计思路。
但同时要注意,由于模型解释方法并不一定能适用于各种神经网络架构,因此开发可解释型人工智能模型时需要考虑解释算法的适用性。此外,这项工作也表明,当前的XAI相当依赖于特定的任务场景,归根结底,这种依赖性来自于所使用数据集的结构和分布。因此对于使用者而言,掌握数据集的大致情况依旧是相当有必要的。但不论如何,可解释型人工智能在药物研发领域的进一步发展和应用非常值得人们的期待。
参考文献
Harren,T.;Matter,H.;Hessler,G.;Rarey,M.;Grebner,C.,InterpretationofStructure–ActivityRelationshipsinReal-WorldDrugDesignDataSetsUsingExplainableArtificialIntelligence.J.Chem.Inf.Model.,62,-.(DOI:10./acs.jcim.1c)
---------End---------
感兴趣的读者,可以添加小邦