摘要近几十年来,随着各种新的疾病出现,药物研发变得极为重要。然而,药物研发的过程是十分繁琐的,且成功率极低。当一种新的疾病出现时,往往需要投入大量的人力和物力,并且需要耗费大量的时间才可能会有相关治疗的药物出现,这对病人来说是极为不利的,特别是比较严重的疾病,为此迫切需要使用一些方法来提高这个过程的效率和降低失败的可能性。其中,药物从头设计已经成为一种有前途的方法,分子从零开始生成,减少了对反复试验和预先制作的分子存储库的依赖,但分子性质的优化仍然具有挑战性,阻碍了从头药物设计方法的实施,所以开发一种新的框架对药物进行优化是有必要的。本研究主要基于强化学习(Reinforcement Learning,RL)的经典算法—REINFORCE算法—对多目标属性和多靶点进行优化。其主要成果如下:<br> 1. 基于多目标奖励加权和与强化学习的Stack-RNN药物从头设计。为了使优化后的分子化合物具有更大的内部多样性,我们首先提出了使用两个堆栈增广循环网络(stack-augmented recurrent nets, Stack-RNN)来共同生成类药物分子的框架,同时加入记忆储存网络来增加其分子化合物的内部多样性。其次,为了解决多目标优化过程中由于属性之间可能存在相互冲突而产生的化合物的性质极度偏向某一种属性的问题,提出了一种利用不同属性奖励值的大小为分子优化分配不同权重的奖励方法。最后利用了动态探索这种策略来缓解强化学习优化过程中探索和利用这两难问题。为了验证方法是否有效,分别收集了两种药物数据进行数值模拟,同时与两种不同的奖励机制(传统的加权和和交替加权和)和两种不同的模型(ORGANIC和DrugEx)进行比较,其属性得到了提升。<br> 2. 基于Stack-RNN和强化学习的帕累托多靶点药物设计和优化。为了进一步优化药物分子使其可以和多个靶点进行结合,我们提出使用两个两层的Stack-RNN作为生成模型交替采样分子,并加入帕累托多目标排序的方法来处理多靶点药物设计可能出现的矛盾问题。为了验证方法的可用性,我们收集了腺苷A1,A2A和hERG三种靶点数据进行实验验证,同时与加权和的方法进行了比较。
更多相关知识
- 浏览0
- 被引0
- 下载0
相似文献
- 中文期刊
- 外文期刊
- 学位论文
- 会议论文