Skip to content
AlphaFold2

Highly accurate protein structure prediction with AlphaFold


回顾总体

经典之作再汇报XD
当前为汇报版直接复制过来,大多内容为口述未放到markdown中,待我有空补充一下
汇报我负责介绍编码器部分,所以下面只有编码器部分

下面是整体结构图


编码器

alt text
alt text
  • 多头自注意力机制(行,列)
  • MLP
  • 残差连接

行多头注意力机制

MSA row-wise gated self-attention with pair bias. Dimensions: s: sequences, r: residues, c: channels, h: heads.


行多头注意力机制


列多头注意力机制

基本与行一样

两个模块分开建模而不是一起,复杂度较低


MLP

在transformer,自注意机制主要是混合不同元素之间的信息

而mlp才是真正信息的提炼

对每个元素通过全连接层投影到原来4倍的大小,再通过Relu激活层投影回原始大小

全连接层的权重对每个元素共享


Out product mean

两个矩阵转为一个向量

  • 全连接层投影到c维
  • 做外积转为scc的张量
  • 取均值转为(c,c), 拉直投影为cm

Pair信息的自注意力


对信息的自注意力

汇报幻灯片

详见这里

题外话

不过现在该读AlphaFold3了