详解Transformer中Self-Attention以及Multi-Head Attention

原文名称:Attention Is All You Need
原文链接:https://arxiv.org/abs/1706.03762

如果不想看文章的可以看下我在b站上录的视频:https://b23.tv/gucpvt

最近Transformer在CV领域很火,Transformer是2017年Google在Computation and Language上发表的,当时主要是针对自然语言处理领域提出的(之前的RNN模型记忆长度有限且无法并行化,只有计算完

t

i

t_i

ti时刻后的数据才能计算

t

i

+

1

t_{i+1}

ti+1时刻的数据,但Transformer都可以做到)。在这篇文章中作者提出了Self-Attention的概念,然后在此基础上提出Multi-Head Attention,所以本文对Self-Attention以及Multi-Head Attention的理论进行详细的讲解。在阅读本文之前,建议大家先去看下李弘毅老师讲的Transformer的内容。本文的内容是基于李宏毅老师讲的内容加上自己阅读一些源码进行的总结。



前言

如果之前你有在网上找过self-attention或者transformer的相关资料,基本上都是贴的原论文中的几张图以及公式,如下图,讲的都挺抽象的,反正就是看不懂(可能我太菜的原因)。就像李弘毅老师课程里讲到的"不懂的人再怎么看也不会懂的"。那接下来本文就结合李弘毅老师课上的内容加上原论文的公式来一个个进行详解。

attention is all you need


Self-Attention

下面这个图是我自己画的,为了方便大家理解,假设输入的序列长度为2,输入就两个节点

x

1

,

x

2

x_1, x_2

x1,x2,然后通过Input Embedding也就是图中的

f

(

x

)

f(x)

f(x)将输入映射到

a

1

,

a

2

a_1, a_2

a1,a2。紧接着分别将

a

1

,

a

2

a_1, a_2

a1,a2分别通过三个变换矩阵

W

q

,

W

k

,

W

v

W_q, W_k, W_v

Wq,Wk,Wv(这三个参数是可训练的,是共享的)得到对应的

q

i

,

k

i

,

v

i

q^i, k^i, v^i

qi,ki,vi(这里在源码中是直接使用全连接层实现的,这里为了方便理解,忽略偏执)。

self-attention

其中

  • q

    q

    q代表query,后续会去和每一个

    k

    k

    k进行匹配

  • k

    k

    k代表key,后续会被每个

    q

    q

    q匹配

  • v

    v

    v代表从

    a

    a

    a中提取得到的信息

  • 后续

    q

    q

    q

    k

    k

    k匹配的过程可以理解成计算两者的相关性,相关性越大对应

    v

    v

    v的权重也就越大

假设

a

1

=

(

1

,

1

)

,

a

2

=

(

1

,

0

)

,

W

q

=

(

1

,

1

0

,

1

)

a_1=(1, 1), a_2=(1,0), W^q= \binom{1, 1}{0, 1}

a1=(1,1),a2=(1,0),Wq=(0,11,1)那么:

q

1

=

(

1

,

1

)

(

1

,

1

0

,

1

)

=

(

1

,

2

)

,

   

q

2

=

(

1

,

0

)

(

1

,

1

0

,

1

)

=

(

1

,

1

)

q^1 = (1, 1) \binom{1, 1}{0, 1} =(1, 2) , \ \ \ q^2 = (1, 0) \binom{1, 1}{0, 1} =(1, 1)

q1=(1,1)(0,11,1)=(1,2),   q2=(1,0)(0,11,1)=(1,1)
前面有说Transformer是可以并行化的,所以可以直接写成:

(

q

1

q

2

)

=

(

1

,

1

1

,

0

)

(

1

,

1

0

,

1

)

=

(

1

,

2

1

,

1

)

\binom{q^1}{q^2} = \binom{1, 1}{1, 0} \binom{1, 1}{0, 1} = \binom{1, 2}{1, 1}

(q2q1)=(1,01,1)(0,11,1)=(1,11,2)
同理我们可以得到

(

k

1

k

2

)

\binom{k^1}{k^2}

(k2k1)

(

v

1

v

2

)

\binom{v^1}{v^2}

(v2v1),那么求得的

(

q

1

q

2

)

\binom{q^1}{q^2}

(q2q1)就是原论文中的

Q

Q

Q

(

k

1

k

2

)

\binom{k^1}{k^2}

(k2k1)就是

K

K

K

(

v

1

v

2

)

\binom{v^1}{v^2}

(v2v1)就是

V

V

V。接着先拿

q

1

q^1

q1和每个

k

k

k进行match,点乘操作,接着除以

d

\sqrt{d}

d

得到对应的

α

\alpha

α,其中

d

d

d代表向量

k

i

k^i

ki的长度,在本示例中等于2,除以

d

\sqrt{d}

d

的原因在论文中的解释是“进行点乘后的数值很大,导致通过softmax后梯度变的很小”,所以通过除以

d

\sqrt{d}

d

来进行缩放。比如计算

α

1

,

i

\alpha_{1, i}

α1,i

α

1

,

1

=

q

1

k

1

d

=

1

×

1

+

2

×

0

2

=

0.71

α

1

,

2

=

q

1

k

2

d

=

1

×

0

+

2

×

1

2

=

1.41

\alpha_{1, 1} = \frac{q^1 \cdot k^1}{\sqrt{d}}=\frac{1\times 1+2\times 0}{\sqrt{2}}=0.71 \\ \alpha_{1, 2} = \frac{q^1 \cdot k^2}{\sqrt{d}}=\frac{1\times 0+2\times 1}{\sqrt{2}}=1.41

α1,1=d

q1k1=2

1×1+2×0=0.71α1,2=d

q1k2=2

1×0+2×1=1.41
同理拿

q

2

q^2

q2去匹配所有的

k

k

k能得到

α

2

,

i

\alpha_{2, i}

α2,i,统一写成矩阵乘法形式:

(

α

1

,

1

  

α

1

,

2

α

2

,

1

  

α

2

,

2

)

=

(

q

1

q

2

)

(

k

1

k

2

)

T

d

\binom{\alpha_{1, 1} \ \ \alpha_{1, 2}}{\alpha_{2, 1} \ \ \alpha_{2, 2}}=\frac{\binom{q^1}{q^2}\binom{k^1}{k^2}^T}{\sqrt{d}}

(α2,1  α2,2α1,1  α1,2)=d

(q2q1)(k2k1)T
接着对每一行即

(

α

1

,

1

,

α

1

,

2

)

(\alpha_{1, 1}, \alpha_{1, 2})

(α1,1,α1,2)

(

α

2

,

1

,

α

2

,

2

)

(\alpha_{2, 1}, \alpha_{2, 2})

(α2,1,α2,2)分别进行softmax处理得到

(

α

^

1

,

1

,

α

^

1

,

2

)

(\hat\alpha_{1, 1}, \hat\alpha_{1, 2})

(α^1,1,α^1,2)

(

α

^

2

,

1

,

α

^

2

,

2

)

(\hat\alpha_{2, 1}, \hat\alpha_{2, 2})

(α^2,1,α^2,2),这里的

α

^

\hat{\alpha}

α^相当于计算得到针对每个

v

v

v的权重。到这我们就完成了

A

t

t

e

n

t

i

o

n

(

Q

,

K

,

V

)

{\rm Attention}(Q, K, V)

Attention(Q,K,V)公式中

s

o

f

t

m

a

x

(

Q

K

T

d

k

)

{\rm softmax}(\frac{QK^T}{\sqrt{d_k}})

softmax(dk

QKT)部分。

self-attention
上面已经计算得到

α

\alpha

α,即针对每个

v

v

v的权重,接着进行加权得到最终结果:

b

1

=

α

^

1

,

1

×

v

1

+

α

^

1

,

2

×

v

2

=

(

0.33

,

0.67

)

b

2

=

α

^

2

,

1

×

v

1

+

α

^

2

,

2

×

v

2

=

(

0.50

,

0.50

)

b_1 = \hat{\alpha}_{1, 1} \times v^1 + \hat{\alpha}_{1, 2} \times v^2=(0.33, 0.67) \\ b_2 = \hat{\alpha}_{2, 1} \times v^1 + \hat{\alpha}_{2, 2} \times v^2=(0.50, 0.50)

b1=α^1,1×v1+α^1,2×v2=(0.33,0.67)b2=α^2,1×v1+α^2,2×v2=(0.50,0.50)
统一写成矩阵乘法形式:

(

b

1

b

2

)

=

(

α

^

1

,

1

  

α

^

1

,

2

α

^

2

,

1

  

α

^

2

,

2

)

(

v

1

v

2

)

\binom{b_1}{b_2} = \binom{\hat\alpha_{1, 1} \ \ \hat\alpha_{1, 2}}{\hat\alpha_{2, 1} \ \ \hat\alpha_{2, 2}}\binom{v^1}{v^2}

(b2b1)=(α^2,1  α^2,2α^1,1  α^1,2)(v2v1)
self-attention到这,Self-Attention的内容就讲完了。总结下来就是论文中的一个公式:

A

t

t

e

n

t

i

o

n

(

Q

,

K

,

V

)

=

s

o

f

t

m

a

x

(

Q

K

T

d

k

)

V

{\rm Attention}(Q, K, V)={\rm softmax}(\frac{QK^T}{\sqrt{d_k}})V

Attention(Q,K,V)=softmax(dk

QKT)V


Multi-Head Attention

刚刚已经聊完了Self-Attention模块,接下来再来看看Multi-Head Attention模块,实际使用中基本使用的还是Multi-Head Attention模块。原论文中说使用多头注意力机制能够联合来自不同head部分学习到的信息。Multi-head attention allows the model to jointly attend to information from different representation subspaces at different positions.其实只要懂了Self-Attention模块Multi-Head Attention模块就非常简单了。

首先还是和Self-Attention模块一样将

a

i

a_i

ai分别通过

W

q

,

W

k

,

W

v

W^q, W^k, W^v

Wq,Wk,Wv得到对应的

q

i

,

k

i

,

v

i

q^i, k^i, v^i

qi,ki,vi,然后再根据使用的head的数目

h

h

h进一步把得到的

q

i

,

k

i

,

v

i

q^i, k^i, v^i

qi,ki,vi均分成

h

h

h份。比如下图中假设

h

=

2

h=2

h=2然后

q

1

q^1

q1拆分成

q

1

,

1

q^{1,1}

q1,1

q

1

,

2

q^{1,2}

q1,2,那么

q

1

,

1

q^{1,1}

q1,1就属于head1,

q

1

,

2

q^{1,2}

q1,2属于head2。

multi-head
看到这里,如果读过原论文的人肯定有疑问,论文中不是写的通过

W

i

Q

,

W

i

K

,

W

i

V

W^Q_i, W^K_i, W^V_i

WiQ,WiK,WiV映射得到每个head的

Q

i

,

K

i

,

V

i

Q_i, K_i, V_i

Qi,Ki,Vi吗:

h

e

a

d

i

=

A

t

t

e

n

t

i

o

n

(

Q

W

i

Q

,

K

W

i

K

,

V

W

i

V

)

head_i = {\rm Attention}(QW^Q_i, KW^K_i, VW^V_i)

headi=Attention(QWiQ,KWiK,VWiV)
但我在github上看的一些源码中就是简单的进行均分,其实也可以将

W

i

Q

,

W

i

K

,

W

i

V

W^Q_i, W^K_i, W^V_i

WiQ,WiK,WiV设置成对应值来实现均分,比如下图中的Q通过

W

1

Q

W^Q_1

W1Q就能得到均分后的

Q

1

Q_1

Q1

multi-head
通过上述方法就能得到每个

h

e

a

d

i

head_i

headi对应的

Q

i

,

K

i

,

V

i

Q_i, K_i, V_i

Qi,Ki,Vi参数,接下来针对每个head使用和Self-Attention中相同的方法即可得到对应的结果。

A

t

t

e

n

t

i

o

n

(

Q

i

,

K

i

,

V

i

)

=

s

o

f

t

m

a

x

(

Q

i

K

i

T

d

k

)

V

i

{\rm Attention}(Q_i, K_i, V_i)={\rm softmax}(\frac{Q_iK_i^T}{\sqrt{d_k}})V_i

Attention(Qi,Ki,Vi)=softmax(dk

QiKiT)Vi

multi-head
接着将每个head得到的结果进行concat拼接,比如下图中

b

1

,

1

b_{1,1}

b1,1

h

e

a

d

1

head_1

head1得到的

b

1

b_1

b1)和

b

1

,

2

b_{1,2}

b1,2

h

e

a

d

2

head_2

head2得到的

b

1

b_1

b1)拼接在一起,

b

2

,

1

b_{2,1}

b2,1

h

e

a

d

1

head_1

head1得到的

b

2

b_2

b2)和

b

2

,

2

b_{2,2}

b2,2

h

e

a

d

2

head_2

head2得到的

b

2

b_2

b2)拼接在一起。

multi-head
接着将拼接后的结果通过

W

O

W^O

WO(可学习的参数)进行融合,如下图所示,融合后得到最终的结果

b

1

,

b

2

b_1, b_2

b1,b2

在这里插入图片描述
到这,Multi-Head Attention的内容就讲完了。总结下来就是论文中的两个公式:

M

u

l

t

i

H

e

a

d

(

Q

,

K

,

V

)

=

C

o

n

c

a

t

(

h

e

a

d

1

,

.

.

.

,

h

e

a

d

h

)

W

O

w

h

e

r

e

 

h

e

a

d

i

=

A

t

t

e

n

t

i

o

n

(

Q

W

i

Q

,

K

W

i

K

,

V

W

i

V

)

{\rm MultiHead}(Q, K, V) = {\rm Concat(head_1,...,head_h)}W^O \\ {\rm where \ head_i = Attention}(QW_i^Q, KW_i^K, VW_i^V)

MultiHead(Q,K,V)=Concat(head1,...,headh)WOwhere headi=Attention(QWiQ,KWiK,VWiV)


Self-Attention与Multi-Head Attention计算量对比

在原论文章节3.2.2中最后有说两者的计算量其实差不多。Due to the reduced dimension of each head, the total computational cost is similar to that of single-head attention with full dimensionality.下面做了个简单的实验,这个model文件大家先忽略哪来的。这个Attention就是实现Multi-head Attention的方法,其中包括上面讲的所有步骤。

  • 首先创建了一个Self-Attention模块(单头)a1,然后把proj变量置为Identity(Identity对应的是Multi-Head Attention中最后那个

    W

    o

    W^o

    Wo的映射,单头中是没有的,所以置为Identity即不做任何操作)。

  • 再创建一个Multi-Head Attention模块(多头)a2,然后设置8个head。
  • 创建一个随机变量,注意shape
  • 使用fvcore分别计算两个模块的FLOPs
import torch
from fvcore.nn import FlopCountAnalysis

from model import Attention


def main():
    # Self-Attention
    a1 = Attention(dim=512, num_heads=1)
    a1.proj = torch.nn.Identity()  # remove Wo

    # Multi-Head Attention
    a2 = Attention(dim=512, num_heads=8)

    # [batch_size, num_tokens, total_embed_dim]
    t = (torch.rand(32, 1024, 512),)

    flops1 = FlopCountAnalysis(a1, t)
    print("Self-Attention FLOPs:", flops1.total())

    flops2 = FlopCountAnalysis(a2, t)
    print("Multi-Head Attention FLOPs:", flops2.total())


if __name__ == '__main__':
    main()

终端输出如下, 可以发现确实两者的FLOPs差不多,Multi-Head AttentionSelf-Attention略高一点:

Self-Attention FLOPs: 60129542144
Multi-Head Attention FLOPs: 68719476736

其实两者FLOPs的差异只是在最后的

W

O

W^O

WO上,如果把Multi-Head Attentio

W

O

W^O

WO也删除(即把a2的proj也设置成Identity),可以看出两者FLOPs是一样的:

Self-Attention FLOPs: 60129542144
Multi-Head Attention FLOPs: 60129542144

Positional Encoding

如果仔细观察刚刚讲的Self-Attention和Multi-Head Attention模块,在计算中是没有考虑到位置信息的。假设在Self-Attention模块中,输入

a

1

,

a

2

,

a

3

a_1, a_2, a_3

a1,a2,a3得到

b

1

,

b

2

,

b

3

b_1, b_2, b_3

b1,b2,b3。对于

a

1

a_1

a1而言,

a

2

a_2

a2

a

3

a_3

a3离它都是一样近的而且没有先后顺序。假设将输入的顺序改为

a

1

,

a

3

,

a

2

a_1, a_3, a_2

a1,a3,a2,对结果

b

1

b_1

b1是没有任何影响的。下面是使用Pytorch做的一个实验,首先使用nn.MultiheadAttention创建一个Self-Attention模块(num_heads=1),注意这里在正向传播过程中直接传入

Q

K

V

QKV

QKV,接着创建两个顺序不同的

Q

K

V

QKV

QKV变量t1和t2(主要是将

q

2

,

k

2

,

v

2

q^2, k^2, v^2

q2,k2,v2

q

3

,

k

3

,

v

3

q^3, k^3, v^3

q3,k3,v3的顺序换了下),分别将这两个变量输入Self-Attention模块进行正向传播。

import torch
import torch.nn as nn


m = nn.MultiheadAttention(embed_dim=2, num_heads=1)

t1 = [[[1., 2.],   # q1, k1, v1
       [2., 3.],   # q2, k2, v2
       [3., 4.]]]  # q3, k3, v3

t2 = [[[1., 2.],   # q1, k1, v1
       [3., 4.],   # q3, k3, v3
       [2., 3.]]]  # q2, k2, v2

q, k, v = torch.as_tensor(t1), torch.as_tensor(t1), torch.as_tensor(t1)
print("result1: \n", m(q, k, v))

q, k, v = torch.as_tensor(t2), torch.as_tensor(t2), torch.as_tensor(t2)
print("result2: \n", m(q, k, v))

对比结果可以发现,即使调换了

q

2

,

k

2

,

v

2

q^2, k^2, v^2

q2,k2,v2

q

3

,

k

3

,

v

3

q^3, k^3, v^3

q3,k3,v3的顺序,但对于

b

1

b_1

b1是没有影响的。

test
为了引入位置信息,在原论文中引入了位置编码positional encodingsTo this end, we add "positional encodings" to the input embeddings at the bottoms of the encoder and decoder stacks.如下图所示,位置编码是直接加在输入的

a

=

{

a

1

,

.

.

.

,

a

n

}

a=\{a_1,...,a_n\}

a={a1,...,an}中的,即

p

e

=

{

p

e

1

,

.

.

.

,

p

e

n

}

pe=\{pe_1,...,pe_n\}

pe={pe1,...,pen}

a

=

{

a

1

,

.

.

.

,

a

n

}

a=\{a_1,...,a_n\}

a={a1,...,an}拥有相同的维度大小。关于位置编码在原论文中有提出两种方案,一种是原论文中使用的固定编码,即论文中给出的sine and cosine functions方法,按照该方法可计算出位置编码;另一种是可训练的位置编码,作者说尝试了两种方法发现结果差不多(但在ViT论文中使用的是可训练的位置编码)。

positional encoding


超参对比

关于Transformer中的一些超参数的实验对比可以参考原论文的表3,如下图所示。其中:

  • N表示重复堆叠Transformer Block的次数
  • d

    m

    o

    d

    e

    l

    d_{model}

    dmodel表示Multi-Head Self-Attention输入输出的token维度(向量长度)

  • d

    f

    f

    d_{ff}

    dff表示在MLP(feed forward)中隐层的节点个数

  • h表示Multi-Head Self-Attention中head的个数
  • d

    k

    ,

    d

    v

    d_k, d_v

    dk,dv表示Multi-Head Self-Attention中每个head的key(K)以及query(Q)的维度

  • P

    d

    r

    o

    p

    P_{drop}

    Pdrop表示dropout层的drop_rate

在这里插入图片描述

到这,关于Self-Attention、Multi-Head Attention以及位置编码的内容就全部讲完了,如果有讲的不对的地方希望大家指出。

版权声明:本文为CSDN博主「太阳花的小绿豆」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_37541097/article/details/117691873

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

Swin-Transformer网络结构详解

0 前言
Swin Transformer是2021年微软研究院发表在ICCV上的一篇文章,并且已经获得ICCV 2021 best paper的荣誉称号。Swin Transformer网络是Transformer模型在视觉领