Analyzing Feed-Forward Blocks in Transformers Through Lens of Attention Map 放弃
目录
相关信息
作者
相关链接
一句话总结
这是一篇分析语言模型的 Transforemr 内部结构,特别是 FFN 的影响的文章。提出了一种新方法可视化特征图,只需要前向传播。
看不下去一点
摘要
Transformer 很多人在用,因此解释其内部就很重要。FFN 的分析都没什么人做。作者通过可视化分析了 FFN 对上下文的影响。通过对 masked-language models 和 causal-language models 的分析,发现了 FFN 强调了特定类型的语言组合。此外,FFN 和周围的模块通常会抵消彼此的影响,这说明 Transforemr 层中存在潜在的冗余
动机(介绍和相关工作)
跳过背景介绍部分
作者是怎么做的
作者提出了一种基于范数的方法用于分析 FFN 对特征图的影响。该方法有几个优点
- 不需要反向传播,只需要前向传播
- 对语言模型的研究发现了 FFN 的上下文效应(contextualization effects)。具体来说发现了特定层中的 FFN 和归一化往往在很大程度上控制着上下文;观察到了典型的 FFN 效应,独立于语言模型;发现 FFN 的影响会被周围的残差层和归一化层削弱,这说明 Transformer 内部存在冗余