/images/avatar.webp

这是我的个人博客

Analyzing Feed-Forward Blocks in Transformers Through Lens of Attention Map 放弃

相关信息 作者 相关链接 一句话总结 这是一篇分析语言模型的 Transforemr 内部结构,特别是 FFN 的影响的文章。提出了一种新方法可视化特征图,只需要前向传播。 看不下去

PySide6的安装及工具介绍

安装软件 ​pip install pyside6 -i https://pypi.mirrors.ustc.edu.cn/simple​安装PySide6,建议使用清华源或者

Vision Transformer with Quadrangle Attention

作者信息 一句话总结 摘要 基于窗口的注意力很好用,但是手动设计窗口的参数与输入数据无关,这限制了 Transformer 对不同物体,大小、形状、和方向等属性的感知能力

闭包与工厂函数

闭包 闭包是一个函数,它记住了它被创建时的环境。更具体地说,闭包可以访问在其外部作用域定义的非全局变量,即使在其外部作用域的生命周期已经结束时
0%