Analyzing Feed-Forward Blocks in Transformers Through Lens of Attention Map 放弃 lolikonloli 发布于 2024-02-09 相关信息 作者 相关链接 一句话总结 这是一篇分析语言模型的 Transforemr 内部结构,特别是 FFN 的影响的文章。提出了一种新方法可视化特征图,只需要前向传播。 看不下去
PySide6的安装及工具介绍 lolikonloli 发布于 2024-02-09 安装软件 pip install pyside6 -i https://pypi.mirrors.ustc.edu.cn/simple安装PySide6,建议使用清华源或者
Vision Transformer with Quadrangle Attention lolikonloli 发布于 2024-02-09 作者信息 一句话总结 摘要 基于窗口的注意力很好用,但是手动设计窗口的参数与输入数据无关,这限制了 Transformer 对不同物体,大小、形状、和方向等属性的感知能力
闭包与工厂函数 lolikonloli 发布于 2024-02-09 闭包 闭包是一个函数,它记住了它被创建时的环境。更具体地说,闭包可以访问在其外部作用域定义的非全局变量,即使在其外部作用域的生命周期已经结束时