摘要: Unifying VL Tasks:Transformer 与大模型 1 Transformer Encoder Transformer 诞生于 2017 年。最初始的 Transformer 用于机器翻译。 Encoder(编码器)是为了处理一个输入的语句。 1.1 自注意力机制 Self-Attention(SA,自注意力)机制是 Transformer(中文叫“ 阅读全文
posted @ 2024-04-20 14:36 ReitsukiHikari 阅读(11) 评论(0) 推荐(0) 编辑