Newest
Project
NLP
CV
AI
LLM
ACM
Study
English
Tool
搜索内容
搜索
Newest
Project
NLP
CV
AI
LLM
ACM
Study
English
Tool
登录
包含标签:Transformer 的文章
AI
【重点】Transformer
摘要:Transformer模型通过自注意力机制进行信息建模,包含编码器和解码器两部分。编码器将输入序列转化为上下文丰富的表示,解码器则根据编码器输出和已生成……
Zhang, Hongxing
2025年4月18日
519
0
LLM
【理论学习】Transformer模型的参数量、计算量、中间激活、KV cache
transformer参数量计算 总的,每个transformer层的参数量为12h2+13h 。 除此之外,词嵌入矩阵的参数量也较多,词向量维度通常等于隐藏层维度 h ,词嵌入矩阵……
Zhang, Hongxing
2024年10月10日
298
0
Tag Cloud
Recent Posts
2025年五月学习总结
【重点】Bert – 双向Encoder
2025年四月学习总结
【清深CVML组实习】基于LLM的图表理解-文献阅读汇报
【重点】Transformer