Zhang, Hongxing 的文章
-
【大模型简介】LLM Fine-tunning
摘要:为了进一步了解大模型,我查阅学习了三种预训练大型语言模型的微调技术:参数高效的fine-tuning(PEFT)、Prompt-tuning、以及Instruction-Tuning。 1 …… -
【图床搭建】PicGo+阿里云搭建图床
摘要:本篇Blog介绍了如何结合PicGo与阿里云搭建图床。首先介绍了图床的付费方式,包括储存空间费和流量费;其次叙述了购买阿里云OSS服务的步骤;最后说明了P…… -
-
【理论学习】大模型技术汇总-参数高效迁移学习方法
1. 大模型技术汇总-参数高效迁移学习方法 (Parameter-efficient Transfer Learning),即固定住Pretrain Language model的大部分参数,仅调整模型的一小部分…… -
【理论学习】Norm:四种归一化的介绍及优缺点
Batch Norm:把每个Batch中,每句话的相同位置的字向量看成一组做归一化。 Layer Norm:在每一个句子中进行归一化。 Instance Norm:每一个字的字向量的看成…… -
-
【中科院自动化所实习】行人属性识别调研学习
Pedestrian attribution recognition is **the task of recognizing pedestrian features** - such as whether they are talking on a phone, whether…… -
【理论学习】Transformer模型的参数量、计算量、中间激活、KV cache
transformer参数量计算 总的,每个transformer层的参数量为12h2+13h 。 除此之外,词嵌入矩阵的参数量也较多,词向量维度通常等于隐藏层维度 h ,词嵌入矩阵…… -
-
2024年九月学习总结
title: 2024年九月学习总结 tags: 月度总结 大学课程 2023年综测与绩点专业第一,连续两年了,加油,继续保持! 云计算作业 98/100 各科作业保质按时完成 非……