Newest
-
【理论学习】Watermark:大模型水印源码阅读记录
摘要:在这篇博客中,我将介绍水印的两个关键组件:WatermarkLogitsProcessor和WatermarkDetector。WatermarkLogitsProcessor的作用是在生成文本中插入水印信…… -
-
【大模型简介】LLM Fine-tunning
摘要:为了进一步了解大模型,我查阅学习了三种预训练大型语言模型的微调技术:参数高效的fine-tuning(PEFT)、Prompt-tuning、以及Instruction-Tuning。 1 …… -
【图床搭建】PicGo+阿里云搭建图床
摘要:本篇Blog介绍了如何结合PicGo与阿里云搭建图床。首先介绍了图床的付费方式,包括储存空间费和流量费;其次叙述了购买阿里云OSS服务的步骤;最后说明了P…… -
-
【理论学习】千亿模型并行训练技术
千亿模型并行训练技术 摘要: 进行并行加速,可以从数据和模型两个维度进行考虑。 2.1. 数据并行(Data Parallelism,DP) 数据进行切分(Partition),并将同…… -
2024年十月学习总结
title: 2024年十月学习总结 tags: 月度总结 大学课程 各科作业保质按时完成 非关系型数据库小测 96/100 软件体系结构第一次作业 100/100 社会实践报告提交 自…… -
【理论学习】大模型技术汇总-参数高效迁移学习方法
1. 大模型技术汇总-参数高效迁移学习方法 (Parameter-efficient Transfer Learning),即固定住Pretrain Language model的大部分参数,仅调整模型的一小部分…… -
【理论学习】Norm:四种归一化的介绍及优缺点
Batch Norm:把每个Batch中,每句话的相同位置的字向量看成一组做归一化。 Layer Norm:在每一个句子中进行归一化。 Instance Norm:每一个字的字向量的看成…… -