AI
-
【理论】千亿模型并行训练技术
千亿模型并行训练技术 摘要: 进行并行加速,可以从数据和模型两个维度进行考虑。 2.1. 数据并行(Data Parallelism,DP) 数据进行切分(Partition),并将同…… -
【理论】大模型技术汇总-参数高效迁移学习方法
1. 大模型技术汇总-参数高效迁移学习方法 (Parameter-efficient Transfer Learning),即固定住Pretrain Language model的大部分参数,仅调整模型的一小部分…… -
【重点】Bert – 双向Encoder
摘要:BERT由嵌入层和Transformer的Encoder组成,输出Masked Language Model (MLM) 和 Next Sentence Prediction (NSP) 的预测结果。除此之外,本文还讨论了Em…… -
-
【重点】常见变体 – RNN LSTM GRU
摘要:Bidirectional RNNs通过结合前后序列信息,增强了对上下文的捕捉能力,适合填补缺失词语等任务。而Deep RNNs则通过叠加多层RNN,提升模型的表示能力。Bi…… -
【重点】GRU – 门控循环神经网络
摘要:GRU通过重置门和更新门来控制信息的流动,简化了LSTM的结构并提高了计算效率。 1 模型原理 1.1 超参数 input_size :input_size 是指每个时间步长输入…… -
【重点】LSTM – 长短时记忆神经网络
摘要:LSTM旨在解决传统RNN在处理长序列时出现的梯度消失和爆炸问题。通过输入门、遗忘门和输出门来控制信息的流动。 1 模型原理 1.1 超参数 input_size :i…… -
【重点】RNN – 循环神经网络
摘要:RNN(循环神经网络)是一种能处理序列数据的神经网络,可以利用先前的输入信息来进行预测当前时刻的值。 1 模型原理 1.1 超参数 input_size :input_s…… -
-