Zhang, Hongxing 的文章
-
【重点】常见变体 – RNN LSTM GRU
摘要:Bidirectional RNNs通过结合前后序列信息,增强了对上下文的捕捉能力,适合填补缺失词语等任务。而Deep RNNs则通过叠加多层RNN,提升模型的表示能力。Bi…… -
2025年二月学习总结
title: 2025年二月学习总结 tags: 月度总结 编程学习与科研 清深科研实习 大创论文初稿 acm刷题 保研规划与知识储备 pytorch学习 复习深度学习知识 其他 润色…… -
【挑战杯创业计划竞赛 & 软著二作】国家三等奖:数你慧选——面向大学生的电脑智慧选购小程序
摘要:高校数码产品的市场容量已超过千亿元,调研发现,大学生在购买电脑时普遍存在产品选型痛点:难以买到与自身专业相匹配的电脑。目前淘宝等电商平台已支…… -
【重点】GRU – 门控循环神经网络
摘要:GRU通过重置门和更新门来控制信息的流动,简化了LSTM的结构并提高了计算效率。 1 模型原理 1.1 超参数 input_size :input_size 是指每个时间步长输入…… -
【省级教学改革项目 & 软著一作】语艺分割——基于图像处理和语义分割技术的艺术教学辅助工具
摘要:在传统绘画教学中,尽管经典赏析不断演变,却受限于传统表达方式,需要更高审美判断。未来人机交互需操作者有此能力。因此,“基于图像处理和语义分割技…… -
2025年一月学习总结
title: 2025年一月学习总结 tags: 月度总结 大学课程 进行下学期的排课和课程资源的收集 编程学习与科研 清深科研实习 推进大创论文进度 acm刷题 保研规划与…… -
【理论学习】深度学习的三种并行方式
简介 数据并行 (Data Parallelism) 模型/张量并行 (Model/Tensor Parallelism),注意这个术语在这几年的发展中产生了一些概念上的转变,现在其实人们所说的模…… -
【理论学习】NLP语言模型概览-语言模型结构分类、BERT
语言模型结构分类 Encoder-Decoder(Transformer): Encoder 部分是 Masked Multi-Head Self-Attention,Decoder 部分是 Casual Multi-Head Cross-Attention 和…… -
【理论学习】GPT和Bert的区别
1、GPT和Bert的区别? GPT vs Bert_bert和gpt的区别-CSDN博客 自学大语言模型之Bert和GPT的区别-CSDN博客 1)目标任务 Bert基于编码器,Bert 模型的输出是每…… -
【重点】LSTM – 长短时记忆神经网络
摘要:LSTM旨在解决传统RNN在处理长序列时出现的梯度消失和爆炸问题。通过输入门、遗忘门和输出门来控制信息的流动。 1 模型原理 1.1 超参数 input_size :i……