搜索内容

最新文章
  • 2024年十月学习总结
    Newest

    2024年十月学习总结

    title: 2024年十月学习总结 tags: 月度总结 大学课程 各科作业保质按时完成 非关系型数据库小测 96/100 软件体系结构第一次作业 100/100 社会实践报告提交 自……
    2864818644 2024年11月1日
  • 【理论】大模型技术汇总-参数高效迁移学习方法
    AI

    【理论】大模型技术汇总-参数高效迁移学习方法

    1. 大模型技术汇总-参数高效迁移学习方法 (Parameter-efficient Transfer Learning),即固定住Pretrain Language model的大部分参数,仅调整模型的一小部分……
    Zhang, Hongxing 2024年10月31日
  • 【攀登计划 & 软著一作】思潮——基于数据挖掘的舆情与社会思潮可视化分析系统
    Newest

    【攀登计划 & 软著一作】思潮——基于数据挖掘的舆情与社会思潮可视化分析系统

    摘要:随着互联网技术的迅猛发展,网络舆情作为社会思潮的反映渠道,逐渐成为理解社会动态的前置步骤。然而,现有分析工具大多仅停留在信息和情绪的层面,缺……
    Zhang, Hongxing 2024年10月25日
  • 【理论】Norm:四种归一化的介绍及优缺点
    LLM

    【理论】Norm:四种归一化的介绍及优缺点

    Batch Norm:把每个Batch中,每句话的相同位置的字向量看成一组做归一化。 Layer Norm:在每一个句子中进行归一化。 Instance Norm:每一个字的字向量的看成……
    Zhang, Hongxing 2024年10月25日
  • 【APMCM数学建模竞赛】国家一等奖:基于改进YOLOv8模型的远景图像苹果识别
    CV

    【APMCM数学建模竞赛】国家一等奖:基于改进YOLOv8模型的远景图像苹果识别

    摘要:针对密植栽培苹果果园中环境复杂导致果实识别效果差问题,现有研究主要集中于优化近景图像在背景干扰、气象变化、季节变迁等情况下的识别效果,而较少……
    Zhang, Hongxing 2024年10月20日
  • 【理论】Transformer模型的参数量、计算量、中间激活、KV cache
    LLM

    【理论】Transformer模型的参数量、计算量、中间激活、KV cache

    transformer参数量计算 总的,每个transformer层的参数量为12h2+13h 。 除此之外,词嵌入矩阵的参数量也较多,词向量维度通常等于隐藏层维度 h ,词嵌入矩阵……
    Zhang, Hongxing 2024年10月10日
  • 2024年九月学习总结
    Newest

    2024年九月学习总结

    title: 2024年九月学习总结 tags: 月度总结 大学课程 2023年综测与绩点专业第一,连续两年了,加油,继续保持! 云计算作业 98/100 各科作业保质按时完成 非……
    Zhang, Hongxing 2024年9月30日
  • 2024年八月学习总结
    Newest

    2024年八月学习总结

    title: 2024年八月学习总结 tags: 月度总结 大学课程 开学了,要注意稳住绩点,保持第一名 编程学习与科研 NLP鱼书看了1/3 组会 竞赛与考证 数学建模国赛 区……
    2864818644 2024年8月31日
  • 【重点】Bert – 双向Encoder
    AI

    【重点】Bert – 双向Encoder

    摘要:BERT由嵌入层和Transformer的Encoder组成,输出Masked Language Model (MLM) 和 Next Sentence Prediction (NSP) 的预测结果。除此之外,本文还讨论了Em……
    Zhang, Hongxing 2024年8月20日
  • 【重点】Transformer
    AI

    【重点】Transformer

    摘要:Transformer模型通过自注意力机制进行信息建模,包含编码器和解码器两部分。编码器将输入序列转化为上下文丰富的表示,解码器则根据编码器输出和已生成……
    Zhang, Hongxing 2024年8月18日