摘要: Layer Normalization(层归一化)和 Batch Normalization(批量归一化)都是深度学习中常用的归一化技术,用于加速训练过程和改善模型性能。它们的主要区别在于归一化的方式和应用的场景。 Batch Normalization(批量归一化): 归一化方式:Batch No 阅读全文
posted @ 2024-07-01 17:55 小丑_jk 阅读(3) 评论(0) 推荐(0) 编辑
摘要: llm的接入: https://blog.csdn.net/orientharp/article/details/139884688 embedding模型的接入: https://inference.readthedocs.io/zh-cn/latest/models/builtin/embedd 阅读全文
posted @ 2024-06-28 18:09 小丑_jk 阅读(4) 评论(0) 推荐(0) 编辑
摘要: https://inference.readthedocs.io/zh-cn/latest/models/builtin/llm/glm4-chat.html#model-spec-1-pytorch-9-billion 阅读全文
posted @ 2024-06-28 10:45 小丑_jk 阅读(2) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/692383624 阅读全文
posted @ 2024-06-28 00:40 小丑_jk 阅读(2) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/sinat_37574187/article/details/137842571 阅读全文
posted @ 2024-06-26 13:46 小丑_jk 阅读(10) 评论(0) 推荐(0) 编辑
摘要: import numpy as np def softmax(x, axis=-1): """Softmax函数,用于计算注意力权重""" e_x = np.exp(x - np.max(x, axis=axis, keepdims=True)) return e_x / e_x.sum(axis= 阅读全文
posted @ 2024-06-23 16:49 小丑_jk 阅读(39) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/weixin_38314865/article/details/107568686 阅读全文
posted @ 2024-06-22 22:49 小丑_jk 阅读(1) 评论(0) 推荐(0) 编辑
摘要: /atuotuo/p/9272368.html 阅读全文
posted @ 2024-06-19 15:35 小丑_jk 阅读(3) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/390510404 阅读全文
posted @ 2024-06-18 14:19 小丑_jk 阅读(4) 评论(0) 推荐(0) 编辑
摘要: https://github.com/nerdyrodent/VQGAN-CLIP/issues/164 阅读全文
posted @ 2024-06-12 13:40 小丑_jk 阅读(15) 评论(0) 推荐(0) 编辑