MoE-Sys 文章记录 MoE Survey withinmiaov/A-Survey-on-Mixture-of-Experts-in-LLMs: The official GitHub page for the survey paper "A Survey on Mixture of Experts in Large Language Models". 一文弄懂Mixture of Experts 高性能计算 赖, 海斌 2025-05-20 130 热度 0评论
LLM Parameter Estimation 大模型参数量估计推导 1. 为什么需要估计参数量? 大模型(如 BERT、GPT、LLaMA)参数量通常亿级甚至万亿级,估计参数量有助于: 硬件需求评估:参数量影响内存和计算资源需求。 模型规模比较:参数量反映复杂度和潜在能力。 优化设计:在资源有限时,调整结构以平衡性能和效率。 参数量由模型的各个组成部分(层、权重矩阵、偏置等)决定,以下以 Transformer 架构为例推导。 2. Tran 高性能计算 赖, 海斌 2025-05-12 101 热度 0评论
LLM on CPU 推理流程python源码解析 其他框架解析: vllm 框架解析:LLM 高速推理框架 vLLM 源代码分析 / vLLM Source Code Analysis - 知乎 vLLM: Easy, Fast, and Cheap LLM Serving with PagedAttention | vLLM Blog llama.cpp llama.cpp源码解读--推理流程总览 - 知乎 纯新手教程:用llama.cpp本地 框架赏析 赖, 海斌 2025-04-18 294 热度 0评论