首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
Euler的博客
累计撰写
211
篇文章
累计创建
82
个标签
累计收到
0
条评论
栏目
首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
目 录
CONTENT
以下是
AI前沿
相关的文章
【MCP】chrome-dev-mcp 调试及其常见问题
chrome 启动命令 /Applications/Google\ Chrome.app/Contents/MacOS/Google\ Chrome \ --remote-debugging-port=9222 \ --user-data-dir=/tmp/chrome-debug 注意点
2025-12-08
0
0
0
MCP
【模型通信】多机多卡通信体系梳理:NVLink、InfiniBand 与 RoCE
在深度学习模型规模持续扩大的背景下,单机单卡训练已无法满足大模型训练的吞吐需求。多机多卡架构成为主流方案,而在这类系统中,通信链路的带宽与延迟几乎直接决定训练效率与可扩展性。因此,理解 GPU 通信体系是大规模训练工程实践中不可绕过的核心基础。 本文将从整体架构视角出发,系统梳理多机多卡训练通信方案
2025-12-01
0
0
0
AI前沿
【LLaMA-Factory】核心参数配置指南
LLaMA-Factory 核心参数配置指南 在使用 LLaMA-Factory 进行模型微调时,界面上的几个核心参数往往让初学者感到困惑。这些参数看似简单,实际上每个都影响着模型的训练效果和性能表现。本文将深入解析这五个关键参数的作用机制和配置建议。 量化等级:在内存与精度间寻找平衡 量化等级(Q
2025-11-13
6
0
0
模型微调
【LLaMA-Factory】微调方法详解:LoRA、Freeze、OFT与Full对比
在使用LLaMA-Factory进行模型微调时,我们经常会遇到一个关键选择:应该使用哪种微调方法?LLaMA-Factory提供了四种主要的微调方法:LoRA、Freeze、OFT和Full。每种方法都有其独特的原理、适用场景和资源需求。本文将深入解析这四种方法的区别,帮助你在实际项目中做出合适的选
2025-11-13
2
0
0
模型微调
【LoRA】LoRA vs QLoRA 的区别
核心区别 LoRA (Low-Rank Adaptation) 参数高效微调方法 冻结原始模型权重,只训练低秩适配器(adapter) 模型以全精度(FP16/BF16)加载到显存 显存占用较高,适合显存充足的情况 QLoRA (Quantized LoRA) LoRA + 量化(Quantizat
2025-11-12
5
0
0
深度学习
【LoRA】LoRA 微调中的 target_modules 参数详解
LoRA 微调中的 target_modules 参数详解 什么是 target_modules? 在使用 LoRA (Low-Rank Adaptation) 进行大模型微调时,target_modules 是一个关键参数,它指定了哪些模块需要添加 LoRA 适配器。 简单来说:LoRA 不会修改
2025-11-11
2
0
0
深度学习
【深度学习】PERF 中 QUESTION_ANS 与 FEATURE_EXTRACTION 的区别
在进行参数高效微调(PERF/PEFT)时,QUESTION_ANS 和 FEATURE_EXTRACTION 这两种任务类型看似都需要特征提取,但实际上它们在训练过程中有本质的不同。 核心差异 任务目标 QUESTION_ANS:生成式任务,需要根据输入生成特定答案 FEATURE_EXTRACT
2025-11-11
1
0
0
深度学习
【深度学习】PEFT TaskType 任务类型详解
PEFT(Parameter-Efficient Fine-Tuning)是 Hugging Face 提供的参数高效微调库,在使用 LoRA、Prefix Tuning 等微调方法时,需要指定 TaskType 来告诉 PEFT 库当前任务的类型。正确选择任务类型对于模型微调的成功至关重要。 Ta
2025-11-11
0
0
0
深度学习
【理论】机器学习与大模型研究中的常见实验方案
在学术研究与工程实践中,**实验设计(Experimental Design)**是验证一个模型是否真的“有效”的核心环节。 一个好的实验方案不仅能证明方法确实带来了改进,更能揭示其背后的因果机制、泛化能力与局限性。 本文将系统梳理机器学习与语言模型(LLM)研究中常见的实验设计思路,帮助你在科研或
2025-11-04
3
0
0
深度学习
【论文】训练万亿参数模型的内存优化(ZeRO)
论文地址 标题:ZeRO: Memory Optimizations Toward Training Trillion Parameter Models 链接:https://ar5iv.labs.arxiv.org/html/1910.02054 作者:Samyam Rajbhandari, Je
2025-11-03
4
0
0
论文
1
2
3
4
5
6