首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
Euler的博客
累计撰写
224
篇文章
累计创建
88
个标签
累计收到
0
条评论
栏目
首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
目 录
CONTENT
以下是
AI前沿
相关的文章
【OpenClaw】权限放开与免授权配置排查手册
背景 在本地部署 OpenClaw 后,常见诉求是: 访问 workspace 之外的文件时不要再被额外拦截 执行本地命令时不要频繁出现授权确认 apply_patch 可以修改 workspace 外的文件 已经显式放开权限后,运行时行为和预期保持一致 本文沉淀一次完整排查过程,重点覆盖 Open
2026-04-02
1
0
0
AI前沿
【Openclaw】openclaw多Agent配置方式
结论 OpenClaw 里的“多 Agent”主要有两种模式,先区分清楚: 路由隔离型多 Agent 不同消息按 bindings 路由到不同 agentId。每个 agent 有独立的 workspace、agentDir、sessions,适合“不同身份/不同渠道/不同人群”。 协作型多 Age
2026-03-20
9
0
0
AI前沿
【Agent】规划-执行分离中的接口、上下文与模型分工调研
问题背景 围绕 Planner -> Executor 这种 Agent 架构,一个核心争议是: 规划本质上是不是“生成后续 prompt” 如果规划模型和执行模型不同,是否天然破坏了原始训练分布 分离后上下文不共享,是否会导致执行器接不住规划器 执行阶段遇到环境错误时,是否会因为缺少全局目标而无法
2026-03-20
5
0
0
AI前沿
【Agent】Agent编排相关论文
相关论文 下面挑的是几篇最适合用来理解「Agent 编排」的代表性论文。它们不一定都直接使用 orchestration 这个词,但都对应了实际系统里最常见的编排范式。 1. ReAct: Synergizing Reasoning and Acting in Language Models 链接:
2026-03-20
4
0
0
AI前沿
【运维】OpenClaw + Slack 消息重复发送:现象、根因与修复
OpenClaw + Slack 出现“消息重复发送”的一次排查实录 最近在用 OpenClaw 接 Slack DM 时,遇到了一个很烦人的问题:同一条回复会在 Slack 里显示两遍。 根因 最终确认是 Slack 的流式回复链路(streaming)与 nativeStreaming 组合,导
2026-03-13
8
0
0
AI前沿
【模型训练】只奖励最终答案,为什么模型仍然学会了正确推理?
——RLVR 的工程机制与实践启示 1. 背景:RLVR 是否真的提升了推理能力? 随着 DeepSeek-R1 及其所采用的 GRPO(Group Relative Policy Optimization)算法引发广泛关注,Reinforcement Learning with Verifiabl
2026-01-07
21
0
0
深度学习
【Agent】Agent任务类型区分
很多讨论会把 “planning / research” 混在一起:有人说“要先规划”,有人说“要边做边想”。其实这两个词在工程语境里指向不同维度: planning:描述的是计划产物的结构化深度(shallow vs deep)。 research:描述的是执行过程是否形成闭环(linear vs
2025-12-20
24
0
0
AI前沿
【MCP】chrome-dev-mcp 调试及其常见问题
chrome 启动命令 /Applications/Google\ Chrome.app/Contents/MacOS/Google\ Chrome \ --remote-debugging-port=9222 \ --user-data-dir=/tmp/chrome-debug 注意点
2025-12-08
72
0
0
MCP
【模型通信】多机多卡通信体系梳理:NVLink、InfiniBand 与 RoCE
在深度学习模型规模持续扩大的背景下,单机单卡训练已无法满足大模型训练的吞吐需求。多机多卡架构成为主流方案,而在这类系统中,通信链路的带宽与延迟几乎直接决定训练效率与可扩展性。因此,理解 GPU 通信体系是大规模训练工程实践中不可绕过的核心基础。 本文将从整体架构视角出发,系统梳理多机多卡训练通信方案
2025-12-01
47
0
0
AI前沿
【LLaMA-Factory】核心参数配置指南
LLaMA-Factory 核心参数配置指南 在使用 LLaMA-Factory 进行模型微调时,界面上的几个核心参数往往让初学者感到困惑。这些参数看似简单,实际上每个都影响着模型的训练效果和性能表现。本文将深入解析这五个关键参数的作用机制和配置建议。 量化等级:在内存与精度间寻找平衡 量化等级(Q
2025-11-13
34
0
0
模型微调
1
2
3
4
5
6
7