首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
Euler的博客
累计撰写
211
篇文章
累计创建
82
个标签
累计收到
0
条评论
栏目
首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
目 录
CONTENT
最新文章
【数据库】数据库中的 Schema 究竟是什么?
在日常数据库开发中,“schema”一词经常出现,但它的含义在不同数据库系统中并不一致。在一些项目中,schema 常被工程师用来指代“表结构”的变更,而在某些数据库(例如 PostgreSQL)中,schema 又具有严格的命名空间含义。为了便于理解,这篇文章从概念、不同数据库的实现差异和典型应用
2025-12-12
1
0
0
数据库与搜索
【运维】Docker 镜像最多能有多少层?以及每个 RUN 是否都会产生一层
在写 Dockerfile 的时候,很多人都会隐约记得一句话: “每个 RUN 都会生成一层” 这句话基本正确,但不够完整。本文从 Docker 镜像层的上限说起,系统梳理 Dockerfile 各指令与镜像层之间的关系,并给出一些实战建议。 一、Docker 镜像最多能有多少层? Docker 镜
2025-12-10
0
0
0
运维部署
【MCP】chrome-dev-mcp 调试及其常见问题
chrome 启动命令 /Applications/Google\ Chrome.app/Contents/MacOS/Google\ Chrome \ --remote-debugging-port=9222 \ --user-data-dir=/tmp/chrome-debug 注意点
2025-12-08
0
0
0
MCP
【模型通信】多机多卡通信体系梳理:NVLink、InfiniBand 与 RoCE
在深度学习模型规模持续扩大的背景下,单机单卡训练已无法满足大模型训练的吞吐需求。多机多卡架构成为主流方案,而在这类系统中,通信链路的带宽与延迟几乎直接决定训练效率与可扩展性。因此,理解 GPU 通信体系是大规模训练工程实践中不可绕过的核心基础。 本文将从整体架构视角出发,系统梳理多机多卡训练通信方案
2025-12-01
0
0
0
AI前沿
【Golang】golangci-lint安装与配置
golangci-lint 是一个功能强大的静态分析工具,专为 Go 语言开发者设计,帮助发现潜在的代码问题并改进代码质量。通过集成多个 Go 语言的 linter(如 govet, golint, gocyclo 等),它可以在开发过程中自动检测到代码中的错误、潜在的性能瓶颈、不规范的代码风格,甚
2025-11-27
1
0
0
后端技术
【工具】iTerm2 中 Vim 无法上下滚动文件内容的解决方案
现状 在使用 macOS 系统的 iTerm2 中时,可能会遇到 Vim 中无法通过键盘或鼠标上下滚动文件内容的问题。具体表现为,虽然你可以正常查看文件内容,但无法使用常见的快捷键(如 Ctrl-F 向下翻页、Ctrl-B 向上翻页)或者鼠标滚轮来滚动文件。 导致原因 这个问题的根本原因通常是 Vi
2025-11-27
0
0
0
开发工具
【Golang】Go设计哲学-组合优于继承:灵活、简洁、可扩展
Go 语言的设计哲学强调 “组合优于继承”,与传统的面向对象编程语言(如 Java 或 C++)不同,Go 没有传统的类和继承,而是通过 组合 来实现功能的复用。无论是在 结构体的嵌套 还是 接口的组合,Go 提供了一种灵活、简洁的方式来构建可扩展的代码。这篇博客将详细介绍 Go 语言的组合和接口机
2025-11-27
1
0
0
后端技术
【LLaMA-Factory】核心参数配置指南
LLaMA-Factory 核心参数配置指南 在使用 LLaMA-Factory 进行模型微调时,界面上的几个核心参数往往让初学者感到困惑。这些参数看似简单,实际上每个都影响着模型的训练效果和性能表现。本文将深入解析这五个关键参数的作用机制和配置建议。 量化等级:在内存与精度间寻找平衡 量化等级(Q
2025-11-13
6
0
0
模型微调
【LLaMA-Factory】微调方法详解:LoRA、Freeze、OFT与Full对比
在使用LLaMA-Factory进行模型微调时,我们经常会遇到一个关键选择:应该使用哪种微调方法?LLaMA-Factory提供了四种主要的微调方法:LoRA、Freeze、OFT和Full。每种方法都有其独特的原理、适用场景和资源需求。本文将深入解析这四种方法的区别,帮助你在实际项目中做出合适的选
2025-11-13
2
0
0
模型微调
【LoRA】LoRA vs QLoRA 的区别
核心区别 LoRA (Low-Rank Adaptation) 参数高效微调方法 冻结原始模型权重,只训练低秩适配器(adapter) 模型以全精度(FP16/BF16)加载到显存 显存占用较高,适合显存充足的情况 QLoRA (Quantized LoRA) LoRA + 量化(Quantizat
2025-11-12
5
0
0
深度学习
1
2
3
4
5
...
22