首页
人工智能
图像处理
大语言模型
MCP
深度学习
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
Euler的博客
累计撰写
149
篇文章
累计创建
19
个标签
累计收到
0
条评论
栏目
首页
人工智能
图像处理
大语言模型
MCP
深度学习
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
目 录
CONTENT
以下是
EulerBlind
的文章
2025-08-01
【Python】Poetry install 卡死问题处理
问题描述 在使用 Poetry 安装依赖时,经常会遇到安装过程卡死的问题,特别是在 Linux 系统(如 Ubuntu)上。这个问题通常发生在 Poetry 尝试访问系统密钥环(keyring)时。 典型症状 安装过程会卡在以下位置: - Installing wrapt (1.12.1): Pen
2025-08-01
0
0
0
Python
2025-07-28
【网络】DHCP Option详解
概述 动态主机配置协议(DHCP)是现代网络中的核心协议,它通过标准化的选项机制为客户端提供网络配置信息。本文基于RFC1533和RFC2132两个重要规范,详细解析DHCP选项的定义、分类、作用和使用方法。 RFC文档规范内容 RFC1533:DHCP选项和BOOTP供应商扩展 RFC1533发布
2025-07-28
0
0
0
路由系统
2025-07-28
【深度学习】HuggingFace缓存目录结构详解
引言 在使用HuggingFace Transformers库时,我们经常会遇到模型下载和缓存的问题。你是否好奇过,当你运行 from_pretrained() 时,模型文件到底存储在哪里?为什么有时候下载很快,有时候却很慢?本文将深入解析HuggingFace的缓存目录结构,帮助你理解模型管理的幕
2025-07-28
0
0
0
深度学习
2025-07-28
【工具】Smartctl安装及使用指南
作用 Smartctl是smartmontools工具包中的核心组件,用于监控和诊断硬盘健康状况。主要功能包括: SMART监控:读取硬盘的SMART(Self-Monitoring, Analysis, and Reporting Technology)数据 健康评估:评估硬盘的整体健康状况和可靠
2025-07-28
0
0
0
开发工具
运维部署
2025-07-23
【大模型】Hugging Face常见模型格式详解
Hugging Face作为全球最大的机器学习模型社区,支持多种不同的模型格式。这些格式各有特点,适用于不同的使用场景。本文将详细介绍Hugging Face上常见的模型格式,帮助开发者选择合适的模型格式。 模型格式分类概览 Hugging Face上的模型格式主要可以分为以下几类: 1. 原始框架
2025-07-23
0
0
0
深度学习
2025-07-22
【LLM】SGLang服务器参数配置详解
SGLang是一个高性能的大语言模型推理框架,提供了丰富的服务器参数配置选项。本文将基于官方文档详细介绍SGLang服务器的各种参数配置,帮助开发者更好地优化模型推理性能。 常用启动命令 多GPU张量并行 python -m sglang.launch_server --model-path met
2025-07-22
0
0
0
大语言模型
2025-07-22
【运维】SGLang 安装指南
参考官方文档 SGLang 是一个高性能的大语言模型推理框架,支持多种安装方式。本文档提供了详细的安装步骤和常见问题解决方案。 系统要求 Python 3.8+ CUDA 11.8+ (GPU 推理) 推荐使用 uv 进行依赖管理以获得更快的安装速度 安装方法 方法一:使用 pip 或 uv (推荐
2025-07-22
0
0
0
运维部署
大语言模型
2025-07-17
【工具】FRP内网穿透配置指南
FRP内网穿透配置指南 FRP(Fast Reverse Proxy)是一个高性能的反向代理应用,可以帮助您将内网服务暴露到公网。本指南将详细介绍如何配置FRP服务端(frps)和客户端(frpc)。 架构概述 FRP采用C/S架构: FRPS(服务端):部署在具有公网IP的服务器上 FRPC(客户
2025-07-17
3
0
0
开发工具
2025-07-17
【工具】Cursor中国封锁解决方案
背景说明 2025年7月17日起,Cursor对中国区实施了使用限制,导致国内用户无法正常访问和使用该AI编程工具。本文提供两种有效的解决方案来绕过这一限制。 解决方案 方案一:软路由透明代理(推荐) 适用场景:已配置软路由的用户 操作步骤: 确保软路由正常运行 将Cursor设置为通过软路由进行透
2025-07-17
56
0
0
开发工具
2025-07-16
【LLM】OpenRouter调用Anthropic Claude上下文缓存处理
背景 在使用OpenRouter调用Anthropic Claude大模型时,部分模型支持上下文缓存功能。当缓存命中时,调用成本会显著降低。虽然像DeepSeek这类模型自带上下文缓存机制,但本文主要针对构建Agent场景下,需要多次调用Anthropic Claude时的缓存设置策略。 缓存机制的
2025-07-16
6
0
0
MCP
1
2
3
4
5
...
15