首页
人工智能
图像处理
大语言模型
MCP
深度学习
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
Euler的博客
累计撰写
149
篇文章
累计创建
19
个标签
累计收到
0
条评论
栏目
首页
人工智能
图像处理
大语言模型
MCP
深度学习
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
目 录
CONTENT
以下是
人工智能
相关的文章
2025-07-28
【深度学习】HuggingFace缓存目录结构详解
引言 在使用HuggingFace Transformers库时,我们经常会遇到模型下载和缓存的问题。你是否好奇过,当你运行 from_pretrained() 时,模型文件到底存储在哪里?为什么有时候下载很快,有时候却很慢?本文将深入解析HuggingFace的缓存目录结构,帮助你理解模型管理的幕
2025-07-28
0
0
0
深度学习
2025-07-23
【大模型】Hugging Face常见模型格式详解
Hugging Face作为全球最大的机器学习模型社区,支持多种不同的模型格式。这些格式各有特点,适用于不同的使用场景。本文将详细介绍Hugging Face上常见的模型格式,帮助开发者选择合适的模型格式。 模型格式分类概览 Hugging Face上的模型格式主要可以分为以下几类: 1. 原始框架
2025-07-23
0
0
0
深度学习
2025-07-22
【LLM】SGLang服务器参数配置详解
SGLang是一个高性能的大语言模型推理框架,提供了丰富的服务器参数配置选项。本文将基于官方文档详细介绍SGLang服务器的各种参数配置,帮助开发者更好地优化模型推理性能。 常用启动命令 多GPU张量并行 python -m sglang.launch_server --model-path met
2025-07-22
0
0
0
大语言模型
2025-07-22
【运维】SGLang 安装指南
参考官方文档 SGLang 是一个高性能的大语言模型推理框架,支持多种安装方式。本文档提供了详细的安装步骤和常见问题解决方案。 系统要求 Python 3.8+ CUDA 11.8+ (GPU 推理) 推荐使用 uv 进行依赖管理以获得更快的安装速度 安装方法 方法一:使用 pip 或 uv (推荐
2025-07-22
0
0
0
大语言模型
运维部署
2025-07-16
【LLM】OpenRouter调用Anthropic Claude上下文缓存处理
背景 在使用OpenRouter调用Anthropic Claude大模型时,部分模型支持上下文缓存功能。当缓存命中时,调用成本会显著降低。虽然像DeepSeek这类模型自带上下文缓存机制,但本文主要针对构建Agent场景下,需要多次调用Anthropic Claude时的缓存设置策略。 缓存机制的
2025-07-16
6
0
0
MCP
2025-07-16
【LLM】OpenRouter 指定模型供应商指南
在使用 OpenRouter 作为模型供应商时,我们会发现不同供应商提供的同一模型在响应速度、价格和可用性方面存在差异。本文将介绍如何通过指定特定供应商来优化模型使用体验。 供应商差异分析 以 deepseek/deepseek-r1-0528 模型为例,不同供应商在以下方面存在明显差异: 响应速度
2025-07-16
17
0
0
大语言模型
2025-07-15
【运维】Qwen3 完全关闭思考过程(vllm)
Qwen3 完全关闭思考过程(vllm) 根据官方示例,可以通过在提示词里提示模型不输出思考过程,比如提示词直接写【no_thinking】或者【不思考】,在一些场景下都能work,但从结构上来看,其还是会输出 <think></think>的标签。 我们可以通过调整提示词模版的方式,伪装为告诉模型
2025-07-15
21
0
0
大语言模型
2025-07-07
【深度学习】移动设备高性能视频目标检测(Towards High Performance Video Object Detection for Mobiles)
摘要 尽管在台式机GPU上进行的视频目标检测取得了近期的成功,但其架构对于移动设备来说仍然过于沉重。目前还不清楚在非常有限的计算资源下,稀疏特征传播和多帧特征聚合的关键原则是否适用。在本文中,我们提出了一种适用于移动设备视频目标检测的轻量级网络架构。该架构在稀疏关键帧上应用轻量级图像目标检测器。我们
2025-07-07
2
0
0
论文
2025-07-02
【工具】使用 MCP Inspector 调试服务的完全指南
Model Context Protocol (MCP) Inspector 是一个交互式开发工具,专为测试和调试 MCP 服务器而设计。本文将详细介绍如何使用 Inspector 工具有效地调试和测试 MCP 服务。 1. MCP Inspector 简介 MCP Inspector 提供了直观的
2025-07-02
4
0
0
MCP
2025-07-02
【MCP】为什么使用Streamable HTTP: 相比SSE的优势与实践指南
在现代Web开发中,实时通信已经成为许多应用的核心需求。从聊天应用到股票市场更新,从游戏服务器到AI模型通信,各种技术应运而生以满足这些需求。最近,Model Context Protocol (MCP) 引入了一种新的传输机制 —— Streamable HTTP,它为服务器到客户端的实时通信提供
2025-07-02
8
0
1
MCP
1
2
3