首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
Euler的博客
累计撰写
214
篇文章
累计创建
83
个标签
累计收到
0
条评论
栏目
首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
目 录
CONTENT
以下是
AI前沿
相关的文章
【提示词】顺序性指令微调大语言模型
Fine-Tuning Large Language Models with Sequential Instructions 核心问题 现有的指令微调(Instruction Tuning)模型在处理包含多个指令的复杂查询时表现不佳。 具体表现 多步骤指令执行困难:模型难以导航单个命令中的一系列子任
2025-09-28
5
0
0
论文
【机器学习】F1-Score、Recall、Precision详解:机器学习评估指标的核心
概述 在机器学习分类任务中,准确率(Accuracy)虽然是最直观的评估指标,但在处理不平衡数据集或需要关注特定类别性能时,往往不够全面。Precision(精确率)、Recall(召回率)和F1-Score(F1分数)这三个指标能够更细致地评估模型的性能,特别是在二分类和多分类问题中。 混淆矩阵基
2025-09-24
16
0
0
AI前沿
【LLM】Gemini Schema结构化响应
1. 简介 Gemini API的结构化响应功能允许开发者定义期望的输出格式,确保AI模型返回符合特定Schema的JSON数据。这对于需要稳定数据格式的应用场景非常有用,比如数据提取、API集成、自动化处理等。 通过使用Pydantic模型定义Schema,我们可以: 确保输出格式的一致性 进行类
2025-09-10
476
0
13
大语言模型
【深度学习】Transformer 注意力机制与 LoRA target_modules 详解
1. Transformer 自注意力机制结构 1.1 基础组件 class SelfAttention(nn.Module): def __init__(self, d_model, n_heads): super().__init__() self.d_m
2025-08-26
442
0
6
深度学习
【机器学习】从KNN算法到图像风格迁移:原理与实践
从KNN算法到图像风格迁移:原理与实践 引言 在机器学习的众多算法中,K近邻(K-Nearest Neighbors, KNN)算法以其简洁直观的思想而备受青睐。"物以类聚,人以群分"这句古话完美诠释了KNN的核心理念。但你是否想过,这样一个看似简单的算法,竟然也能应用于图像风格迁移这样的复杂任务?
2025-08-26
383
0
11
AI前沿
【深度学习】HuggingFace缓存目录结构详解
引言 在使用HuggingFace Transformers库时,我们经常会遇到模型下载和缓存的问题。你是否好奇过,当你运行 from_pretrained() 时,模型文件到底存储在哪里?为什么有时候下载很快,有时候却很慢?本文将深入解析HuggingFace的缓存目录结构,帮助你理解模型管理的幕
2025-07-28
180
0
14
深度学习
【大模型】Hugging Face常见模型格式详解
Hugging Face作为全球最大的机器学习模型社区,支持多种不同的模型格式。这些格式各有特点,适用于不同的使用场景。本文将详细介绍Hugging Face上常见的模型格式,帮助开发者选择合适的模型格式。 模型格式分类概览 Hugging Face上的模型格式主要可以分为以下几类: 1. 原始框架
2025-07-23
384
0
12
深度学习
【LLM】SGLang服务器参数配置详解
SGLang是一个高性能的大语言模型推理框架,提供了丰富的服务器参数配置选项。本文将基于官方文档详细介绍SGLang服务器的各种参数配置,帮助开发者更好地优化模型推理性能。 常用启动命令 多GPU张量并行 python -m sglang.launch_server --model-path met
2025-07-22
165
0
13
大语言模型
【运维】SGLang 安装指南
参考官方文档 SGLang 是一个高性能的大语言模型推理框架,支持多种安装方式。本文档提供了详细的安装步骤和常见问题解决方案。 系统要求 Python 3.8+ CUDA 11.8+ (GPU 推理) 推荐使用 uv 进行依赖管理以获得更快的安装速度 安装方法 方法一:使用 pip 或 uv (推荐
2025-07-22
591
0
14
运维部署
大语言模型
【LLM】OpenRouter调用Anthropic Claude上下文缓存处理
背景 在使用OpenRouter调用Anthropic Claude大模型时,部分模型支持上下文缓存功能。当缓存命中时,调用成本会显著降低。虽然像DeepSeek这类模型自带上下文缓存机制,但本文主要针对构建Agent场景下,需要多次调用Anthropic Claude时的缓存设置策略。 缓存机制的
2025-07-16
491
0
20
MCP
1
2
3
4
5
6
7