首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
Euler的博客
累计撰写
211
篇文章
累计创建
82
个标签
累计收到
0
条评论
栏目
首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
目 录
CONTENT
以下是
llm
相关的文章
【上下文工程】Agent的上下文工程:Manus实战经验深度解析
论文地址 原文链接:Context Engineering for AI Agents: Lessons from Building Manus 作者:Yichao 'Peak' Ji 发布时间:2025年7月18日 机构:Manus AI 核心内容概述 这篇文章来自 Manus AI 团队的技术分
2025-10-23
6
0
0
大语言模型
【论文】Lost in the Middle:语言模型长上下文位置偏见深度解析
论文地址 论文标题:Lost in the Middle: How Language Models Use Long Contexts 论文链接:https://ar5iv.labs.arxiv.org/html/2307.03172 作者:Nelson F. Liu, Kevin Lin, Joh
2025-10-21
3
0
0
论文
【LLM】OpenRouter模型工具调用支持分析
技术背景 在使用OpenRouter API调用大语言模型时,经常会遇到工具调用(Tool Calling)的需求。工具调用是现代AI应用中的重要功能,允许模型调用外部工具来执行特定任务,如搜索、计算、API调用等。 然而,在实际使用过程中,我发现了一个重要问题:并非所有模型都支持工具调用功能。特别
2025-10-16
9
0
0
大语言模型
【MCP】MCP协议演进:从SSE到Streamable HTTP
引言 在AI工具集成的世界中,Model Context Protocol (MCP) 作为连接AI模型与外部工具的标准协议,其传输层的选择直接影响着系统的可靠性、性能和可扩展性。本文将深入分析MCP协议从Server-Sent Events (SSE) 演进到Streamable HTTP的技术原
2025-10-15
8
0
0
MCP
【论文】Qwen3 Embedding:基于大语言模型的文本嵌入与重排序技术
论文地址 arXiv: https://arxiv.org/html/2506.05176 HuggingFace: https://huggingface.co/Qwen GitHub: https://github.com/QwenLM/Qwen3-Embedding ModelScope: h
2025-10-14
7
0
0
论文
【范式】深入理解 Point-wise、Pair-wise 与 List-wise 排序模型
一、引言 在招聘智能匹配、搜索排序、推荐系统等任务中,模型的核心目标都是:根据相关性将候选项排序。以招聘场景为例,给定一个职位(Job Description, JD),我们希望模型能自动为候选简历打分,并按匹配度排序,从而找到最合适的人选。 然而,排序问题本质上并非单一预测问题。不同的建模方式对“
2025-10-14
9
0
0
理论
【论文】:精确零样本密集检索无需相关性标签(HyDE)
论文地址: Precise Zero-Shot Dense Retrieval without Relevance Labels 核心问题 现有的密集检索(Dense Retrieval)系统在零样本场景下表现不佳,特别是当没有相关性标签进行监督学习时。 具体表现 零样本学习困难:缺乏相关性标签时,
2025-10-08
18
0
0
论文
【LLM】Gemini Schema结构化响应
1. 简介 Gemini API的结构化响应功能允许开发者定义期望的输出格式,确保AI模型返回符合特定Schema的JSON数据。这对于需要稳定数据格式的应用场景非常有用,比如数据提取、API集成、自动化处理等。 通过使用Pydantic模型定义Schema,我们可以: 确保输出格式的一致性 进行类
2025-09-10
472
0
13
大语言模型
【LLM】SGLang服务器参数配置详解
SGLang是一个高性能的大语言模型推理框架,提供了丰富的服务器参数配置选项。本文将基于官方文档详细介绍SGLang服务器的各种参数配置,帮助开发者更好地优化模型推理性能。 常用启动命令 多GPU张量并行 python -m sglang.launch_server --model-path met
2025-07-22
147
0
13
大语言模型
【LLM】OpenRouter调用Anthropic Claude上下文缓存处理
背景 在使用OpenRouter调用Anthropic Claude大模型时,部分模型支持上下文缓存功能。当缓存命中时,调用成本会显著降低。虽然像DeepSeek这类模型自带上下文缓存机制,但本文主要针对构建Agent场景下,需要多次调用Anthropic Claude时的缓存设置策略。 缓存机制的
2025-07-16
486
0
20
MCP
1
2