首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
Euler的博客
累计撰写
211
篇文章
累计创建
82
个标签
累计收到
0
条评论
栏目
首页
AI前沿
图像处理
大语言模型
MCP
深度学习
模型微调
理论
论文
软件架构
计算机科学
操作系统
软件工程
后端技术
开发工具
数据库与搜索
ElasticSearch
运维部署
路由系统
认知思维
友链
目 录
CONTENT
以下是
EulerBlind
的文章
【论文】旋转位置编码增强的Transformer(RoFormer/RoPE)
论文概述 论文标题: RoFormer: Enhanced Transformer with Rotary Position Embedding 作者: Jianlin Su, Yu Lu, Shengfeng Pan, Ahmed Murtadha, Bo Wen, Yunfeng Liu 机构:
2025-10-11
13
0
0
论文
【Python】魔法方法详解:从基础到高级的完整指南
引言 Python中的魔法方法(Magic Methods),也被称为特殊方法(Special Methods)或双下划线方法(Dunder Methods),是Python面向对象编程的核心特性之一。这些以双下划线开头和结尾的方法允许我们自定义类的行为,使其能够与Python的内置功能深度整合。
2025-10-11
3
0
1
Python
【论文】顺序性指令微调大语言模型(SIT)
论文地址: Fine-Tuning Large Language Models with Sequential Instructions 核心问题 现有的指令微调(Instruction Tuning)模型在处理包含多个指令的复杂查询时表现不佳。 具体表现 多步骤指令执行困难:模型难以导航单个命令中
2025-10-10
3
0
0
论文
【论文】:精确零样本密集检索无需相关性标签(HyDE)
论文地址: Precise Zero-Shot Dense Retrieval without Relevance Labels 核心问题 现有的密集检索(Dense Retrieval)系统在零样本场景下表现不佳,特别是当没有相关性标签进行监督学习时。 具体表现 零样本学习困难:缺乏相关性标签时,
2025-10-08
18
0
0
论文
【论文】大型语言模型的低秩适配(LoRA)
论文概述 论文标题: LoRA: Low-Rank Adaptation of Large Language Models 作者: Edward Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu
2025-09-30
7
0
0
论文
【理论】深入理解Transformer中的正弦位置编码
引言 位置编码(Positional Encoding)是Transformer架构中一个精妙而关键的组件。不同于卷积神经网络天然具备的空间感知能力,Transformer的自注意力机制本身是位置无关的——如果不加入位置信息,模型无法区分"我爱你"和"你爱我"。本文将深入探讨Transformer为
2025-09-30
7
0
0
理论
【论文】注意力机制(Attention)
论文概述 论文标题: Attention Is All You Need 作者: Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia
2025-09-30
15
0
0
论文
【工具】编译tr3000 homeproxy工具
概述 HomeProxy是一个基于sing-box的现代代理平台,专为OpenWrt/ImmortalWrt设计,提供Web界面管理。本文将详细介绍如何为MT7981BA(aarch64架构)编译HomeProxy。 背景 sing-box版本更新的,发布的HomeProxy版本未及时更新,导致报错
2025-09-29
2
0
0
运维部署
【理论】注意力机制与多头注意力机制理解
1. 基础注意力机制 1.1 核心概念 注意力机制模拟人类阅读时的"聚焦"行为,让模型在处理每个位置时,能够关注到输入序列中最重要的部分。 1.2 数学原理 \text{Attention}(Q,K,V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\r
2025-09-29
12
0
0
深度学习
【提示词】顺序性指令微调大语言模型
Fine-Tuning Large Language Models with Sequential Instructions 核心问题 现有的指令微调(Instruction Tuning)模型在处理包含多个指令的复杂查询时表现不佳。 具体表现 多步骤指令执行困难:模型难以导航单个命令中的一系列子任
2025-09-28
3
0
0
论文
1
...
4
5
6
...
22