n8n + RAG + MCP

基于 n8n 的 GitLab issues
RAG 智能检索系统

让历史 issues 成为可对话的工程知识库

按 → 或点击下一页开始
02

项目目标

1

语义向量化

将 issues 数据转化为 AI 可理解的向量化知识

2

智能问答

支持自然语言提问与智能总结

3

可扩展架构

构建可复用、可扩展的研发知识检索能力

03

系统整体架构

多模型 Agent 智能问答
MCP Server 标准化 AI 检索
n8n 自动化调度
Qdrant 向量数据库
GitLab issues 数据源
04

流程一:数据采集与向量化

Ingestion

1. 数据抓取

n8n 自动抓取指定 GitLab issues 范围

2. 数据清洗

深度清洗 Markdown / HTML 噪音

3. 语义提取

仅保留 issues 核心语义字段

4. 向量化存储

OpenAI Embedding + Token 分片写入 Qdrant

05

流程二:标准化 MCP 检索服务

MCP Server
SSE Protocol
AI Tool Interface
GPT-4o-mini
DeepSeek
基于 SSE 协议暴露 MCP Server Trigger
将 issues 向量检索能力封装为标准 AI Tool
后端同时支持 GPT-4o-mini 与 DeepSeek
模型切换不影响业务逻辑
06

流程三:智能问答 Agentic Workflow

1

意图判断

需要检索?
YES NO
2

查询重写

"之前那个bug"
"登录模块 token 过期问题"
3

上下文记忆

Session Memory 多轮对话理解
07

技术亮点总结

全流程自动化

抓取 → 清洗 → 向量化 → 检索

三段式检索策略

显著降低 LLM 幻觉风险

可靠性保障

MCP 架构设计

实现能力解耦与横向扩展

08

实际应用价值

效率提升

开发问题定位速度显著提升

经验复用

历史经验得以长期复用

AI 赋能

为 AI Coding / Agent 提供高质量私有上下文

🚀 让知识流动,让 AI 更懂你的代码