立项背景与目标:
在AI辅助编程领域,单一模型往往存在能力短板——后端逻辑推理强的模型前端设计能力弱,擅长UI/UX的模型对系统架构理解不足。本项目旨在打造一个多模型协作工作流编排平台,通过智能任务路由和协作编排机制,让不同AI模型各司其职、协同完成复杂的全栈开发任务,大幅提升AI辅助开发的效率和质量。
核心功能模块:
多模型编排引擎:支持接入多种大模型(如MiniMax、Kimi、Claude等),根据任务类型(前端/后端/架构/测试)自动路由至最适合的模型。引擎采用分层架构,编排层负责任务分解与调度,执行层通过统一Bridge接口调用不同模型。
28条标准命令工作流:覆盖软件开发全生命周期——从项目初始化(init)、需求分析(analyze)、架构规划(plan)、功能开发(feat/backend/frontend)、代码审查(review)、测试验证(test)、Bug调试(debug)、性能优化(optimize),到Git提交管理(commit/rollback/clean-branches)共28个标准化命令,每个命令封装了完整的提示词模板和执行流程。
19个角色化提示词系统:为每个模型配备专业角色提示词(分析师、架构师、调试专家、优化专家、测试专家、代码审查员等),确保不同模型在各自领域发挥最大效能。支持5种个性化输出风格切换。
质量门禁工具链:内置6项自动化质量检测——安全漏洞扫描、代码质量检测、变更分析与文档同步、模块完整性验证、文档骨架生成。每次代码变更自动触发全链路质量检查。
会话与上下文管理:支持跨模型的会话持久化,任务执行中断后可精确恢复,保留完整的对话上下文和代码变更历史。
业务流程:
用户通过CLI命令发起任务 → 编排引擎解析任务类型 → 自动路由至目标模型 → Bridge层统一封装调用 → 模型执行并返回结构化结果 → 质量门禁自动检测 → 结果汇总输出。支持多模型并行执行模式,前后端任务可同时分发给不同模型并行处理,显著缩短开发周期。
整体架构与设计思路:
系统采用分层解耦架构,自上而下分为命令层、编排层、Bridge层和模型层四层。命令层使用Markdown+YAML Frontmatter定义工作流模板;编排层以Claude为核心调度器,负责任务分解和多模型协调;Bridge层用Python实现统一的模型调用接口,屏蔽底层模型差异;模型层对接MiniMax M2.5(后端专家)、Kimi K2.5(前端专家)和Claude(编排者)。
技术栈选型:
编排引擎:基于Node.js的Skill运行器 + 蚁群算法启发的多代理协调机制
模型接口层:Python Bridge模式,每个模型一个Bridge脚本(codex_bridge.py、kimi_bridge.py),统一输入输出为JSON格式 {success, SESSION_ID, agent_messages}
命令系统:Markdown模板引擎,支持变量插值({{WORKDIR}}等)和条件路由
质量工具链:JavaScript实现的6个独立验证模块,通过共享工具库复用通用逻辑
安装部署:PowerShell一键安装脚本,自动配置模型密钥、部署命令文件和提示词
我的主要职责与成果:
架构设计与技术选型(核心贡献):设计了Bridge模式的模型抽象层,使系统能够以最小改动成本接入新模型。实际验证了从Codex/Gemini切换到MiniMax/Kimi的全流程,仅需修改config.toml配置和Bridge脚本,28个上层命令无需任何改动。
Bridge层全栈开发:独立实现了kimi_bridge.py,封装Kimi CLI的会话管理、流式JSON解析、工作目录切换等功能。解决了不同模型CLI参数不统一的问题(如Gemini的--resume对应Kimi的--session),通过参数映射表实现了统一的调用接口。
质量门禁集成:将6个质量验证工具集成到工作流中,实现代码变更后的自动化质检。包括安全漏洞扫描、模块依赖完整性校验、文档自动同步等。
遇到的难点与解决方案:
难点1:不同模型的CLI工具参数和输出格式差异巨大。解决:设计统一的Bridge适配器模式,每个Bridge内部处理参数转换和输出标准化,上层调用完全一致。
难点2:多模型并行执行时的会话状态同步问题。解决:引入SESSION_ID机制,每个模型会话独立管理,由编排层统一维护会话映射表。