AI-Switch
企业级 AI 资源治理平台
统一接入本地模型 GLM / Minimax / Qwen / DeepSeek 或联网模型 OpenAI / Claude / Gemini / Grok, 兼容 Claude Code、Codex、OpenCode、Cursor 等编程工具。
核心能力
一个平台,统管企业 AI 资源的接入、权限、用量与安全
多提供商统一接入
本地模型 GLM / Minimax / Qwen / DeepSeek 或联网模型 OpenAI / Claude / Gemini / Grok,请求/响应格式自动转换,直接对接编程工具。
组织分级权限
4 层部门树 + 4 级角色体系(root / 公司管理员 / 部门管理员 / 成员),所有查询自动按权限过滤可见范围。
三层额度体系
个人额度 → 项目额度 → 补充额度,消费顺序可自定义。预扣-结算机制保证幂等性,4 类 Token 独立计量。
流式响应 & 智能缓存
SSE 实时流式输出,三层响应缓存(内存 LRU + SQLite + 语义向量),缓存命中跳过额度预扣,大幅降低成本。
安全防护
API Key SHA256 加密、AES-256-GCM 密钥存储、命令拦截(5 种匹配模式)、暴力破解防护、CIDR 白名单。
可观测性
Prometheus 指标端点、Grafana Dashboard、Alertmanager 告警规则。请求延迟、活跃连接、配额预扣等关键指标全覆盖。
技术架构
模块化设计,从请求入口到模型转发全链路可控
请求入口
Gin 路由 + 中间件链:请求 ID → 延迟记录 → 鉴权(含暴力破解防护)→ 权限隔离 → 限流(Enterprise)
治理层
命令拦截 → 响应缓存查询 → 额度预扣(幂等性保证)→ 请求排队/背压控制
模型转发
负载均衡选择资源 → 适配器自动转换格式 → 非流式自动重试 → 流式 SSE 转发
结算 & 审计
额度结算(多退少补)→ 访问日志异步批写 → 审计事件可靠投递(Kafka)→ 响应缓存写入
选择适合的版本
同一代码库,两种部署模式。从小团队到千人企业,按需选择
小型团队
开箱即用,零配置启动,适合 10-100 人团队
- ✓ 组织权限 & 三层额度
- ✓ 多提供商模型接入
- ✓ 流式响应 & 三层缓存
- ✓ Web 管理界面
- ✓ SQLite 默认,支持 PostgreSQL
- ✓ Prometheus 可观测
中大型企业
分布式架构,高可用部署,适合 100-1000+ 人企业
- ✓ SMB 版全部功能
- ★ 分布式限流(Redis)
- ★ 异步审计事件(Kafka)
- ★ 审计可靠投递(DurablePublisher)
- ★ 模型会话查询 & 企业审计 API
- ★ K8s HPA 自动扩缩容