AI-Switch

企业级 AI 资源治理平台

统一接入本地模型 GLM / Minimax / Qwen / DeepSeek 或联网模型 OpenAI / Claude / Gemini / Grok, 兼容 Claude Code、Codex、OpenCode、Cursor 等编程工具。

4 层
组织权限
3 层
额度体系
3 层
响应缓存
1000+
并发用户

核心能力

一个平台,统管企业 AI 资源的接入、权限、用量与安全

多提供商统一接入

本地模型 GLM / Minimax / Qwen / DeepSeek 或联网模型 OpenAI / Claude / Gemini / Grok,请求/响应格式自动转换,直接对接编程工具。

👥

组织分级权限

4 层部门树 + 4 级角色体系(root / 公司管理员 / 部门管理员 / 成员),所有查询自动按权限过滤可见范围。

💳

三层额度体系

个人额度 → 项目额度 → 补充额度,消费顺序可自定义。预扣-结算机制保证幂等性,4 类 Token 独立计量。

🚀

流式响应 & 智能缓存

SSE 实时流式输出,三层响应缓存(内存 LRU + SQLite + 语义向量),缓存命中跳过额度预扣,大幅降低成本。

🛡️

安全防护

API Key SHA256 加密、AES-256-GCM 密钥存储、命令拦截(5 种匹配模式)、暴力破解防护、CIDR 白名单。

📊

可观测性

Prometheus 指标端点、Grafana Dashboard、Alertmanager 告警规则。请求延迟、活跃连接、配额预扣等关键指标全覆盖。

技术架构

模块化设计,从请求入口到模型转发全链路可控

1

请求入口

Gin 路由 + 中间件链:请求 ID → 延迟记录 → 鉴权(含暴力破解防护)→ 权限隔离 → 限流(Enterprise)

2

治理层

命令拦截 → 响应缓存查询 → 额度预扣(幂等性保证)→ 请求排队/背压控制

3

模型转发

负载均衡选择资源 → 适配器自动转换格式 → 非流式自动重试 → 流式 SSE 转发

4

结算 & 审计

额度结算(多退少补)→ 访问日志异步批写 → 审计事件可靠投递(Kafka)→ 响应缓存写入

Go 1.24 Gin GORM SQLite / PostgreSQL Redis Kafka Prometheus Docker / K8s
Client Claude Code / Codex / Cursor / SDK /v1/chat/completions Auth Intercept Cache? Quota Reserve Queue Load Balance Select Resource 本地模型 联网模型 Quota Finalize Log Audit Response SSE Stream / JSON

选择适合的版本

同一代码库,两种部署模式。从小团队到千人企业,按需选择

SMB 版

小型团队

开箱即用,零配置启动,适合 10-100 人团队

  • 组织权限 & 三层额度
  • 多提供商模型接入
  • 流式响应 & 三层缓存
  • Web 管理界面
  • SQLite 默认,支持 PostgreSQL
  • Prometheus 可观测