跳转到正文
粥盐籽
返回

AI 网页端转 API 与 OpenAI 兼容平台整理

这篇文章把两类常见方案放在一起整理:一类是把 AI 网页端转成标准 OpenAI 兼容接口的 xx2api 项目,另一类是本身就支持 OpenAI 格式、可以直接接入 2API、One-API 等聚合面板的平台。前者更适合研究和折腾,后者通常更适合作为日常使用方案。

注意:本文内容具有时效性,AI 平台会频繁更新反爬机制,项目可用性随时可能变化。

风险提示:所有非官方逆向工程项目均可能违反对应 AI 平台的用户协议,存在账号封禁风险。中转服务可能存在数据泄露隐患,禁止传输敏感信息。仅用于个人学习研究。

已整理的 xx2api 项目

文件夹名对应平台项目别名核心功能支持模型适用场景
ch2apiOpenAI ChatGPTchat2api将 ChatGPT 网页端转为 OpenAI 兼容 APIGPT-3.5-turbo、GPT-4o、GPT-4o miniCherry Studio、Cursor 等客户端调用
ax2apiAnthropic Claudeclaude2api将 Claude 网页端转为 OpenAI 兼容 APIClaude 3.5 Sonnet、Claude 3 Opus/Sonnet/Haiku长文本处理、代码生成
bo2apiMicrosoft Bing Copilotbing2api将必应 Copilot 网页端转为 APIGPT-4、GPT-4o、DALL-E 3免费调用 GPT-4,国内可直连
du2apiDuckDuckGo AI Chatduck2api将 DuckDuckGo 免费 AI 聊天转为 APIClaude 3 Haiku、Llama 3、GPT-4o mini零成本、无需注册
yo2apiYou.com AIyou2api将 You.com 网页端 AI 对话转为 APIClaude 3、GPT-4、Gemini Advanced带联网搜索的 AI 对话
no2apiNotion AInotion2api将 Notion 内置 AI 功能转为 APINotion AI 自研模型文档批量总结、写作
rel2apiPerplexity AIperplexity2api将 Perplexity 网页端 AI 搜索转为 APIGPT-4o、Claude 3.5 Sonnet、Llama 3实时联网搜索、学术检索
st2apiStack Overflow AIstack2api将 Stack Overflow AI 代码助手转为 APICodeLlama、StarCoder 2代码生成、调试
tp2api腾讯混元大模型tencent2api将腾讯混元网页端转为 API腾讯混元 3.0中文场景、国内合规
air2apiAirChat AIairchat2api将 AirChat/Airtable AI 转为 API对应平台自研模型小众 AI 服务集成

其他值得关注的同类项目

上面列的是我已经整理过的项目,下面只补充一些更有代表性的方向,避免和后文平台列表重复过多。

项目名对应平台核心特点
gemini2apiGoogle Gemini免费额度相对友好,适合多模态场景
kimi2api月之暗面 Kimi长文本处理能力强
tongyi2api阿里通义千问国内模型,适合中文场景
doubao2api字节跳动豆包国内直连友好,多模态能力较全
poe2apiQuora Poe聚合多个主流模型
phind2apiPhind AI面向开发者的代码搜索场景
chatpdf2apiChatPDFPDF 文档问答
feishu2api飞书 AI 助手企业协同与办公场景

配套工具

工具用途核心作用
claude-app-patch / cursor-app-patch客户端补丁绕过官方 API 限制,直接用网页端 token 调用
CLIProxyAPI命令行 API 代理统一管理多 AI API 中转,支持多账号轮询、负载均衡
tmp_mail临时邮箱注册 AI 平台账号时接收验证码
NVIDIAAccountNVIDIA 账号管理管理 NVIDIA AI 服务的 token

xx2api 的通用原理

大多数 xx2api 项目本质上都是 浏览器自动化 + 反向代理

  1. 模拟浏览器登录 AI 平台网页端,获取 access_token / refresh_token
  2. 拦截网页端的原生 API 请求,将 OpenAI 格式请求转发给 AI 平台
  3. 将 AI 平台的响应转换为标准 OpenAI 格式

典型部署流程

以 chat2api 为例:

# 1. 克隆项目
git clone https://github.com/chat2api/chat2api.git
cd chat2api

# 2. 安装依赖
pip install -r requirements.txt

# 3. 配置 token(从 chat.openai.com 的 Cookie 中提取)
echo "YOUR_OPENAI_TOKEN" > token.txt

# 4. 启动服务
python main.py

# 5. 客户端配置
# API 地址:http://localhost:3000/v1/chat/completions
# API Key:任意值(或项目配置的密钥)

可直接接入的 OpenAI 兼容平台

如果你的目标不是折腾逆向项目,而是尽快接入 2API、One-API 这类聚合面板,那么更省事的路线通常是直接选择 自带免费额度、同时兼容 OpenAI 格式 的官方或聚合服务。下面按使用场景简单归类。

自带联网搜索的平台

平台免费额度接入方式核心特点
Perplexity网页版可免费使用;API 新用户通常有试用额度OpenAI 兼容,可接入 2API / One-API实时联网、引用标注、多模态
Phind网页版可免费使用;API 通常提供试用OpenAI 兼容,可接入聚合平台面向开发者,代码与技术搜索能力强
302.AI新用户一般会赠送免费额度完全兼容 OpenAI,国内直连较友好支持 -web-search 联网,多模型切换方便

全模型聚合平台

平台免费额度接入方式核心特点
OpenRouter未充值账号可用 :free 免费模型;充值后免费调用配额更高100% OpenAI 兼容模型覆盖面广,适合统一测试多模型
Together.ai新用户通常有试用额度OpenAI 兼容可快速体验开源模型与部分商业模型
NVIDIA Build提供大量免费端点,部分模型带免费 creditsOpenAI 兼容,base_urlhttps://integrate.api.nvidia.com/v1免费模型多,适合做低成本实验

国内直连友好平台

平台免费额度接入方式核心特点
DeepSeek网页版免费;API 定价低,部分阶段提供优惠或体验额度OpenAI 兼容,国内直连中文与代码能力强,接入成本低
Moonshot AI(Kimi)网页版有每日免费额度;API 常见新用户试用OpenAI 兼容长文本、文件理解能力突出
字节豆包Lite 或基础模型通常带免费额度API 兼容 OpenAI,国内直连多模态能力丰富,生态完善
通义千问基础能力可免费体验;API 常见免费额度或低价套餐OpenAI 兼容稳定、中文表现好,企业场景常见
文心一言基础版可免费体验;API 常见试用套餐兼容 OpenAI国内稳定,多模态能力持续完善

官方直连与试用渠道

平台免费额度接入方式核心特点
Google Gemini(AI Studio)提供长期可用的免费额度,Flash 系列较友好提供 OpenAI 兼容接口多模态能力强,适合图文与轻量任务
Anthropic(Claude)部分渠道提供试用额度,例如云厂商集成平台可通过 OpenAI 兼容层接入长文本、代码与写作质量突出
xAI(Grok)常见新用户试用或活动额度OpenAI 兼容联网能力较强,适合信息检索类任务

免费友好度速览

平台免费力度接入难度联网国内直连
DeepSeek很高
OpenRouter较高
NVIDIA Build较高
Perplexity较高
Phind较高
302.AI中等
Gemini中等
Kimi中等
豆包中等

如何选择更合适的接入方案

如果你还没决定走哪条路线,可以直接按需求判断:

  1. 想低成本长期用:优先考虑 DeepSeek、OpenRouter。
  2. 想要联网搜索:优先考虑 Perplexity、Phind、302.AI。
  3. 想同时测试多个模型:优先考虑 OpenRouter、Together.ai。
  4. 想要多模态能力:优先考虑 Gemini、豆包。
  5. 想处理长文本或大文件:优先考虑 Claude、Kimi。

2API / One-API 接入示例

如果你已经有 2API、One-API 或类似聚合面板,通常只需要准备 3 个参数:base_urlapi_keymodel。大多数支持 OpenAI 格式的平台都可以按同一套方式接入。

常见配置思路

平台base_url 示例model 示例说明
DeepSeek平台提供的 OpenAI 兼容地址deepseek-chatdeepseek-reasoner适合作为默认主力模型
OpenRouter平台提供的 OpenAI 兼容地址openai/gpt-4o-minideepseek/deepseek-chat-v3:free适合多模型切换与测试
Perplexity平台提供的 OpenAI 兼容地址sonar-small-onlinesonar-pro适合联网搜索场景
Gemini平台提供的兼容地址对应 Gemini 兼容模型名适合多模态任务
Kimi平台提供的兼容地址对应 Moonshot 模型名适合长文本与文件分析

通用请求示例

curl https://your-api.example.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "deepseek-chat",
    "messages": [
      {
        "role": "user",
        "content": "帮我总结一下这篇文章的重点"
      }
    ],
    "temperature": 0.7
  }'

在聚合面板里通常这样填

  1. 接口地址:填写供应商提供的 OpenAI 兼容 base_url
  2. 密钥:填写对应平台签发的 api_key
  3. 模型名:直接填该平台支持的模型标识。
  4. 是否联网:如果平台支持联网模型,通常通过模型名或额外参数开启。
  5. 流式输出:大多数平台都支持 SSE 流式响应,可按客户端需要开启。

最后的选型建议

  1. 能用官方兼容接口时,优先别折腾逆向链路:维护成本更低,稳定性也通常更好。
  2. 把 xx2api 当作补充方案:它更适合个人研究、临时测试,或者官方接口不方便时作为备用。
  3. 定期确认额度与策略:免费额度、模型清单、联网能力都可能随时间调整。
  4. 不要上传敏感信息:无论是逆向项目还是第三方聚合平台,都尽量避免传输账号、隐私数据与生产环境机密。

分享此文到:

下一篇
Claude Code 使用技巧与常见问题排查