RT,这两天有没有仍然可用的codex或者Claude呀,中转站或者公益站都行,或者有没有不太贵的氪金玩法,求各位佬们推荐 18 个帖子 - 14 位参与者 阅读完整话题
大多客户都是其他人的中转站站长,所以量比较大哈哈。 11 个帖子 - 5 位参与者 阅读完整话题
如题,我用的是中转,就是输出一个命令下一个就报这个错误了。一直解决不了,有人知道是怎么解决吗 1 个帖子 - 1 位参与者 阅读完整话题
各位佬好,最近在重度使用 AI 辅助写代码,对 Claude 的需求比较大,但一直被渠道和网络稳定性折磨。想请教一下大家目前市面上各类接入方案的实际情况。 我自己了解过并且试过一些渠道,体验都一言难尽: 官方账号反代(C号/池子反代): 这个最大的痛点就是极容易封号。稳定性完全看脸,经常写代码写到一半号没了,心智负担太重。 谷歌 Antigravity (Antig) 反代: 延迟极高,经常卡得死死的。而且给的额度非常少,稍微跑点复杂的逻辑或者上下文一长就不够用了,完全没法满足高频使用的需求。 最近看到市面上还有很多人在说 AWS 渠道 ,我个人的盲区比较大,想重点请教一下懂行的老哥: AWS 渠道到底是什么? 是指通过 AWS Bedrock 申请调用的官方 API 吗?还是别的什么操作? 稳定性和风控: 这个渠道的封号风险大不大?延迟表现如何? 其他方案求荐: 除了上述这些,大家目前在日常高并发/大上下文的开发场景下,还有什么相对稳定靠谱的获取 Claude 额度的路子? 提前感谢各位大佬解惑! 1 个帖子 - 1 位参与者 阅读完整话题
不走小中转站 ,哪家的官方渠道是最值得买的,应用场景,代码编写,资料整理,科研任务。用过智谱pro minimax plus 。在考虑重新选择,或许云厂商也行? 9 个帖子 - 8 位参与者 阅读完整话题
有没有懂ip方案的佬 有兴趣一起开中转站的 我有肉身国外的人 4 个帖子 - 4 位参与者 阅读完整话题
中转进入决赛圈的是 : DMIT :LAX.AN5.Pro.STARTER 和 搬瓦工的 DC6 求佬给点意见,主要是用ai的接口和做代理。 还有就是选东京和洛杉矶,佬们怎么看? 15 个帖子 - 10 位参与者 阅读完整话题
在印尼实体服务器部署中转供内部5人使用,购买的是max20账号。 4月13号认证pro账号,不够用,4月14号中午升级为max20,分发了账号,大家在国内自己的电脑接入使用,晚上7点被退款; 4月15号开第二个账号购买max20,使用国内同一个服务器、同一个账号,用了不到30分钟封号了。 求大佬指点长久一点的使用方法。 3 个帖子 - 2 位参与者 阅读完整话题
现在大概每天要用 150 刀,求佬友推荐一下性价比高的中转,有月订阅的,谢谢,可以私信发一下 12 个帖子 - 8 位参与者 阅读完整话题
奖品详情: claude 中转 key 每个 800 刀*10 活动时间: 开始时间:发帖时间 截止时间:4月18日20:00 参与方式: 在本帖下回复任意内容 抽奖规则: 每位用户仅允许参与一次。 使用 官方抽奖工具 随机抽取中奖者。 注意事项: 本活动将在活动截止时间后关闭回帖,以确保公正性。 中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。 所有规则及抽奖结果由活动发起人和论坛 管理团队 最终解释。 期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。 578 个帖子 - 565 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 项目地址: GitHub - sup194/model-forensics: model-forensics is a CLI for two related jobs: - anomaly screening for suspicious LLM APIs - reference-model matching against a local fingerprint database · GitHub model-forensics model-forensics 是一个 CLI 工具,用来检查模型提供商提供的模型是否造假。 适合这类场景: 中转站造假, 挂羊头,卖狗肉 模型背后实际混用多种模型 对比不同时期的模型表现,判断模型是不是稳定,是不是后端切换成了其他模型 怎么检查的 通过组合测试用例作异常筛查 基于官方模型建立本地指纹库做模型匹配检测 快速开始 方式 A:不使用本地 reference 快速初筛,可以先不建立本地 reference,直接运行: mforensics inspect examples/targets.yaml 方式 B:使用本地 reference 如果你想有进一步的对照证据,可以先从官方模型建立本地 reference: mforensics profile examples/reference.yaml --save-as gpt-4o-official --db data/model-forensics.sqlite 然后在检测对应的模型: mforensics inspect examples/targets.yaml --db data/model-forensics.sqlite --out reports/run-001 对比历史运行 你还可以对比不同时期的结果,判断一个模型是否稳定,或者是否发生了后端切换: mforensics compare <run-id-a> <run-id-b> --db data/model-forensics.sqlite 命令 mforensics inspect examples/targets.yaml mforensics inspect examples/targets.yaml --db data/model-forensics.sqlite --out reports/run-001 mforensics profile examples/reference.yaml --save-as trusted-model-v1 --db data/model-forensics.sqlite mforensics runs list --db data/model-forensics.sqlite mforensics runs show <run-id> --db data/model-forensics.sqlite mforensics compare <run-id-a> <run-id-b> --db data/model-forensics.sqlite mforensics refs list --db data/model-forensics.sqlite mforensics refs show trusted-model-v1 --db data/model-forensics.sqlite mforensics refs delete trusted-model-v1 --db data/model-forensics.sqlite 密钥 CLI 会从配置文件所在目录开始向上查找,并自动加载最近的 .env 文件。 .env.example 。 .env 示例: REFERENCE_API_KEY=replace-with-reference-api-key SUSPECT_API_KEY=replace-with-suspect-api-key OPENAI_API_KEY=replace-with-openai-api-key-for-embeddings Target 配置 待检测模型配置示例: name: suspect-check targets: - name: suspect-openai provider: generic protocol: openai base_url: https://suspicious.example.com/v1 claimed_model: gpt-4o api_key_env: SUSPECT_API_KEY 官方 reference 配置示例: name: official-reference targets: - name: trusted-openai provider: openai protocol: openai base_url: https://api.openai.com/v1 claimed_model: gpt-4o api_key_env: OPENAI_API_KEY 致谢 特别感谢 Linux.do 社区的支持与帮助。 1 个帖子 - 1 位参与者 阅读完整话题
佬们,codex不自己单做接口的情况下,不同的中转API有没有办法共享/继承聊天记录? 更换之后上下文总是无非继承。 5 个帖子 - 5 位参与者 阅读完整话题
用的中转站,wsl中使用codex cli,版本是最新版 部分配置 sandbox_mode = "workspace-write" approval_policy = "on-request" 3 个帖子 - 2 位参与者 阅读完整话题
求专业的机佬,推荐下。主要是用 gpt,claude 这类大模型和做代理,可以组合,中转 + 落地,也可以纯中转。老板预算在 500rmb 一个月以内,也不用太夸张,3-4 百最好,要给他速度快,模型不降智这种体验。求推荐,ps: 落地鸡挂 cpa 反代 claude 会被封嘛哈哈哈哈 6 个帖子 - 4 位参与者 阅读完整话题
目前是用网页端的claude以及中转站api加claude code,目前想问一个问题,看看能否实现全过程的自动化。 先用输入内容1加提示词A,得到几条内容(结果1),接着用B判断结果1有哪些可用即结果2。 新开一个对话(保证上下文的干净。)然后用结果2加提示词B,再筛选一次,得到结果3。 结果3加提示词C,得到最终内容。 如果不新开一个对话的话,很容易导致产生幻觉以及被上下文误导。 我有很多的输入内容需要这个过程进行操作。有没有一种办法可以我睡觉的时候他们在自动的工作,然后我睡醒打开一看左边是输入内容,右边就是最终结果。 1 个帖子 - 1 位参与者 阅读完整话题
所有公益站全崩了,甚至买的中转都出问题了 各位佬有好用的推荐吗 有知道便宜稳定的中转也可以推荐一下 2 个帖子 - 2 位参与者 阅读完整话题
公司每月只给100补贴,买GLM还得自掏腰包50。。。 19 个帖子 - 11 位参与者 阅读完整话题
如题 佬友们有哪些稳定的中转站推荐吗?有没有能保证不受 KYC 影响的?毕竟 Claude 的 KYC 政策其实并没有明说哪些情况会触发。 不过又听说走 API 的账号不在此列? 1 个帖子 - 1 位参与者 阅读完整话题
看了一下 ldc 榜单前列的基本上都是公益站或者中转站的大佬, 既然 ldc 复活了,大佬们是否会复出继续做公益站做久一点? 5 个帖子 - 5 位参与者 阅读完整话题
我是真纳闷了,这cpa我更新到最新版(出一版更一版,因为有登陆的有自己的PLus账号,怕没更新容易给号封了。。。) 现在我登陆授权的号都没问题,但是我现在用AI供应商加入中转站一直接入不进去用不了openclaw,一直是这俩错误,但是我导入到ccswith里可以用。 ⚠️ Something went wrong while processing your request. Please try again, or use /new to start a fresh session. ⚠️ API rate limit reached. Please try again later. 把配置文件和问题发给codex,问codex,她说: 为什么 CCSwith 能用,但 OpenClaw 报 429? 大概率不是“CCSwith 比 OpenClaw 更兼容”,而是这几条叠加: • CCSwith 请求更轻、并发更低 • 它可能没踩中同一个冷却窗口 • OpenClaw 这边多 agent / cron 同时吃 gpt-5.4 • 你的 CPA 又给所有 gpt-* 额外注入了超长 prompt • OpenClaw 目前 没有 fallback,所以一旦主模型冷却就直接炸给用户看 这次不是“配错了”,而是“单模型 + 多 agent/cron + CPA 全局注入超长 prompt + 无 fallback”把 gpt-5.4 打进冷却后,OpenClaw 没路可走。 ber,那你这不是神经病么。。。。有没有懂得佬,解解惑,求求了 根本不调用中转站,日志里直接就是失败: 1 个帖子 - 1 位参与者 阅读完整话题