-
Notifications
You must be signed in to change notification settings - Fork 11.2k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
ChatGPT error 429: {"detail":"It is recommended to upgrade to the latest PandoraNext: https://github.com/pandora-next/deploy"} #1973
Comments
一样的问题 |
我刚也遇到了 |
me too |
咋办,me too |
大家是不是都是用的非API模式 我感觉是Token模式才有此问题 |
昂,我是的,我看文档说api的没token的聪明,所以就没想用api的,毕竟我主要用它来生成代码,对代码质量有要求 |
me too |
应该是反向代理不能用了吧 |
这个报错好像是让你去他的地址里升级反代 |
看着是需要修改yml文件的container_name等数据以及以及映射文件,希望看到修改一下 |
有没有升级的方法呢 |
me too |
看样子Pandora考虑换一种代理方式。这个应该是换一家api proxy代理URL就好了,但是不知道怎么更新 |
这个升级需要我怎么弄 |
呼唤作者更新! |
俺也是 |
科学上网+chatGpt=解决 |
应该是要更新了接入的api 了 |
me toooooooo!!!!!怎么解决啊 |
我上午还能用 刚才想用就出这问题了~~昂 |
重新装了一遍项目,还是这个问题,我寻思着我token没问题啊... |
问题分析:在非API模式下,默认调用https://ai.fakeopen.com/api/conversation 的反向代理接口,目前这个接口存在问题,无法正常使用。 解决方式:通过在Docker中设置环境变量(API_REVERSE_PROXY),可以更改反向代理的URL。另一种解决方式是研究这个项目:https://github.com/pandora-next/deploy,搭一个自己的反向代理接口。 |
逼着用pandora |
好的感谢,我懒人先用其它的替代,等作者更新了 |
那目前看就是反代的问题,问题先关掉了,感谢各位大佬 |
有什么推荐的替代呀,是只要换一个API_REVERSE_PROXY就可以了吗 |
只用gpt3.5的话暂时不需要验证Arkose Token, gngpp/ninja 确实可用,我是ninja+代理的方法(socks5那个是我部署的代理,因为我不能直接访问openai),然后chatgpt web的反代写http://your-host-IP:Port/backend-api/conversation |
|
问题挺大的哈哈。。项目结构应该是web->service->chatgpt api,service才是接口代理的主体,你应该在service的配置里改而不是前端项目中。 |
哈哈可以了,谢谢大哥了,祝大哥身体健康发大财 |
|
走apikey的方式对上下文长度存在限制,实测连续对话长度稍长就会报错 |
自己vps能直连chatgpt的话,感觉用ninja来反代挺方便的,https://hi.wyhhome.top/archives/qOK1fxka |
@David-One 可以了 谢谢!!! |
|
注意使用 0.8.4 版本的ninja docker镜像,我主要是用它进行代理,我第一次试的时候,使用最新的镜像貌似不行。。。我目前用0.8.4的可以 |
{"detail":{"message":"Client challenge required","code":"challenge_required"}} |
换一个账号就好啦 我换了一个账号 新用一个share_token就好啦 |
如果有VPS的话(被openai拉黑ip也没有问题)推荐用docker来搭,贼简单,教程可以参考突破网络封锁:在国内使用ChatGPT的方法,教程提供了ip被拉黑和没有被拉黑的反向代理方法,请自选。 |
api_reverse_proxy地址是 http://vps:8080/chatgpt/backend-api/conversation |
整理了下上面的方法,大概就是这样吧,自建api替换掉公共的api version: '3'
services:
chatgpt-web:
image: chenzhaoyu94/chatgpt-web # 总是使用 latest ,更新时重新 pull 该 tag 镜像即可
container_name: chatgpt-web
ports:
- 127.0.0.1:3002:3002
depends_on:
- chatgpt-ninja
environment:
# 二选一
OPENAI_ACCESS_TOKEN: "<your_access_token>"
# 访问权限密钥,可选
AUTH_SECRET_KEY: 123456
# 每小时最大请求次数,可选,默认无限
MAX_REQUEST_PER_HOUR: 0
# 超时,单位毫秒,可选
TIMEOUT_MS: 60000
API_REVERSE_PROXY: http://<your_host>:7999/backend-api/conversation
chatgpt-ninja:
image: gngpp/ninja:latest
container_name: chatgpt-ninja
restart: unless-stopped
environment:
- TZ=Asia/Shanghai
- PROXIES=socks5://chatgpt-warp:10000
command: run
ports:
- "7999:7999"
depends_on:
- chatgpt-warp
chatgpt-warp:
container_name: chatgpt-warp
image: ghcr.io/gngpp/warp:latest
restart: unless-stopped
chatgpt-watchtower:
container_name: chatgpt-watchtower
image: containrrr/watchtower
volumes:
- /var/run/docker.sock:/var/run/docker.sock
command: --interval 3600 --cleanup
restart: unless-stopped |
是的,教程里面把vps改成ip,一样的 |
这里的 API_REVERSE_PROXY: http://<your_host>:7999/backend-api/conversation |
|
那有可能你那个share token没有配置好吧 我是重新搞了好几个share token都是不行 然后换了一个账号,再用share-token就好了 |
是填你自己的服务器地址,能访问到就可以,你可以直接访问http://<your_host>:7999/auth/login看下ninja是否正常工作了 |
|
原FakeOpen接口的作者推荐使用新的项目Pandora-next作为替代,逐步禁用原来的接口了。移步 https://github.com/pandora-next/deploy 部署该项目,可以直接使用Pandora的前端类ChatGPT官网页面。也可以配置其类型为proxy,等同于自己部署一个反代接口,将此项目.env中 OPENAI_BASE_URL项配置为你的Pandora反代接口的url,能起到和原来fakeOpen接口相同的效果。小建议:遇到问题根据报错提示一步一步摸索,这样才能玩的有意思,而不是看到问题就Quote Reply。 |
Pandora-next部署当代理,亲测可用 https://www.aimini.top/article/971c8dbe-1be8-4b02-bbdc-8125feae50d9 |
部署了pandora-next后,使用代理地址还是有报错, |
That's worked. |
报错就是:ChatGPT error 429: {"detail":"It is recommended to upgrade to the latest PandoraNext: https://github.com/pandora-next/deploy"},看上去是引用了pandora-next,而我去看了,这个库它20小时前更新了,是因为这个原因吗?那么我要怎么对应更新?
The text was updated successfully, but these errors were encountered: