-
Notifications
You must be signed in to change notification settings - Fork 2.5k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
kcptun_client端经常会有大量的CLOSE_WAIT连接 #416
Comments
CLOSE_WAIT是在哪端出现的? |
client端,server端没有CLOSE_WAIT |
刚刚更新
这是在client端的 |
意思就是这个CLOSE_WAIT是kcp进程的? |
是,都是kcptun_client的 |
-scavengettl改过么 |
没有~除了开始提到的参数以外,其他都是默认值 |
确定是release下载的,不是自己编译的,我这里第一次知道这个问题。 |
每次都是从release下载的,没有自己编译过。。 |
看看其他人有没有碰到这个问题,我这里所有的 CLOSE_WAIT都不是client产生的。 |
大概推断是因为你的autoexpire太短导致的。 |
@xtaci |
@xtaci 同问 |
只是猜测,我设置的300s, 但和CLOSE_WAIT是否有关系,其他人是否也有此问题也不知道,从来没人提过。 |
我把 |
连接多很正常,切换导致的,但CLOSE_WAIT不正常 |
明白,感谢。 |
有可能是因为阻塞在sess.OpenStream这里了,然后客户端到kcptun客户端的连接断开了 |
把 然后我想起了原本就是因为这样,我才加上 |
先分析下吧,主要是从来没有人提起,我这里因为kcptun导致的一个都没有。 |
问题的核心是,kcptun在什么时候没有关闭掉accept的tcp连接。 |
对。。我这边不知道有什么排查方法 |
kcptun-linux-386-20170308.tar.gz 这里可能引起 CLOSE_WAIT : a25c9eb 高频短链接可能会导致。 |
的确这里有可能在defer之前就return了。。 然后就是半个小时过去了,CLOSE_WAIT一直为0,看来是可以了。明天再看看就知道结果了~ |
就在这个时候 server 端突然就蹦出二十几个CLOSE_WAIT来
这个可能就是其他问题了 |
问题有没有解决? |
18 hrs过去了,client端CLOSE_WAIT连接数为0,问题应该是解决了 另外想问问,server端的CLOSE_WAIT,一般是由什么原因造成的?好像是会慢慢累积,昨天重启到现在有200多个,而且不会减少的样子 |
kcp server -> -target |
所以有怀疑要说出来哈,确实就是个BUG, 最新的release已经包含此fix |
ok~~ 非常感谢~ 服务端我每天重启一下好了,反正数量也不多 |
@xtaci 你好,我这边观察到的现象是 ss-redir 和 kcptun-client 之间有大量的 close_wait 状态连接(数量只增不减),然后查看进程 kcptun-client 打开的文件描述符,确认是 ss-redir 已经关闭了连接,然而 kcptun-client 没有把连接关闭导致的 |
关注 。。 |
如题,服务器和客户端使用的都是
20170303
版本。其实这个问题一直都有,但是最近实在是非常影响使用所以就提个issue看看其他人有没有同样的问题。配置:
服务器端:
客户端:
运行环境:
服务端ArchLinux,分别部署在DigitalOcean, Vultr和Linode上,内核是
4.9.7
或者4.9.11
客户端有ArchLinux也有Ubuntu 16.04.2,内核分别是
4.9.11
和4.4.0
由于产生了大量的
CLOSE_WAIT
,连接会特别特别慢甚至连不上,必须要重启kcptun客户端才能恢复正常。kcptun两端是shadowsocks-libev 3.0.3
,如果使用ss-local直连ss-server就没有问题如需要提供其他信息,请告知
The text was updated successfully, but these errors were encountered: