网站首页 > 技术文章 正文
当然可以,只要你使用 SO_REUSEPORT 这个参数。
还是先来看下man文档中是怎么说的:
SO_REUSEPORT (since Linux 3.9)
Permits multiple AF_INET or AF_INET6 sockets to be bound to an
identical socket address. This option must be set on each
socket (including the first socket) prior to calling bind(2)
on the socket. To prevent port hijacking, all of the pro‐
cesses binding to the same address must have the same effec‐
tive UID. This option can be employed with both TCP and UDP
sockets.
For TCP sockets, this option allows accept(2) load distribu‐
tion in a multi-threaded server to be improved by using a dis‐
tinct listener socket for each thread. This provides improved
load distribution as compared to traditional techniques such
using a single accept(2)ing thread that distributes connec‐
tions, or having multiple threads that compete to accept(2)
from the same socket.
For UDP sockets, the use of this option can provide better
distribution of incoming datagrams to multiple processes (or
threads) as compared to the traditional technique of having
multiple processes compete to receive datagrams on the same
socket.
从文档中可以看到,该参数允许多个socket绑定到同一本地地址,即使socket是处于listen状态的。
当多个listen状态的socket绑定到同一地址时,各个socket的accept操作都能接受到新的tcp连接。
很神奇对吧,写段代码测试下:
#include <arpa/inet.h>
#include <assert.h>
#include <stdio.h>
#include <stdlib.h>
#include <strings.h>
#include <sys/socket.h>
#include <sys/types.h>
#include <unistd.h>
static int tcp_listen(char *ip, int port) {
int lfd, opt, err;
struct sockaddr_in addr;
lfd = socket(AF_INET, SOCK_STREAM, IPPROTO_TCP);
assert(lfd != -1);
opt = 1;
err = setsockopt(lfd, SOL_SOCKET, SO_REUSEPORT, &opt, sizeof(opt));
assert(!err);
bzero(&addr, sizeof(addr));
addr.sin_family = AF_INET;
addr.sin_addr.s_addr = inet_addr(ip);
addr.sin_port = htons(port);
err = bind(lfd, (struct sockaddr *)&addr, sizeof(addr));
assert(!err);
err = listen(lfd, 8);
assert(!err);
return lfd;
}
int main(int argc, char *argv[]) {
int lfd, sfd;
lfd = tcp_listen("127.0.0.1", 8888);
while (1) {
sfd = accept(lfd, NULL, NULL);
close(sfd);
printf("接收到tcp连接:%d\n", sfd);
}
return 0;
}
编译并执行该程序:
$ gcc server.c && ./a.out
看下当前8888端口的所有socket的状态:
$ ss -antp | grep 8888
LISTEN 0 8 127.0.0.1:8888 0.0.0.0:* users:(("a.out",pid=32505,fd=3))
和我们预想的一样,只有一个socket处于listen状态。
我们再执行一次该程序:
$ gcc server.c && ./a.out
再次查看8888端口socket的状态:
$ ss -antp | grep 8888
LISTEN 0 8 127.0.0.1:8888 0.0.0.0:* users:(("a.out",pid=32607,fd=3))
LISTEN 0 8 127.0.0.1:8888 0.0.0.0:* users:(("a.out",pid=32505,fd=3))
此时已经出现两个socket在监听8888端口(注意它们的ip地址也是一样的),而这两个socket分别属于两个进程。
我们现在再用ncat模拟客户端,连接8888端口:
$ ncat localhost 8888
重复该操作,建立n个到8888端口的tcp连接,此时两个服务端终端的输出如下。
服务端1:
$ gcc server.c && ./a.out
接收到tcp连接:4
接收到tcp连接:4
接收到tcp连接:4
服务端2:
$ gcc server.c && ./a.out
接收到tcp连接:4
接收到tcp连接:4
可以看到,tcp连接基本上算是均匀分布到两个服务器上,神奇。
相关视频推荐
从netmap到dpdk,从硬件到协议栈,4个维度让网络体系构建起来
需要C/C++ Linux服务器架构师学习资料加qun812855908获取(资料包括C/C++,Linux,golang技术,Nginx,ZeroMQ,MySQL,Redis,fastdfs,MongoDB,ZK,流媒体,CDN,P2P,K8S,Docker,TCP/IP,协程,DPDK,ffmpeg等),免费分享
下面我们来看到对应的linux内核代码,看看它是如何实现的。
// net/ipv4/inet_connection_sock.c
int inet_csk_get_port(struct sock *sk, unsigned short snum)
{
...
struct inet_hashinfo *hinfo = sk->sk_prot->h.hashinfo;
int ret = 1, port = snum;
struct inet_bind_hashbucket *head;
...
struct inet_bind_bucket *tb = NULL;
...
head = &hinfo->bhash[inet_bhashfn(net, port,
hinfo->bhash_size)];
...
inet_bind_bucket_for_each(tb, &head->chain)
if (net_eq(ib_net(tb), net) && tb->l3mdev == l3mdev &&
tb->port == port)
goto tb_found;
tb_not_found:
tb = inet_bind_bucket_create(hinfo->bind_bucket_cachep,
net, head, port, l3mdev);
...
tb_found:
if (!hlist_empty(&tb->owners)) {
...
if (... || sk_reuseport_match(tb, sk))
goto success;
...
}
success:
if (hlist_empty(&tb->owners)) {
...
if (sk->sk_reuseport) {
tb->fastreuseport = FASTREUSEPORT_ANY;
...
} else {
tb->fastreuseport = 0;
}
} else {
...
}
...
}
EXPORT_SYMBOL_GPL(inet_csk_get_port);
当我们做bind等操作时,就会调用这个方法,参数snum就是我们要bind的端口。
该方法中,类型struct inet_bind_bucket代表端口bind的具体信息,比如:哪个socket在bind这个端口。
hinfo->bhash是用于存放struct inet_bind_bucket实例的hashmap。
该方法先从hinfo->bhash这个hashmap中找,该端口是否已经被bind过,如果没有,则新创建一个tb,比如我们第一次listen操作时,该端口就没有被使用,所以会新创建一个tb。
新创建的tb,它的tb->owners是empty,此时,如果我们设置了SO_REUSEPORT参数,那sk->sk_reuseport字段值就会大于0,也就是说,第一次listen操作之后,tb->fastreuseport的值被设置为FASTREUSEPORT_ANY(大于0)。
当我们第二次做listen操作时,又会进入到这个方法,此时hinfo->bhash的map中存在相同端口的tb,所以会goto到tb_found部分。
因为之前的listen操作会把其对应的socket放入到tb->owners中,所以第二次的listen操作,tb->owners不为empty。
进而,逻辑处理会进入到sk_reuseport_match方法,如果此方法返回true,则内核会允许第二次listen操作使用该本地地址。
我们看下sk_reuseport_match方法:
// net/ipv4/inet_connection_sock.c
static inline int sk_reuseport_match(struct inet_bind_bucket *tb,
struct sock *sk)
{
...
if (tb->fastreuseport <= 0)
return 0;
if (!sk->sk_reuseport)
return 0;
...
if (tb->fastreuseport == FASTREUSEPORT_ANY)
return 1;
...
}
由于上一次listen操作,tb->fastreuseport被设置为FASTREUSEPORT_ANY,而此次listen操作的socket,又设置了SO_REUSEPORT参数,即sk->sk_reuseport值大于0,所以,该方法最终返回true。
由上可见,设置了SO_REUSEPORT参数之后,第二次listen中的bind操作是没用问题的,我们再看下对应的listen操作:
// net/core/sock_reuseport.c
int reuseport_add_sock(struct sock *sk, struct sock *sk2, bool bind_inany)
{
struct sock_reuseport *old_reuse, *reuse;
...
reuse = rcu_dereference_protected(sk2->sk_reuseport_cb,
lockdep_is_held(&reuseport_lock));
...
reuse->socks[reuse->num_socks] = sk;
...
reuse->num_socks++;
rcu_assign_pointer(sk->sk_reuseport_cb, reuse);
...
}
EXPORT_SYMBOL(reuseport_add_sock);
listen方法最终会调用上面的方法,在该方法中,sk代表第二次listen操作的socket,sk2代表第一次listen操作的socket。
该方法的大致逻辑为:
1. 将sk2->sk_reuseport_cb字段值赋值给reuse。
2. 将sk放入到reuse->socks字段代表的数组中。
3. 将sk的sk_reuseport_cb字段也指向这个数组。
也就是说,该方法会将所有第二次及其以后的listen操作的socket放入到reuse->socks字段代表的数组中(第一次listen操作的socket在创建struct sock_reuseport实例时就已经被放入到该数组中了),同时,将所有listen的socket的sk->sk_reuseport_cb字段,都指向reuse,这样,我们就可以通过listen的socket的sk_reuseport_cb字段,拿到struct sock_reuseport实例,进而可以拿到所有其他的listen同一端口的socket。
到现在为止,reuseport是如何实现的基本就明朗了,当有新的tcp连接来时,只要我们找到监听该端口的一个listen的socket,就等于拿到了所有设置了SO_REUSEPORT参数,并监听同样端口的其他socket,我们只需随机挑一个socket,然后让它完成之后的tcp连接建立过程,这样我们就可以实现tcp连接均匀负载到这些listen socket上了。
看下相应代码:
// net/core/sock_reuseport.c
struct sock *reuseport_select_sock(struct sock *sk,
u32 hash,
struct sk_buff *skb,
int hdr_len)
{
struct sock_reuseport *reuse;
...
struct sock *sk2 = NULL;
u16 socks;
...
reuse = rcu_dereference(sk->sk_reuseport_cb);
...
socks = READ_ONCE(reuse->num_socks);
if (likely(socks)) {
...
if (!sk2)
sk2 = reuse->socks[reciprocal_scale(hash, socks)];
}
...
return sk2;
}
EXPORT_SYMBOL(reuseport_select_sock);
看到了吧,该方法中,最后使用了reciprocal_scale方法,计算被选中的listen socket的索引,最后返回这个listen socket继续处理tcp连接请求。
看下reciprocal_scale方法是如何实现的:
// include/linux/kernel.h
/**
* reciprocal_scale - "scale" a value into range [0, ep_ro)
* ...
*/
static inline u32 reciprocal_scale(u32 val, u32 ep_ro)
{
return (u32)(((u64) val * ep_ro) >> 32);
}
算法虽然我们看不懂,但通过其注释我们可以知道,它返回的值的区间是[0, ep_ro),再结合上面的reuseport_select_sock方法我们可以确定,返回的就是所有listen socket的数组下标索引。
至此,有关SO_REUSEPORT参数的内容我们就讲完了。
猜你喜欢
- 2024-09-18 Go 每日一库之 java 转 go 遇到 Apollo?让 agollo 来平滑迁移
- 2024-09-18 如何用Python抓抖音上的小姐姐(如何用python抓抖音上的小姐姐呢)
- 2024-09-18 建立深度学习服务器最简单的方法!快来get新技能吧
- 2024-09-18 Go 每日一库之 jobrunner(github每日一题)
- 2024-09-18 一个非常不错的项目,没有启动步骤文档「伪开源」
- 2024-09-18 渐进式Web应用(PWA)入门教程(上)(渐进式web app)
- 2024-09-18 教程|手把手教你在本地构建Nervos AppChain全家桶
- 2024-09-18 ssh 代理详细解释(ssh全局代理)
- 2024-09-18 数据持久化技术——MP(数据持久化层的主要作用)
- 2024-09-18 前端容易理解错的跨域原理(跨域是前端解决还是后端解决的)
- 1513℃桌面软件开发新体验!用 Blazor Hybrid 打造简洁高效的视频处理工具
- 556℃Dify工具使用全场景:dify-sandbox沙盒的原理(源码篇·第2期)
- 505℃MySQL service启动脚本浅析(r12笔记第59天)
- 483℃服务器异常重启,导致mysql启动失败,问题解决过程记录
- 482℃启用MySQL查询缓存(mysql8.0查询缓存)
- 462℃「赵强老师」MySQL的闪回(赵强iso是哪个大学毕业的)
- 442℃mysql服务怎么启动和关闭?(mysql服务怎么启动和关闭)
- 439℃MySQL server PID file could not be found!失败
- 最近发表
- 标签列表
-
- c++中::是什么意思 (83)
- 标签用于 (65)
- 主键只能有一个吗 (66)
- c#console.writeline不显示 (75)
- pythoncase语句 (81)
- es6includes (73)
- windowsscripthost (67)
- apt-getinstall-y (86)
- node_modules怎么生成 (76)
- c++int转char (75)
- static函数和普通函数 (76)
- el-date-picker开始日期早于结束日期 (70)
- js判断是否是json字符串 (67)
- checkout-b (67)
- c语言min函数头文件 (68)
- asynccallback (71)
- localstorage.removeitem (74)
- vector线程安全吗 (70)
- & (66)
- java (73)
- js数组插入 (83)
- mac安装java (72)
- eacces (67)
- 查看mysql是否启动 (70)
- 无效的列索引 (74)