正确创建和管理 epoll_fd 应使用 epoll_create1(0) 并检查返回值,用 RAII 封装确保 close;epoll_ctl 操作需注意位或运算、事件重置及 nullptr 使用;ET 模式下 epoll_wait 后须循环非阻塞读写至 EAGAIN/EWOULDBLOCK。
直接用 epoll 就行,C++ 本身不提供封装,但可以干净地封装成 RAII 类;别依赖 Boost.Asio 或 libevent,除非你 already need their full stack。
epoll_fd
Linux 下 epoll_create1(0) 是首选,它比过时的 epoll_create() 更安全(自动设 EPOLL_CLOEXEC,避免 fork 后泄漏)。必须检查返回值是否为 -1,否则后续所有操作都会失败。
epoll_create1(0) 返回的 fd 必须在作用域结束时 close(),建议用 RAII 包装(例如 std::unique_ptr 配自定义 deleter)epoll_fd 传给子进程——即使没显式 fork(),某些日志库或监控 SDK 可能悄悄做这事fork() 多进程模型(如 prefork),每个子进程必须各自调用 epoll_create1(),不能共享父进程的 epoll_fd
epoll_ctl() 的三个关键操作怎么写才不出错增删改事件都靠 epoll_ctl(),但参数稍有不慎就静默失败。最常见的是把 EPOLLIN | EPOLLET 写成 EPOLLIN & EPOLLET(位与变零),或者漏掉 EPOLLET 导致边缘触发失效。
epoll_ctl(epoll_fd, EPOLL_CTL_ADD, sock_fd, &ev),其中 ev.events = EPOLLIN | EPOLLET,ev.data.fd = sock_fd
epoll_ctl(epoll_fd, EPOLL_CTL_MOD, sock_fd, &ev),注意 &ev 必须重新赋值,不能复用上次的结构体epoll_ctl(epoll_fd, EPOLL_CTL_DEL, sock_fd, nullptr),第三个参数可为 nullptr,但第四个必须是 nullptr(内核要求)epoll_wait() 返回后要循环读直到 EAGAIN
边缘触发(ET)模式下,epoll_wait() 只通知一次“有数据可读”,但内核接收缓冲区可能还有残留。不一次性读完,下次就不会再通知,导致连接卡死。
while (true) {
ssize_t n = recv(sock_fd, buf, sizeof(buf)-1, MSG_DONTWAIT);
if (n > 0) {
// 处理数据
} else if (n == 0) {
// 对端关闭,清理连接
break;
} else {
if (errno == EAGAIN || errno == EWOULDBLOCK) {
break; // 没数据了,退出循环
} else {
// 真实错误
break;
}
}
}
MSG_DONTWAIT 标志,否则阻塞读会卡住整个 event looprecv() 能读完一个完整业务包——TCP 是字节流,粘包/拆包得自己处理send() 发送大量数据,同样要检查返回值是否小于预期,并在 EAGAIN 时缓存未发送完的数据,等下次 EPOLLOUT 触发再续发epoll_fd
可以,但仅限于「一个线程调用 epoll_wait(),其他线程只调用 epoll_ctl()」这种单 reactor 模式。多个线程同时 epoll_wait() 在同一个 epoll_fd 上,行为未定义(实际中多数内核会允许,但无法保证唤醒公平性)。
epoll_fd),就得让每个线程有自己的监听 socket 副本(SO_REUSEPORT 是必须的),否则 bind 会失败epoll_ctl() 是线程安全的,但你要确保对同一 sock_fd
的 ADD/MOD/DEL 不并发发生(例如连接刚建立就被另一线程销毁)shared_ptr,并在 EPOLLIN 和 EPOLLERR 中统一触发销毁逻辑ET 模式、非阻塞 I/O、循环读写、错误码判断——这四点任何一个漏掉,高并发下都会出现连接 hang 住或 CPU 100%。别迷信封装库,先亲手写一遍裸 epoll,才能看清数据流在哪一环断掉。