[置顶] 泰晓 RISC-V 实验箱,配套 30+ 讲嵌入式 Linux 系统开发公开课
[置顶] Linux Lab v1.4 升级部分内核到 v6.10,新增泰晓 RISC-V 实验箱支持,新增最小化内核配置支持大幅提升内核编译速度,在单终端内新增多窗口调试功能等Linux Lab 发布 v1.4 正式版,升级部分内核到 v6.10,新增泰晓实验箱支持
[置顶] 泰晓社区近日发布了一款儿童益智版 Linux 系统盘,集成了数十个教育类与益智游戏类开源软件国内首个儿童 Linux 系统来了,既可打字编程学习数理化,还能下棋研究数独提升智力
最新 Manjaro 下,rpcbind 和 nfs 服务启动失败问题的解决方案
Corrector: TinyCorrect v0.2-rc2 - [spaces toc codeblock codeinline refs pangu autocorrect] Author: kevin 1292311636@qq.com Date: 2023/09/30 Revisor: walimis Project: Linux Lab Proposal: 在新版 Manjaro 中确保 Linux Lab 正常启动 rpcbind 和 nfs 服务
前言
第一篇讲到了 rpcbind
与 nfs
启动失败的具体原因,即在新版的 Manjaro 下,进程能打开的最大文件数被设置得过大(是 1073741816),从而导致在 rpcbind
启动的过程中申请了一块非常大的内存且申请失败。而本文就希望解决掉这个问题。
直接修改进程能打开的最大文件数
既然是因为进程能打开的最大文件数被设置得过大导致的问题,那么不妨直接将这个数设置得小一点,具体为在 Cloud Lab 的 tools/docker/run
中做出以下的修改:
# For /tmp automount
tmpfs="--tmpfs /tmp:rw,exec"
# For lab name
lab_name="-h $LAB_NAME"
+ # 设置 nofile 的值
+ nofile="--ulimit nofile=1024:524288"
+ ulimit="$core_dump $nofile"
+
info_print "Wait for lab launching ..."
- lab_id=$(eval docker run -d $lab_name $privmode $coredump $tmpfs $seccomp $platform $net $audio $container $portmap $caps $dnss $devs $limits $volumemap $vars $EXTRA_ARGS $IMAGE)
+ lab_id=$(eval docker run -d $lab_name $privmode $ulimits $tmpfs $seccomp $platform $net $audio $container $portmap $caps $dnss $devs $limits $volumemap $vars $EXTRA_ARGS $IMAGE)
通过这样的修改再次重启并且启动 Linux Lab 后,就发现使用 ulimit -n
指令后值不再是 1073741816,而是我们设定好的值,然后我们再次使用 serivec 来启动 rpcbind
并且尝试着启动 nfs
,最终发现两个服务均可以启动起来。
但是显然,这是一个 “治标不治本” 的问题,此时我们并没有对问题函数进行修改,而是试图修改系统的设定值来规避问题函数的处理。那么接下来我们就要尝试着对问题函数进行一定的修改了。
尝试修改 _rpc_dtablesize() 函数
在第一篇的时候,曾分析并定位到了问题函数 _rpc_dtablesize()
,它来自 libtirpc 库:
int _rpc_dtablesize(void)
{
static int size;
struct rlimit rl;
size = sysconf(_SC_OPEN_MAX);
return (size);
}
且通过查找资料,发现问题主要是出在了 sysconf(_SC_OPEN_MAX)
这个上面。那么我们查找上游仓库来看是否有人提出过相同的问题以及他们是如何解决的。
最终发现,虽然没有人对 _rpc_dtablesize()
在 Manjaro
下所出现的这种问题做出过处理,但是有人对函数 __rpc_dtbsize()
提出过相同的问题,并且做出了相应的修改:
if (getrlimit(RLIMIT_NOFILE, &rl) == 0) {
- return (tbsize = (int)rl.rlim_max);
+ return (tbsize = (int)rl.rlim_cur);
}
可以看到,由于现在一些系统所设定的 rl.rlim_max
过大,导致允许打开的文件描述符数量过大,可能会被 OOM 杀死,而 _rpc_dtablesize()
与这个类似,所以我们做出了如下的尝试:
int _rpc_dtablesize(void)
{
static int size;
- size = sysconf(_SC_OPEN_MAX);
+ struct rlimit rl;
+ if (size == 0) {
+ if (getrlimit(RLIMIT_NOFILE, &rl) == 0) {
+ size = (int)rl.rlim_cur;
+ }
+ printf("size=%d\n",size);
}
return (size);
}
且其中加入了一句打印函数(或者直接观察 strace)来观察此时的 size 的值是否是一个较小值。然后我们再次运行 rpcbind
来观察信息:
2263 write(1, "rl.rlim_cur=0\n", 14) = 14
我们可以看到此时的值为 0,所以这个方法并没有行得通。那么除此之外,我们还可以使用一种暴力的方法 —— 即直接将 size 写成一个固定值:
int _rpc_dtablesize(void)
{
static int size;
- size = sysconf(_SC_OPEN_MAX);
+ size = 1024;
return (size);
}
这种办法可以不使用 sysconf(_SC_OPEN_MAX)
而直接规定 calloc
函数需要开辟多大的空间,但是这种办法的弊端也非常的明显,即它直接规定死所有系统均只能开辟相同大小的空间,不仅缺失了灵活性,而且还极有可能出错,所以这个办法过于激进。
规划
由于时间有限,有一些更好的办法可能还未想出来,所以此时我想的就是试图参考之前关于 __rpc_dtbsize()
的修改办法。理解一下该如何使用类似于 rl.rlim_cur
来解决这个办法。
总结
总的来说,首先提出了直接修改 nofile 的解决办法,然后再根据出现问题的函数针对性的提出了一些办法。然后再思考未来该如何更好对其进行一定的改进使其更加完美的贴合系统并且还能正常的启动起 rpcbind
与 nfs
。
参考资料
猜你喜欢:
- 我要投稿:发表原创技术文章,收获福利、挚友与行业影响力
- 知识星球:独家 Linux 实战经验与技巧,订阅「Linux知识星球」
- 视频频道:泰晓学院,B 站,发布各类 Linux 视频课
- 开源小店:欢迎光临泰晓科技自营店,购物支持泰晓原创
- 技术交流:Linux 用户技术交流微信群,联系微信号:tinylab
支付宝打赏 ¥9.68元 | 微信打赏 ¥9.68元 | |
请作者喝杯咖啡吧 |