Linux漏洞频发,企业如何构建更主动的防御体系?
半夜被电话叫醒,发现核心服务器被提权控制,这大概是每一位linux系统管理员最不愿面对的噩梦。Qualys近期披露的CVE-2025-6018和CVE-2025-6019漏洞链,再次将这种风险摆在了台面上。一个看似边缘的PAM配置错误,加上一个默认策略过于宽松的polkit规则,就能让攻击者通过SSH一路绿灯拿到root权限。这背后暴露出的,远不止两个具体漏洞那么简单,而是许多企业安全防御体系长期处于被动响应的尴尬现状。
从“打补丁”到“防患未然”的思维转变
漏洞公告一出,大家习惯性地冲向终端,执行apt update && apt upgrade。这当然没错,这是安全运维的“基本动作”。但问题在于,如果防御体系只停留在“等公告-打补丁”的循环里,那就永远慢人一步。攻击者利用的“时间差”,往往就发生在这个循环的空隙中。更主动的思维是什么?是假设漏洞必然存在,并提前构建能够限制其爆炸半径的机制。比如,为什么一个用于管理存储设备的服务(udisks)需要那么高的默认权限?这就是安全基线配置的缺失。
构建分层的主动防御架构
指望单一技术或工具一劳永逸是不现实的。企业需要的是一个分层、纵深的结构,让攻击者每前进一步都要付出更大代价。
- 第一层:最小权限与强化配置。这应该成为所有服务器的出厂设置。遵循CIS(互联网安全中心)的linux Benchmark等标准,严格收紧SSH配置(禁用root登录、强制密钥认证)、按需调整polkit规则(就像应对CVE-2025-6019那样,将默认的
allow_active改为auth_admin),并利用像SELinux或AppArmor这样的强制访问控制框架,给每个进程套上“紧箍咒”。这能在漏洞被触发时,有效阻止权限的横向或纵向扩散。 - 第二层:持续的资产与脆弱性管理。你无法保护你不知道的东西。必须有一张实时、准确的资产清单,清楚每一台服务器上运行着什么发行版、什么版本的libblockdev或PAM。然后,不是被动等待外部通报,而是主动利用漏洞扫描工具(如OpenVAS, Trivy)或订阅厂商安全邮件列表,甚至自己进行简单的代码审计或模糊测试,在攻击者发现之前,先发现自己系统中的“薄弱点”。
- 第三层:全方位的监控与异常检测。日志不是用来存档的,而是用来分析的。整合
auditd系统调用审计、关键文件完整性监控(如AIDE)以及网络流量分析。通过SIEM平台建立行为基线,任何偏离基线的操作——比如非运维时段突然出现的提权尝试、对/etc/shadow文件的异常访问——都应该触发高级别告警。这次漏洞链利用的是系统原生服务,噪音小,但细致的审计规则依然能捕捉到蛛丝马迹。 - 第四层:预设的应急响应与快速恢复。承认防御可能被突破,并为此做好准备。这包括定期进行“蓝队演练”,模拟类似漏洞被利用后的应急流程;维护隔离的、不可篡改的系统备份;以及制定详细的灾难恢复计划。当真的发生入侵时,目标不是手忙脚乱,而是按预案快速隔离、取证、恢复业务,将损失和停服时间降到最低。
技术之外,人与流程同样关键
再好的技术栈,没有合适的人和流程去驱动,也只是一堆昂贵的软件。主动防御体系要求安全团队与运维、开发团队深度融合(DevSecOps)。安全要求需要作为代码的一部分,在CI/CD管道中自动进行安全检查;每一次变更(即使是修改一个PAM配置)都需要经过评审。同时,对全员进行持续的安全意识培训,让每个人都明白一个随意的配置改动可能带来的连锁风险。
linux的开放与强大,使其成为企业基石,但复杂性也带来了巨大的攻击面。盯着CVE编号疲于奔命,只会让安全团队陷入无尽的消耗战。真正的安全感,来自于构建一个即使存在未知漏洞,也能将其影响牢牢锁死在可控范围内的韧性体系。当攻击者发现每一步都举步维艰时,他们自然会去寻找更软的目标。这,才是主动防御的意义所在。

参与讨论
半夜被电话叫醒的噩梦感同身受,上周我们内网也出了类似问题,折腾到天亮。
这个polkit默认策略确实是个坑,之前我们自查就发现好几台机器有问题。
说得在理,不能总等CVE出来再动。我们今年开始推安全基线,虽然麻烦但有效。
想问问SELinux在生产环境全量部署的实战经验,会不会引入新的运维复杂度?
监控层那块,除了SIEM,有轻量级的开源方案推荐吗?感觉小团队上商业产品有压力。
感觉还是得靠流程管人,技术堆再多,运维手一滑改个配置全白搭。