Like a Hammer, It Can Build, It Can Break: Large Language Model Uses, Perceptions, and Adoption in Cybersecurity Operations on Reddit

该研究通过分析 Reddit 上 892 篇安全社区帖子,揭示了网络安全从业者将大语言模型视为“双刃剑”的现状:尽管其在提升低风险任务效率方面展现出显著价值,但可靠性不足、验证成本高及安全风险等问题仍严重限制了其在安全运营中的自主化应用。

原作者: Souradip Nath, Chih-Yi Huang, Aditi Ganapathi, Kashyap Thimmaraju, Jaron Mink, Gail-Joon Ahn

发布于 2026-04-14
📖 1 分钟阅读☕ 轻松阅读

这是对下方论文的AI生成解释。它不是由作者撰写或认可的。如需技术准确性,请参阅原始论文。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一份**“网络安全专家对 AI 新宠儿的真实用户评价报告”**。

想象一下,网络安全中心(SOC)就像一个24 小时不熄灯的“数字消防队”。他们的工作是时刻盯着成千上万个警报,判断哪些是真正的火灾(黑客攻击),哪些只是误报(比如有人不小心按错了开关)。以前,他们靠传统的自动化工具和人工经验,但警报太多,消防员们累得精疲力竭,甚至产生了“警报疲劳”。

最近,大家发现了一个新工具:大语言模型(LLM),也就是像 ChatGPT 这样的 AI。厂商们吹嘘它能像“超级消防员”一样,自动灭火、自动巡逻。

为了搞清楚这个“超级消防员”到底靠不靠谱,研究人员潜入了 Reddit 上的网络安全论坛,像**“潜水员”**一样,收集了 892 条真实讨论(就像收集了 892 份消防员的日记和吐槽),看看大家到底是怎么用它的,感觉如何。

以下是这篇论文的核心发现,用大白话和比喻讲给你听:

1. 大家更爱用“万能瑞士军刀”,而不是“专用消防斧”

  • 现象:虽然市面上有很多专门为了网络安全设计的 AI 工具(比如微软的 Security Copilot),但消防员们用得最多的,反而是通用的 AI 工具(比如 ChatGPT、微软 Copilot)。
  • 比喻:这就像消防员明明有专门的“液压钳”和“破拆斧”,但遇到小问题时,他们更习惯随手掏出一个**“万能瑞士军刀”**。因为通用 AI 更灵活、更便宜,而且大家早就用熟了。那些昂贵的专用 AI 工具,虽然功能强大,但大家还在观望,或者觉得太复杂,还没完全融入日常。

2. 怎么用?“先当实习生,再想当队长”

  • 现象:大家用 AI 主要做两件事:
    1. 写代码和写报告(比如让 AI 帮忙写个脚本,或者把复杂的日志总结成给老板看的简报)。
    2. 辅助调查(比如让 AI 帮忙整理线索,但最后拍板决定的依然是人)。
  • 比喻:大家把 AI 当作一个**“超级聪明的实习生”**。
    • 你可以让它去**“跑腿”**(写代码、查资料、整理文档),它能干得飞快。
    • 但你绝不会让它**“独自去灭火”**(自动阻断攻击、隔离服务器)。因为如果这个实习生搞错了,可能会把整个大楼的电源都切了,后果不堪设想。
    • 结论:AI 目前是“副驾驶”,人类必须是“机长”。

3. 大家既爱它,又怕它(爱恨交织)

  • 爱它什么?
    • :以前查一个警报要 45 分钟,现在 AI 几秒钟就能把线索理清楚,大大减轻了大家的加班负担。
    • 懂行:它能把那些像“天书”一样的机器日志,翻译成“人话”,让新手也能看懂发生了什么。
  • 怕它什么?
    • 爱“一本正经胡说八道”(幻觉):这是最大的槽点。AI 有时候会自信满满地编造一个不存在的病毒,或者把无辜的流量说成是攻击。在网络安全里,“错杀”比“漏网”更可怕,因为一旦误报,可能导致业务中断。
    • 隐私泄露:大家担心把公司的机密数据(比如内部网络图、密码策略)发给公开的 AI,就像把保险柜的钥匙复印件寄给了陌生人,万一被 AI 学走了怎么办?
    • 太贵:处理海量数据时,AI 的调用费用像流水一样,有人算了一笔账:用 AI 的钱,可能够再雇几个真人了。

4. 未来的担忧:新手怎么成长?

  • 核心矛盾:以前,新手消防员是通过处理大量的“小火苗”(初级警报)来积累经验,慢慢变成老手的。
  • 新危机:现在,AI 把那些初级、重复的活儿都包圆了。
  • 比喻:这就像**“把学游泳的浅水区都填平了”**。如果 AI 自动处理了所有简单任务,新手消防员就失去了“练手”的机会。等他们真正面对一场复杂的“森林大火”时,可能因为缺乏实战经验而手足无措。
  • 论文建议:我们需要一种新的培训方式,让 AI 变成**“教练”**而不是“替身”,教新手怎么思考,而不是直接替他们干活。

总结

这篇论文告诉我们:AI 在网络安全领域是个“潜力股”,但目前还不是“全能股”。

它像一把**“双刃剑”**:

  • 剑刃锋利:能极大提高处理日常杂务的效率,让专家从繁琐中解脱出来。
  • 剑柄不稳:因为容易出错、有隐私风险且太贵,大家不敢把身家性命(核心安全决策)完全交给它。

最终结论:在可预见的未来,网络安全依然是**“人机协作”的模式。AI 是那个不知疲倦、博闻强记的“超级助手”,但那个在关键时刻“拍板定案、承担责任”**的,必须是有血有肉的人类专家。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →