The Human and AI Partnership: Collaborating for Enhanced 网络安全

information security
作者: Jay Allen, CITP, MBCS
发表日期: 2023年10月6日

Over the past decade, 人工智能(AI)已经从一种新兴技术转变为一种牢牢嵌入日常生活的技术. AI assistants such as Siri and Alexa are commonplace, 人工智能驱动了人们在网上遇到的许多产品推荐和社交媒体信息. 然而,人工智能也准备在网络安全中发挥越来越重要的作用. 生成式人工智能和精确人工智能都有望帮助澳门赌场官方下载抵御越来越复杂的网络攻击.1

Generative AI refers to AI systems that can generate new content, 比如文本, code, 图片或视频, based on their training data.2 The most prominent example today is ChatGPT, 哪一个 can generate human-like text in response to prompts. 这种类型的人工智能对于网络安全团队来说可能是无价的,比如自动生成威胁情报报告, 安全分析人员今天必须手动编写的策略和其他文档. Generative AI may also have defensive uses, 比如自动生成良性内容来迷惑和转移利用人工智能的攻击者.

Precision AI aims to provide AI systems with greater accuracy, consistency and suitability compared to conventional AI approaches. 使用这些功能可以显著增强威胁检测和响应能力. 而不是简单地产生一个分数,表明一个活动是恶意的可能性有多大, 精密人工智能系统可以提供解释和证据来证明其输出的合理性. 这使得安全团队能够验证人工智能判断背后的逻辑,而不是毫无疑问地相信不透明的模型. 可解释的人工智能模型也可能会发现训练数据中的偏差或差距,从而随着时间的推移提高性能.

在一起, 生成人工智能和精确人工智能之间的协同作用可以使大部分网络安全工作流程自动化,并大大扩展安全团队的能力. Analysts could leverage AI to handle tedious, 重复性的任务,如编写报告和检查异常日志文件. 这使他们能够专注于更高价值的调查和战略举措,以改善网络防御. AI could also make security teams more proactive. 例如, generative AI could identify policy vulnerabilities or gaps, 而精确的人工智能模型可以根据早期预警先发制人地发现内部威胁.

然而,对于在网络安全中负责任地使用人工智能,人们存在着可以理解的担忧. Generative models such as ChatGPT sometimes produce harmful, biased or misleading content, 如果这种人工智能产生有缺陷的网络计划和程序,这是一个严重的问题. 与此同时, precision AI relies heavily on training data, 哪一个, if not adequately curated, could lead to discriminatory outcomes. 还有人担心,过度依赖人工智能可能会导致澳门赌场官方下载变得自满, mainly if the AI provides a false sense of security.

Although AI holds much promise, trust and transparency are critical for its adoption in cybersecurity. 组织必须仔细评估生成人工智能输出的准确性,并能够确定精确人工智能判决背后的原因. 应该根据利用AI模型的安全团队的反馈不断监控和改进AI模型. 流程应确保安全分析师在部署人工智能时保留积极的监督和决策权.

通过谨慎的治理和技术专家与安全专家之间的协作, 人工智能可以开启一个新时代,加强对网络空间日益增长的威胁的保护.

在这个对手越来越狡猾、攻击越来越复杂的时代,人类和人工智能之间的共生伙伴关系可能是改变网络安全的关键.3 网络安全领导者必须将人工智能视为人类洞察力的补充,而不是替代. Generative AI can expand human creativity and capacity, while precision AI brings greater transparency and focus. 然而,负责任的监督和由人类洞察力推动的持续改进,对于实现人工智能的承诺仍然至关重要.

安全团队必须积极参与管理人工智能系统使用的训练数据,并在部署后持续监控其性能. By evaluating real-world results, analysts can provide feedback to improve algorithmic logic, identify gaps in training data and correct unfair biases or blind spots. 技术专家和安全专家之间的持续协作和沟通将有助于开发人工智能,使人类分析师成为值得信赖的合作伙伴,而不仅仅是自动化机械任务.

Organizations should also design processes that involve humans in oversight, decision making and control whenever AI is used operationally, 包括实施基于安全团队反馈的持续监控和改进人工智能系统的框架.4 尽管生成式和预测性人工智能系统的建议可以为人类的判断提供信息, final calls should remain with the security team. Analysts on the ground can assess context, use intuition and draw connections that AI currently lacks. 让人类参与相应的行动可以作为对潜在AI失败的检查.

With wisdom and foresight, 人工智能的力量可以被利用,使数字世界成为一个对所有人都更安全的地方. As AI becomes further embedded into cybersecurity workflows, 重新关注明智的治理和人机协作将是至关重要的. Although AI promises to transform cybersecurity, it is still early days. Adopting these emerging technologies prudently, rather than mindlessly automating, 而保持积极的人类洞察力对于负责任地履行这一承诺至关重要.

尽管生成式和预测性人工智能系统的建议可以为人类的判断提供信息, final calls should remain with the security team.

尾注

1 霍沃思,R.; “人工智能:网络中的生成式人工智能应该让我们担心,原因如下,” 《澳门赌场官方软件》, 2023年8月4日
2 J.P. 摩根。”Is Generative AI a Game Changer2023年3月20日
3 破折号,B.; Ansari, M. F.; Sharma, P.; Ali, A.; “基于人工智能的网络安全入侵检测的威胁与机遇,” International Journal of Software Engineering and Applications,卷. 13日,国际空间站. 2022年9月5日
4 Thuraisingham B.; “人工智能和数据科学治理:c级和董事会的角色和责任,” 2020 Institute of Electrical and Electronics Engineers (IEEE) 21st 国际数据科学信息重用与集成会议(IRI), 拉斯维加斯, NV, 美国, 2020, p. 314-318

Jay Allen, CITP, MBCS

是一位经验丰富的技术领导者,在管理跨国团队和全球网络安全售前工作方面拥有丰富的背景. 他在IT行业的供应商和私人组织中拥有20年的经验. Allen is passionate about advancing the cybersecurity landscape.