今天,人工智能无处不在。2022年底ChatGPT的推出标志着AI的巨大飞跃,促使全球的组织和个人将这项技术融入他们的生活与工作。这也引发了关于伦理的讨论,迫使世界考虑偏见、隐私和负责任的发展,这些都与人工智能有关。
我们可以安全地称我们的后ChatGPT世界为人工智能时代的到来,这也为网络安全行业提出了问题。例如,AI会成为善的力量还是恶的力量?AI如何改善网络安全?AI将如何改变当前的威胁格局?这些都是云安全联盟(CSA)着手回答的问题。
2023年11月,云安全联盟CSA向近2500名网络安全专家分发了一项在线调查,以了解他们对AI的看法,以更深入地理解:
• 当前的安全挑战
• 对网络安全中AI的看法
• 行业对AI的熟悉程度
• 行业对AI使用的计划
• AI对人员配备和培训的影响
让我们审视一下云安全联盟(CSA)的《AI与安全状况调查报告》中的一些关键发现。
云安全联盟 (CSA) 的研究表明,大多数受访的网络安全专业人士 (63%) 对AI持谨慎乐观的态度,他们认为AI可以提高威胁检测和响应能力。然而,对于谁将从AI中获益更多,受访者意见分歧:34% 的人认为安全团队将从中受益最多,而 25% 的人认为AI将有利于恶意行为者。另有 31% 的人认为这项技术对防御者和攻击者具有同等优势。
尽管担心AI会让许多工作岗位消失,但大多数网络安全专业人士认为这项技术可以帮助他们提升能力,而非取代他们。大多数受访者认为人工智能将增强他们的技能(30%),支持他们的角色(28%),或者自动化大部分任务,并为更高级的工作腾出时间。只有极少数受访者 (12) 担心AI会完全取代他们。但是,超过一半的受访网络安全专业人士担心过度依赖人工智能 (AI),他们强调需要平衡AI驱动的安全方法和人工驱动的安全方法。
与预期一致,高管层 (C-suite) 对AI的熟悉程度明显高于员工 (staff) – 51% 的高管层受访者表示他们对AI非常熟悉,而只有 11% 的员工表示熟悉。同样比例的高管层表示他们对AI有“清晰”的理解,而只有 14% 的员工表示如此。遗憾的是,我们无法确定这些结果是否真正代表知识差距,还是仅仅反映了高管层盲目自信的一个令人担忧的例子。
然而,我们确实知道的是,大多数员工 (74%) 对其领导层关于AI安全影响的知识充满信心 – 但只有 14% 的员工表示他们对AI有清晰的理解,这使得调查结果的可信度有所下降。同样,84% 的受访者表示他们的执行领导层和董事会倡导采用人工智能 (AI)。然而,显而易见的是,高管层和董事会需要做更多工作来教育员工了解AI以实现这一目标。
云安全联盟 (CSA) 的报告显示,在调查问卷发布时,超过一半的机构 (55%) 计划在未来一年内实施生成式人工智能 (AI)。他们打算探索以下用例:
• 规则创建 – 21%
• 攻击模拟 – 19%
• 合规违规监控 – 19%
• 网络检测 – 16%
• 减少误报 – 16%
• 培训开发和支持 – 15%
• 异常分类 – 14%
• 自然语言搜索 – 13%
• 威胁汇总 – 13%
• 数据泄露防护、知识产权保护 – 13%
• 用户行为分析 – 11%
• 自动报告生成 – 10%
• 端点检测 – 10%
• 事件日志汇总 – 9%
• 取证分析 – 9%
• 智能聊天机器人 – 9%
• 事件汇总 – 8%
• 配置纠偏/检查 – 8%
• 行动/补救建议 – 8%
• 代码分析 – 7%
调查显示,网络安全专业人士认为实施网络安全AI的主要挑战是技术人员短缺 (33%)。这包括寻找具有合适技能的新员工以及提升现有员工的技能。
其他挑战还包括资源分配 (11%)、理解AI风险 (10%) 和实施成本 (85%)。值得一提的是,受访者并没有将监管和数据隐私合规等传统障碍视为主要挑战。
总而言之,网络安全专业人士对AI持谨慎乐观的态度。然而,他们对这项技术的理解还有待提高,这可能反映出过度的自信和准备不足,最终可能导致灾难性后果。高管层 (C-level) 必须确保他们对AI的理解达到他们认为的水平,并努力提高员工的知识储备。尽管可以理解机构希望将AI融入其业务流程,但在实施之前,他们必须解决知识和技能差距问题。
原创文章,作者:guozi,如若转载,请注明出处:https://www.sudun.com/ask/78308.html