ISACA AI Survey Results: What Do Infosec Professionals REALLY Need to Know?

Raef Meeuwisse
作者: Raef Meeuwisse, CISM, CISA, Author of 人工智能 for Beginners
发表日期: 2023年10月25日

现在很难找到关于人工智能(AI)的高质量信息, 特别是 当谈到人工智能在网络安全领域应该以及正在被如何对待时. 值得庆幸的是, ISACA刚刚完成了一项针对全球信息安全和数字信任澳门赌场官方下载数千名成员的调查.

尽管许多人愿意冒险猜测人工智能将如何发展,以及澳门赌场官方下载需要做些什么来在其数字环境中整合或保护人工智能系统, t在这里 is an uncomfortable truth: nobody really knows how the use of AI in enterprises will unfold.

  • 我们是否会因为人工智能驱动的威胁而面临信息安全资源需求的上升,或者因为自动化而面临信息安全资源需求的下降?
  • How far can and should enterprises be embracing or safeguarding from AI?
  • What policies should (and do) enterprises have regarding their use of AI?
  • What security measures can and should be placed around “in-house” use of AI?
  • … and can you really stop employees from using AI tools anyway?

AI presents so many variables, 可能性和威胁,唯一可靠的选择之一是众包信息安全专业人员自己如何感知, using or feeling threatened by AI. 这项ISACA调查为我们提供了一个机会,让我们了解目前整个澳门赌场官方下载的情况.

在这篇博文中,我们将重点介绍此次调查的一些主要发现:

T在这里 is a High Degree of Uncertainty Around 生成的人工智能

从最广泛的意义上说, 生成式AI是指任何具有至少一种类似人类的技能的技术,这种技能可以用于创造一种或另一种形式的内容. Whether the generative AI is used to create written work, 图片, video, customer service responses or other content, 它有能力通过简单的提示或其他输入达到或超过人类水平的自主执行.

Most ISACA members in the survey were familiar with the term 生成的人工智能 (73%),尽管总体上只有25%的人认为他们非常或非常熟悉这个词. 那些稍微熟悉的人(48%)可能在宣布对该术语的任何程度的舒适之前,在理解该技术的含义和细微差别方面表现出一定程度的谨慎.

然而, 当被问及他们的组织政策是否允许使用该技术时, 45% say it is not permitted, 28%的人说是的, 26%的人不确定. 只有10%的受访者表示他们的组织已经制定了全面的政策, and more than one in four respondents have no plans to develop one.

AI Security 培训: 生成的人工智能 Becomes the New Shadow IT

无论组织是否有政策,超过40%的员工都在使用生成式人工智能. According to the survey results, 在哪里使用它, 它是用于创建书面内容(65%)——包括编写编程代码, increasing productivity (44%), automating repetitive tasks (32%), customer service (29%) and improving decision-making (27%).

In fact, t在这里 were dozens of uses listed by respondents.

ISACA的调查显示,生成式人工智能正被广泛用于各种目的, 它还突出了道德考虑和安全措施方面的明显差距. 只有6%的组织为所有员工提供全面的人工智能培训, and a staggering 54% offer no training at all. 缺乏培训, 再加上对道德标准的重视不够——41%的人表示没有给予足够的重视——可能会导致风险增加, including exploitation by bad actors. Perhaps not surprisingly, 57%的受访者非常或极度担心生成式人工智能被恶意行为者利用.

Is AI Risk Management a Neglected Priority?

调查结果表明,只有不到三分之一的组织认为人工智能风险是当务之急. 这一点尤其令人担忧,因为79%的人认为对手使用人工智能的成功程度超过了数字信任专业人员. The top five risks identified were misinformation/disinformation (77%), privacy violations (68%), social engineering (63%), loss of IP (58%) and job displacement (35%). 这些风险不仅仅是理论上的,它们具有现实世界的影响,可能严重影响组织的安全态势.

The Future of Jobs and the Industry Outlook

有趣的是, while 45% believe AI will eliminate a significant number of jobs, 70% think it will have some positive impact on their jobs.

这让我想起了我妻子(我们关系中更聪明的那一半)的一个非常深刻的观察:“每个人似乎都对人工智能能做的任何事情都很满意, 直到它可以取代他们所能做的事情,那就太过分了.”

总体前景是乐观的,85%的人认为人工智能是提高人类生产力的工具. 然而,, 值得注意的是,80%的人表示,他们需要额外的培训来保住工作或提升职业生涯.

In Conclusion: Should 澳门赌场官方下载s Join the AI Wave? Is T在这里 Any Other Choice?

The ISACA survey paints a complex picture. While t在这里 is optimism about the potential benefits of AI, t在这里 is also a glaring lack of preparedness and understanding. The rapid adoption of AI technologies by employees, often without organizational approval or oversight, 是一个定时炸弹吗.

一方面, 像微软, Google and others weave AI into their technologies and infrastructure, 几乎别无选择,只能找出如何安全地将这项技术整合到每个数字环境中. 在另一边, 我们需要谨慎和训练,以防御人工智能驱动的对抗性攻击,这些攻击可能会利用深度伪造,或使流氓人工智能模型像前所未有的人类黑客军队一样快速运作.

缺乏全面的人工智能安全政策和培训计划加剧了风险, 包括道德沦丧和被恶意行为者利用的可能性.

As we navigate the complexities of AI in the cybersecurity landscape, one thing is clear: the future of AI is bringing with it more change, more rapidly than we have ever seen in the past. 现在正是组织从战略上抓住这股浪潮,而不是被它冲走的时候了.

ISACA的调查为信息安全界敲响了警钟,要求他们积极应对人工智能带来的挑战和机遇. 如果做不到这一点,可能意味着错过了好处,同时将组织暴露在不必要的风险中.

编辑器的 注意: Find more insights from the survey and AI resources from ISACA 在这里.

作者附言: 跟随Raef on 蓝天 @RaefMeeuwisse.bsky.social

额外的资源