利用 AI 来加速创新并提高客户价值对于在 AI 驱动的市场中保持竞争力至关重要。

DevSecOps 中的 AI 变革已经到来,你做好准备了吗?

AI 在软件研发领域中的作用来到了关键时刻—— 这将迫使组织及其 DevSecOps 领导者更加积极主动地倡导有效且负责任地使用 AI。

与此同时,研发人员和广泛的 DevSecOps 社区必须做好充足的准备,以应对 AI 的四个全球趋势:AI 在代码测试领域的使用率在增加、对知识产权所有权和隐私的持续威胁、对 AI 的偏见也在增加以及对 AI 技术的依赖在日益增加(尽管面临众多挑战)。

如果组织能够顺应这些趋势,那么组织和其 DevSecOps 团队将能够让企业保持良好的竞争力,与此相反,如果没有接住这“泼天的富贵”,那么企业创新的速度就会减慢,甚至让业务出现停滞。

从奢侈到标准:企业将全面拥抱AI

集成 AI 将会成为所有行业产品和服务的标准品,而非奢侈品,利用 DevSecOps 来构建产品的 AI 功能,并且要利用好这些 AI 功能。这是使用 AI 来推动创新的最直接方式,这种创新能够给客户带来可见的价值。

根据我和 GitLab 客户的访谈以及自我对行业的洞察来看,随着企业通过采用 AI 来突破效率的边界,到今年年底,超过三分之二的企业将在其产品中嵌入 AI 功能。企业将从以尝试 AI 为主向以 AI 为中心演变。

为了应对这种变革,企业必须要做好充足的准备,必须在软件研发治理上做好投资,而且必须强化对于 AI 的持续学习和不断适应。当然,这需要在文化和策略上作出改变。这要求企业必须重新思考业务模式、产品研发以及客户战略。在这个过程中培训是必不可少的,在培训的过程中 DevSecOps 团队会说出他们需要的东西。GitLab 最新的全球 DevSecOps 调研报告显示,81% 的受访者表示他们想要更多的培训以便知道他们该如何更有效的使用 AI。

关注【极狐GitLab】公众号,后台回复关键字 DevSecOps,免费获取 GitLab 最新全球 DevSecOps 调研报告。

随着 AI 变得更加负责并且将成为业务不可或缺的一部分,企业需要应对 AI 驱动的解决方案所带来的道德影响和社会影响,需要确保为客户和社区作出积极贡献。

AI 将主导代码测试工作流

DevSecOps 中的 AI 发展已经改变了代码测试这件事,这一趋势预计会加速。GitLab 调研显示,当前,只有 41% 的 DevSecOps 团队在软件研发过程中用 AI 自动生成测试代码,但在今年年底这一比例将上升到 80%,在未来两年将达到 100%。

随着组织将 AI 工具集成到他们的业务工作流程中,他们需要努力应对将当前流程与 AI 可以提供的效率和可扩展性收益相结合时所带来的挑战。这种转变将大幅提升生产力和准确度——但是这同样要求对传统的测试角色和实践作出重要的调整。采用 AI 驱动的工作流需要对 DevSecOps 进行培训,需要让他们具备 AI 洞察力以及学会通过微调 AI 系统来将 AI 能力集成到代码测试中,从而全面提升产品的质量和可靠性。

此外,这种转变需要重新定义 QA,需要要求他们通过发展自身技能来监督和强化基于 AI 的测试系统。人类的监督是非常重要的,因为 AI 系统需要持续地监控和指导才能更加高效地工作。

AI 对知识产权和隐私的威胁将会加速

随着对 AI 生成代码采用率的上升,AI 引入漏洞的风险也在增加,而且隐私数据泄露的可能性也在增加,这会影响到软件安全以及企业机密信息和客户数据的保护。

为了降低这些风险,企业必须在 AI 采用策略中优先考虑强有力的知识产权和隐私保护政策,并且确保 AI 的实施方式是完全透明的。实施严格的数据治理政策和采用先进的检测系统对于识别和解决 AI 相关的风险至关重要。通过员工培训来提高大家对于这些问题的认知,并且要鼓励积极主动的风险管理文化,这些对于保护知识产权和数据隐私来说也是非常重要的。

AI 的安全挑战还强调了在整个软件开发生命周期中持续实践 DevSecOps 的必要性。安全和隐私不是“马后炮”,而是要从一开始就介入,让你成为整个研发过程不可或缺的一环。简而言之,企业在采用 AI 时,必须要将安全放在首位,这一点和 DevSecOps 中讲究的安全左移是一样的,这是为了确保利用 AI 进行的创新不是以牺牲安全和隐私为代价。

对 AI 带来的偏见要做好准备

虽然 2023 年是 AI 狂飙发展的一年,但是 AI 的崛起让算法偏见成为焦点。依赖互联网数据进行训练的 AI 工具继承了网络内容所表达的全部偏见。这种发展带来了双重挑战:进一步加剧了现有的偏见并且产生了新的偏见,这影响了 DevSecOps 中 AI 的公平性和公正性。

为了抵消这些偏见,研发人员必须专注于训练数据集的多样性,引入一些公平性指标,而且要部署一些偏见检查工具。需要探索出适合特定场景的 AI 模型,一个有效的探索途径就是使用 AI 反馈来评估 AI 模型,但是这种评估要基于一系列的准则,这些准则描述了 AI 会做什么、不会做什么。建立道德准则和培训干预措施对于无偏见的 AI 输出来说至关重要。

企业必须建立起强大的数据治理框架,以确保 AI 系统中数据的高质量和可靠性。只有 AI 系统处理的数据变好,AI 系统才能变好,错误的数据会导致不精确的输出而且会做出错误的决策。

开发人员和广泛的技术社区应该通过 AI 或强化学习以及减少偏见的人类反馈来要求和促进 AI 的公平、公正发展。这需要 AI 供应商和用户一起努力,以确保负责任的 AI 在开发过程中会优先考虑公平性和透明性。

DevSecOps 中的 AI 变革已来

DevSecOps 中的 AI 变革已经到来,你做好准备了吗?

随着企业向以 AI 为中心的商业模式的转变,这不仅仅是为了保持竞争力,而是关于生存。业务领导者和 DevSecOps 团队将需要面对因为使用 AI 而带来的巨大挑战 —— 对隐私的威胁、对 AI 产出的信任或者文化问题。

总的来说,这些发展代表软件研发和安全新时代的到来。应对这些变化需要采取全面的措施,包括更加道德地研发和使用 AI、更加警惕的安全治理措施以及保护隐私的承诺等。企业和 DevSecOps 团队现在采取的行动将为 DevSecOps 中 AI 的长期发展指明方向,确保 AI 的安全使用。

60天免费试用极狐GitLab专业版

极狐GitLab不仅是源代码管理或CI/CD工具,它是一个覆盖完整软件开发生命周期和DevOps的开放式一体化平台。

企业版试用
售前咨询
联系电话
在线支持
预约演示