聊聊谷歌的机密计算处理思路

文章正文
发布时间:2024-08-17 01:53

在公有云这场席卷全球的军备竞赛当中,各大厂商纷纷出手,希望交付最为可信且稳定的应用程序与数据托管环境。

谷歌的Nelly Porter负责的就是这方面工作。Porter是谷歌产品管理总监,负责Google Cloud Platform(GCP)上的机密计算与加密事务。其中的机密计算,正是GCP用于保护数据的核心技术之一。

Porter解释道,“机密计算其实是个有趣的术语,概念本身来自计算领域。当我们通过应用程序对数据进行操作时,机密计算指的就是为了保护客户及用户的隐私而构建的一系列相关技术。”

“作为隐私保护的重要手段,机密计算能够帮助我们在使用过程中持续保护数据和工作负载,包括应用程序对目标数据执行操作时。这意味着相应的处理操作、将数据放入内存,再通过使用CPU(中央处理单元)、GPU(图形处理单元)或者TPU(张量处理单元)等各类硬件设备完成对数据的计算操作。”

而这一切基于谷歌基础设施所内置的安全硬件控件。她补充称,“我们正在使用AMD、英特尔或者英伟达等合作伙伴提供的硬件功能,旨在为客户的工作负载建立起极为强大的加密隔离与保护机制。”

而目标就是确保客户在基于机密硬件的环境当中,稳妥运行其应用程序。

她解释道,为了提供这种安全保障,谷歌需要确保AMD、英特尔、英伟达乃至其他硬件提供商都能切实满足机密计算需求,在产品层面提供保密和支持。同样的,Google Cloud也必须在保障其云基础设施方面发挥作用。“所有这些厂商都将汇聚在一起,为我们的客户提供令人难以置信的高可用性、可扩展性且性能出色的机密计算服务。”

安全工作,常抓不懈

IT领导者和安全负责人总要面对一个绕不过去的问题,那就是机密计算要如何与零信任、设计阶段安全保障乃至默认安全等原则协同起来,最终发挥作用。Porter表示,所有这些举措都是为了将工作负载转移至云端,从而在敏感数据的存储和处理过程中提供更强有力的保障和保证。

根据她的描述,零信任是一种“令人难以置信、强大且有趣的技术”,能够确保IT团队对端点设备进行验证。鉴于端点可以是用户的设备或者后端服务器,对于Porter来说,零信任至少能够在公有云环境当中提供良好的安全保障效果,而且在实际表现上足以与机密计算相媲美。

在她看来,“零信任与机密计算有相似性,但具体实现方式则完全不同,基本相当于实际工作负载运转之前,用于建立IT环境的一组技术培训手段。”

Porter还提到,默认安全与设计安全同样跟机密计算密切相关,在这种计算模式中安全技术会被直接嵌入IT基础设施之内,并可通过控制窗格进行管理。

她解释道,“我们正尝试在全球范围内的每处谷歌数据中心之内启用机密计算。只需要选中相应的设备并运行机密计算负载,就能够实现设计安全与默认安全等极具现实意义的效果。”

鉴于可供部署和交付的IT安全技术可谓无穷无尽,我们必须思考业务保障工作究竟需要多大程度的安全配合。Porter解释称,“老实讲,我真心认为安全工作应该常抓不懈,而我也一直在强调纵深防御的重要意义。大家可以将这些技术汇总起来,借此为最重要的资产提供更深入的保护。”

但她同时指出,IT领导者应当认真考虑自己需要做什么、怎么做,并确保在非必要时不对外开放访问和连接通道。

AI能够帮上大忙

Porter认为人工智能(AI)已经在机密计算领域发挥着重要作用。她指出,“谷歌和谷歌安全团队都非常关注AI技术。我们的客户、CISO还有安全从业者们也同样如此。”

“当我们通过应用程序对数据进行操作时,机密计算指的就是为了保护客户及用户的隐私而构建的一系列相关技术。作为隐私保护的重要手段,机密计算能够帮助我们在使用过程中持续保护数据和工作负载。”

——Nelly Porte,谷歌产品管理总监

对于Porter乃至整个IT安全社区而言,AI已经成为一种重要且实用度极强的工具,能够帮助组织对需要分析的大量数据进行深入发掘,进而查明威胁。面对持续累积的庞大数据量加上IT安全专家所投入关注度的指数级增长,她认为“AI和AI智能体一定会成为安全保障领域的重要依托。”

Porter还提到生成式AI在帮助IT管理员了解GCP上所部署工作负载时,扮演的各种配置角色。她指出,“IT管理员们需要处理很多工作,包括阅读各种文档、搞清楚如何正确部署应用程序并符合哪些合规性条款。而生成式AI智能体就能在这些方面提供良好帮助。”

根据Porter的介绍,生成式AI的介入能够将原本需要几星期的工作压缩到几分钟,同时消除了IT管理员在尝试将工作负载部署到GCP上时,所需要采取的冗余路径、特别是各种不必要的任务。她认为生成式AI的这类用例将大大改善IT管理工作的运作效率。

保护生成式AI

除了IT安全之外,生成式AI还有其他多种用例,能够帮助IT管理员在GCP之上部署工作负载。然而,对于生成式AI的应用本身也会给安全带来新的影响。

Porter指出,“以往,我们需要把数据和工作负载剥离开来进行保护,确保其配置文件不会相互混杂。而有了生成式AI,一切开始彼此依赖。我们的应用程序将取决于用于模型训练的大规模数据,并在AI模型的支持之下发挥作用。”

在生成式AI领域,配置数据被用于调整模型的加权。她解释道,“在使用任何数据片段(进行推理、微调或者训练)时,都必须确保这些数据受到全面隔离并搭配相应的隐私保护功能。”

而对于Porter和谷歌来说,机密计算无疑是实现这个目标的一种理想方法与重要手段。

首页
评论
分享
Top