生成式人工智能在云计算生态系统中的影响尤为显著,无论是在应用层面还是行业层面。随着企业纷纷寻求在云运营中利用这项技术,了解网络连接要求和风险变得至关重要,特别是在安全、可靠、负责任地部署生成式人工智能模型之前。

大型语言模型(LLM)因其庞大的规模,训练这些模型需要大量的数据和超高速的计算能力。数据集的规模越大,对计算能力的需求就越高。在公共云环境中训练生成式人工智能模型时,主要的连接要求之一是能够负担得起对大规模数据集的访问。除了巨大的处理能力需求外,还需要考虑其他因素,包括管理公共云中数据传输的主权、安全性和隐私要求。

2022年,39%的企业在其云环境中遭遇了数据泄露。鉴于此,探索市场上专门为高性能和人工智能工作负载设计的专用连接产品是有意义的。

全球监管框架错综复杂且可能发生变化,因此企业应密切关注围绕人工智能领域迅速出现的关键公共政策和监管趋势。企业现在需要实施数据映射和数据丢失预防等技术,以确保随时了解所有个人数据的位置,并提供相应的保护。这种方法被称为基于设计的隐私方法,不仅被欧洲《通用数据保护条例》(GDPR)所采用,也被美国的数据隐私法所采纳。

想象一下,一家跨国银行在其办公场所安装了50台大型机,并将主要计算能力保存在这里。其目的是对数据进行人工智能分析,但由于监管限制,它无法使用公共互联网连接到这些云环境。私有连接使其能够访问存在于企业本地监管框架内的生成式AI功能。

随着人工智能立法的不断扩大,生成式人工智能技术的广泛采用可能会给数据主权带来长期挑战。企业能够保证主权边界的唯一方法可能是,在数据传输时使用某种私有连接形式。随着世界变得更加数字化互联,这促使各国界定和规范数据的存储地点,以及处理数据的LLMS存储地点。

公有云上的人工智能训练模型也是如此。企业将需要某种类型的连接,从其私有云到公共云,在那里可以进行人工智能训练模型,然后使用私有连接将其推理模型带回来。

需要注意的是,尽管一些国家法律要求某些数据保留在本国境内,但这并不一定会使其更安全。例如,如果企业使用公共互联网在公共云服务上向他国和从他国传输客户数据,即使其可能在他国内部传输,仍然有人可以拦截该数据,并将其传送到世界各地。

随着我们每天经历的大量语音和视频通话,我们都变得对延迟敏感。在与人互动方面,延迟是一个关键因素。同样,用于训练人工智能模型的大量数据集可能会在公共云上导致严重的延迟问题。例如,如果正在与一个提供客户服务的人工智能机器人聊天,若延迟时间开始超过10秒,那么退出率就会加速。因此,使用公共互联网将面向客户的基础设施与推理模型连接起来,对于无缝的在线体验而言是潜在的危险,响应时间的变化可能会影响企业提供有意义结果的能力。同时,网络拥塞可能会影响企业按时构建模型的能力。克服这个问题的方法是使用大型管道,以确保在将主要数据集移动到训练语言模型的地方时不会遇到拥塞。因此,企业将能够避免严重的拥塞,特别是在将新数据传输到LLM时,这无疑会导致积压。

治理是目前正在讨论的话题,因为如果没有适当的人工智能治理,可能会给企业带来严重的后果,可能导致商业和声誉受损。在云上实施生成式人工智能模型时,缺乏监督很容易导致错误和违规,更不用说潜在的客户数据和其他专有信息的暴露。简而言之,生成式人工智能的可信度取决于企业如何使用。换言之,谁可以访问数据,哪里可以获得数据批准的可追溯性?

生成式人工智能是一个变革性的领域,但IT领导者在部署其应用之前,必须避免网络连接错误。定义与现有云架构相关的业务需求至关重要,因为数据可访问性是生成式人工智能的一切。网络即服务(NaaS)平台的高性能灵活性,可以为具有前瞻性思维的企业提供先发优势,而不是在公共云的风险中导航。例如,NaaS解决方案结合了新兴的网络技术,支持生成式人工智能的治理需求,用于更广泛的业务和保护客户。通过将云与全球网络基础设施互连来采用人工智能系统,该基础设施可以提供完全自动化的交换和按需路由,这可以通过NaaS敏捷性来简化。

点赞(254)

评论列表 共有 0 条评论

暂无评论
立即
投稿
发表
评论
返回
顶部