火星科技网您的位置:首页 >科技数码 >

Dotscience将AI平台的DevOps引入Kubernetes

导读 Dotscience今天宣布将提供一个DevOps平台,可以加速Kubernetes集群上可用的人工智能(AI)模型的构建和部署。该公司首席执行官卢克马斯登(Luk

Dotscience今天宣布将提供一个DevOps平台,可以加速Kubernetes集群上可用的人工智能(AI)模型的构建和部署。

该公司首席执行官卢克马斯登(Luke Marsden)表示,许多组织开始采用AI原生模型,以便在本地或公共云环境中更轻松地部署这些模型。人工智能模型被部署为运行在Kubernetes集群中的Docker映像。

Dotscience正在简化人工智能模型的训练过程,然后通过其Dotscience Kubernetes Runner平台将其部署在推理引擎上。然后可以使用基于Prometheus和Grafana的仪表板实例持续监控这些模型,Grafana也可以使用这些仪表板。

Dotscience还宣布已与SP Global结成联盟,根据该联盟,两家公司将共同定义一套构建和部署AI模型的最佳实践。S&P环球之所以选择与Dotscience合作,是因为它发现,由于需要构建健壮的数据管道和在本地笔记本电脑上运行的AI模型实例等问题,至少有一半的AI模型未能通过孵化阶段。在生产环境中运行的服务器上。

阻碍人工智能采用的两个最大障碍是大多数数据科学团队没有可重复的过程来构建和部署人工智能模型。如今,许多组织都充满了没有与应用程序一起部署的人工智能模型,因为没有定义过程来将人工智能模型交给应用程序开发人员团队。

随着新的相关数据源的发现,许多模型需要更新变得更具挑战性,但是如果没有一套最佳的DevOps实践,很难实现它们。

最后,Marsden指出,许多已部署的AI模型都在模型中嵌入了偏差,导致许多偏差在部署后回滚。

马斯登说,由于所有这些问题,面向人工智能的DevOps(也称为机器学习(MLOps))正在成为一门学科,组织正走在拥抱人工智能的前沿。Dotscience通过提供一个持续集成/持续部署平台来管理构建和部署过程,努力使人工智能更容易采用DevOps。AI模型可以通过公司提供的图形界面、Python库或一组命令行界面(CLI)工具进行部署。

就AI模型而言,显然还处于起步阶段。然而,鉴于许多人工智能项目的雄心勃勃的性质,如果人工智能模型没有达到预期,组织需要能够快速失败。他们面临的挑战不仅仅是构建人工智能模型,还要找到在工业规模上部署和更新这些人工智能模型的方法。

标签:

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。