火星科技网您的位置:首页 >互联网+ >

针对云TPU优化的Google开源AI图像分割模型

导读 谷歌的定制张量处理器(TPU)芯片是去年谷歌云平台客户可以使用的最新一代芯片,专为人工智能推理和培训任务量身定制,如图像识别,自然语言

谷歌的定制张量处理器(TPU)芯片是去年谷歌云平台客户可以使用的最新一代芯片,专为人工智能推理和培训任务量身定制,如图像识别,自然语言处理和强化学习。为了支持开发应用程序的开发,Mountain View公司拥有稳定的开源架构,如BERT(一种语言模型),MorphNet(一种优化框架)和UIS-RNN(一种扬声器二值化系统),通常还有数据集。继续这样,谷歌今天为其图书馆添加了两个新的图像分割模型,它们声称这两个模型都实现了最先进的性能。云TPU吊舱。

模型 -Mask R-CNN和DeepLab v3 +- 自动标记图像中的区域并支持两种类型的分割。第一种实例分割为一个或多个对象类(例如,家庭照片中的人)的每个实例提供唯一标签,而语义分割根据其所代表的对象或纹理的类别来注释图像的每个像素。(例如,城市街道场景可能被标记为“人行道”,“人行道”和“建筑物”。)

正如谷歌解释的那样,Mask R-CNN是一个两阶段实例分割系统,可以同时本地化多个对象。第一阶段从输入照片中提取模式以识别潜在的感兴趣区域,而第二阶段在为每个感知区域生成像素级别掩模之前细化那些预测对象类别的提议。

另一方面,DeepLab 3+优先考虑分割速度。在最新一代TPU硬件(v3)上使用Google的TensorFlow机器学习框架对开源PASCAL VOC 2012图像语料库进行培训,它能够在不到五个小时的时间内完成培训。

本周,Google面向R-CNN和DeepLab 3+的Colaboratory平台提供了教程和笔记本电脑。

TPU--液体冷却并设计用于插入服务器机架的专用集成电路(ASIC) - 已在内部用于为Google Photos,Google Cloud Vision API调用和Google搜索结果等产品供电。第一代设计于5月在Google IO上公布,最新的 -第三代- 在2018年5月详细介绍。谷歌声称它提供高达100 petaflops的性能,或约为其第二代芯片的8倍。

谷歌并不是唯一一家为人工智能优化的云托管硬件。今年3月,微软开设了Brainwave,这是一支用于加速机器学习操作的现场可编程门阵列(FPGA),用于选择Azure客户。(微软表示,这使得其为Bing搜索引擎提供动力的模型的性能提高了10倍。)同时,亚马逊为客户提供了自己的FPGA硬件,据报道正在开发一种可加速其Alexa语音引擎模型的AI芯片。训练。

标签:

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。