请选择 进入手机版 | 继续访问电脑版

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 207|回复: 0

使用 Tensorflow 对象检测 API 加速训练和推理

[复制链接]

545

主题

0

回帖

1677

积分

金牌会员

积分
1677
发表于 2024-12-11 23:56:16 | 显示全部楼层 |阅读模式
去年,我们宣布了TensorFlow对象检测 API,从那时起,我们发布了许多新功能,例如通过神经架构搜索学习的模型、实例分割支持以及在Open Images等新数据集上训练的模型。我们对它的使用方式感到惊讶——从在纽约街头寻找违法者到诊断坦桑尼亚木薯植物的疾病。
今天,作为 Google 致力于普及计算机视觉的承诺的一部分,并利用研究社区关于如何使这个代码库更加有用的反馈,我们很高兴地宣布我们的 API 中添加了许多功能。此版本的亮点包括:
支持通过Cloud TPU加速训练对象检测模型
通过加速推理并使用TensorFlow Lite格式轻松将模型导出到移动设备来改进移动部署流程
几个新的模型架构定义包括:
RetinaNet(Lin 等人,2017)
RetinaNet 的MobileNet改编版
一种基于 SSD 的新型架构,称为池化金字塔网络(PPN),其模型尺寸比 SSD MobileNet v1 小 3 倍以上,且准确性损失最小。
此外,我们还将根据COCO 数据集发布上述每个模型的预训练权重。
通过云 TPU 加速训练
用户花费大量时间来优化超参数和重新训练对象检测模型,因此快速完成实验至关重要。今天发布的模型属于单次检测器(SSD) 类架构,这些架构针对在云 TPU 上进行训练进行了优化。例如,我们现在可以在不到 3.5 小时内训练基于 ResNet-50 的 RetinaNet模型,在 COCO 数据集上实现 35%的平均精度(mAP)。
通过量化和 TensorFlow Lite 加速推理
为了更好地支持移动和嵌入式设备上的低延迟要求,我们提供的模型现在与TensorFlow Lite原生兼容,从而实现低延迟和小二进制大小的设备机器学习推理。作为其中的一部分,我们在 TensorFlow Lite 中原生实现了:(1)模型量化和 (2) 特定于检测的操作。我们的模型量化遵循Jacob 等人(2018) 和Krishnamoorthi (2018) 的白皮书中概述的策略, 该策略在训练和推理时将量化应用于模型权重和激活,从而产生运行速度更快的更小模型。
与全浮点模型相比,量化检测模型更快、更小(例如,量化的 75% 深度减少的 SSD Mobilenet 模型在占用 4.2 Mb 的 Pixel 2 CPU 上以 >15 fps 的速度运行),并且检测精度的损失最小。
使用新教程亲自尝试!
要开始在 Cloud TPU 上训练自己的模型,请查看我们的新教程!本教程将带您完成在 Cloud TPU 上训练量化宠物脸部检测器的过程,然后将其导出到 Android 手机,通过 TensorFlow Lite 转换进行推理。
我们希望这些新增功能将有助于让任何希望解决对象检测问题的人都能获得高质量的计算机视觉模型,并提供更无缝的用户体验,从使用量化训练模型到导出到可用于设备部署的 TensorFlow Lite 模型。我们要感谢社区中所有贡献功能和错误修复的人。与往常一样,欢迎对代码库做出贡献,请继续关注更多更新!
致谢
这篇文章反映了以下核心贡献者的工作:Derek Chow、Aakanksha Chowdhery、Jonathan Huang、Pengchong Jin、Zhichao Lu、Vivek Rathod、Ronny Votel 和 Xiangxin Zhu。我们还要感谢以下同事:Vasu Agrawal、Sourabh Bajaj、Chiachen Chou、Tom Jablin、Wenzhe Li、Tsung-Yi Lin、Hernan Moraldo、Kevin Murphy、Sara Robinson、Andrew Selle、Shashi Shekhar、Yash Sonthalia、Zak Stone、Pete Warden 和 Menglong Zhu。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|绿色天空实验室

GMT+8, 2025-1-22 07:02 , Processed in 0.077521 second(s), 18 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表