iOS MachineLearning 系列(16)—— 几个常用的图片分类 CoreML 模型
在本系列的前面文章中,有介绍使用 Vision 框架中的 VNClassifyImageRequest 进行图片物体识别。Apple 也推荐了几个常用的图像分类模型可供开发者使用。可以在如下地址直接下载:
https://developer.apple.com/machine-learning/models/
1 - 几个模型的简单介绍
对于图片识别分类的模型来说,其输入和输出都一样,输入都为图像参数,输入为两部分,一部分为最佳预测结果,一部分为可能得预测结果及其可信度。
Resnet50
Resnet50 是一种神经网络分类模型,其大小为 102.6M 左右,其可以从 1000 种类别中检测输入图像中的主要元素,包括树木,动物,食物,车辆和人等。其测量的误差率为 7.8%。
MobileNetV2
MobileNetV2 是一种神经网络分类模型,其大小约为 24.7M,其同样能从千余种类别中检测图像里的主要元素。其测量的准确率为 74.7%。
SqueezeNet
SqueezeNet 也是一种神经网络分类模型,其最大的特点是非常小巧,参数可以减少 50 倍。我们直接使用的模型大小仅有 5M 左右。
整体来说,Resnet50 体积最大,其预测的精准度也相比会更好,但是对于图片比较清晰,内容比较单一的图像,这些模型都可以满足我们的正常需求。
2 - 使用示例
关于 CoreML 模型的使用,之前的文章有做详细的介绍,这里并没有额外需要注意的地方。我们直接将模型下载下来引入到 Xcode 工程中,Xcode 会自动帮我们生成模型的使用代码,分别初始化 3 个模型的操作对象如下:
对应的,创建输入参数:
进行预测:
结果如下图所示:
可以看到,3 种模型都正确的对图片进行了分类,正确的检测出了图片中的“猕猴”。
完整的示例代码可以在如下地址找到:
版权声明: 本文为 InfoQ 作者【珲少】的原创文章。
原文链接:【http://xie.infoq.cn/article/a0adc2d6c1835f18e0f9966eb】。文章转载请联系作者。
评论