六阁最、模型瘦身及其影響

機器學(xué)習(xí)模型文件,一般來說都是比較大的文件骇两,即使是能夠用在移動端的小型模型速种,動輒也要幾十上百兆。模型瘦身能夠?qū)⑽募笮〕杀犊s減脯颜,我們首先看一下如何進行模型瘦身哟旗,然后來研究一下瘦身后的影響:

一、如何瘦身

有英文閱讀能力的同學(xué),可以看這篇官方文檔闸餐,然后可以跳過這個章節(jié)饱亮。

首先你需要安裝coremltools:

pip3 install -U coremltools

然后新建一個Python3文件,輸入一下內(nèi)容:

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
# Copyright (c) 2019-01-17 10:41 - Larkin <yangchenlarkin@gmail.com>

import coremltools
import sys


def main():
    if len(sys.argv) == 1:
        print('請輸入模型文件路徑')

    # Load a model, lower its precision, and then save the smaller model.
    model_spec = coremltools.utils.load_spec(sys.argv[1])
    model_fp16_spec = coremltools.utils.convert_neural_network_spec_weights_to_fp16(model_spec)
    coremltools.utils.save_spec(model_fp16_spec, 'ModelFP16.mlmodel')


if __name__ == '__main__':
    main()

最后運行腳本:

python3 main.py <mlmodel file path>

這里我們的<mlmodel file path>我們使用MobileNet.mlmodel文件舍沙,然后你再同名文件夾下可以得到一個名為ModelFP16.mlmodel的文件近上,我們將文件名修改為MobileNet16.mlmodel。

二拂铡、準(zhǔn)備一個iOS工程

我們新建一個Single View App壹无,名叫CoreML-FP16,到網(wǎng)上隨便找一張圖片感帅,和MobileNet.mlmodel以及MobileNet16.mlmodel一起拖到項目中去斗锭,我使用的是這張圖片:

找到main.m文件,加入如下代碼:

#import "MobileNet.h"
#import "MobileNet16.h"
#import <mach/mach_time.h>

UIImage *scaleImage(UIImage *image, CGFloat size) {
    UIGraphicsBeginImageContextWithOptions(CGSizeMake(size, size), YES, 1);
    
    CGFloat x, y, w, h;
    CGFloat imageW = image.size.width;
    CGFloat imageH = image.size.height;
    if (imageW > imageH) {
        w = imageW / imageH * size;
        h = size;
        x = (size - w) / 2;
        y = 0;
    } else {
        h = imageH / imageW * size;
        w = size;
        y = (size - h) / 2;
        x = 0;
    }
    
    [image drawInRect:CGRectMake(x, y, w, h)];
    UIImage * scaledImage = UIGraphicsGetImageFromCurrentImageContext();
    UIGraphicsEndImageContext();
    return scaledImage;
}

CVPixelBufferRef pixelBufferFromCGImage(CGImageRef image) {
    NSDictionary *options = @{
                              (NSString *)kCVPixelBufferCGImageCompatibilityKey : @YES,
                              (NSString *)kCVPixelBufferCGBitmapContextCompatibilityKey : @YES,
                              (NSString *)kCVPixelBufferIOSurfacePropertiesKey: [NSDictionary dictionary]
                              };
    CVPixelBufferRef pxbuffer = NULL;
    
    CGFloat frameWidth = CGImageGetWidth(image);
    CGFloat frameHeight = CGImageGetHeight(image);
    
    CVReturn status = CVPixelBufferCreate(kCFAllocatorDefault,
                                          frameWidth,
                                          frameHeight,
                                          kCVPixelFormatType_32ARGB,
                                          (__bridge CFDictionaryRef) options,
                                          &pxbuffer);
    
    assert(status == kCVReturnSuccess && pxbuffer != NULL);
    
    CVPixelBufferLockBaseAddress(pxbuffer, 0);
    void *pxdata = CVPixelBufferGetBaseAddress(pxbuffer);
    assert(pxdata != NULL);
    
    CGColorSpaceRef rgbColorSpace = CGColorSpaceCreateDeviceRGB();
    
    CGContextRef context = CGBitmapContextCreate(pxdata,
                                                 frameWidth,
                                                 frameHeight,
                                                 8,
                                                 CVPixelBufferGetBytesPerRow(pxbuffer),
                                                 rgbColorSpace,
                                                 (CGBitmapInfo)kCGImageAlphaNoneSkipFirst);
    assert(context);
    CGContextConcatCTM(context, CGAffineTransformIdentity);
    CGContextDrawImage(context, CGRectMake(0,
                                           0,
                                           frameWidth,
                                           frameHeight),
                       image);
    CGColorSpaceRelease(rgbColorSpace);
    CGContextRelease(context);
    
    CVPixelBufferUnlockBaseAddress(pxbuffer, 0);
    
    return pxbuffer;
}

double MachTimeToMillisecond(uint64_t time) {
    mach_timebase_info_data_t timebase;
    mach_timebase_info(&timebase);
    return (double)time * (double)timebase.numer / (double)timebase.denom /1e6;
}

double measureBlock(void (^block)(void)) {
    if (!block) {
        return 0;
    }
    uint64_t begin = mach_absolute_time();
    block();
    uint64_t end = mach_absolute_time();
    return MachTimeToMillisecond(end - begin);
}

void logBlockTime(NSString *description, void (^block)(void)) {
    double time = measureBlock(block);
    NSLog(@"<%@>: time:%fms", description, time);
}

將main函數(shù)修改為:

int main(int argc, char * argv[]) {
    UIImage *image = [UIImage imageNamed:@"cat.jpeg"];
    UIImage *image224 = scaleImage(image, 224);
    CVPixelBufferRef input = pixelBufferFromCGImage(image224.CGImage);
    //TODO: do testing
}

三失球、文件大嗅恰:

我們分別打開MobileNet.mlmodel和MobileNet16.mlmodel,在描述中可以看到兩個文件的大小实苞,分別是17.1M和8.6M豺撑,確實是少了一倍。

四黔牵、性能測試:

我們添加如下函數(shù):


void run_test(CVPixelBufferRef input) {
    MLModelConfiguration *config = [[MLModelConfiguration alloc] init];
    
    config.computeUnits = MLComputeUnitsCPUOnly;
    MobileNet *cpuModel = [[MobileNet alloc] initWithConfiguration:config error:nil];
    MobileNet16 *cpuModel16 = [[MobileNet16 alloc] initWithConfiguration:config error:nil];
    
    config.computeUnits = MLComputeUnitsCPUAndGPU;
    MobileNet *gpuModel = [[MobileNet alloc] initWithConfiguration:config error:nil];
    MobileNet16 *gpuModel16 = [[MobileNet16 alloc] initWithConfiguration:config error:nil];
    
    config.computeUnits = MLComputeUnitsAll;
    MobileNet *allModel = [[MobileNet alloc] initWithConfiguration:config error:nil];
    MobileNet16 *allModel16 = [[MobileNet16 alloc] initWithConfiguration:config error:nil];
    
    logBlockTime(@"cpu", ^{
        for (int i = 0; i < 100; i++) {
            [cpuModel predictionFromImage:input error:nil];
        }
    });
    logBlockTime(@"gpu", ^{
        for (int i = 0; i < 100; i++) {
            [gpuModel predictionFromImage:input error:nil];
        }
    });
    logBlockTime(@"all", ^{
        for (int i = 0; i < 100; i++) {
            [allModel predictionFromImage:input error:nil];
        }
    });
    
    logBlockTime(@"cpu16", ^{
        for (int i = 0; i < 100; i++) {
            [cpuModel16 predictionFromImage:input error:nil];
        }
    });
    logBlockTime(@"gpu16", ^{
        for (int i = 0; i < 100; i++) {
            [gpuModel16 predictionFromImage:input error:nil];
        }
    });
    logBlockTime(@"all16", ^{
        for (int i = 0; i < 100; i++) {
            [allModel16 predictionFromImage:input error:nil];
        }
    });
}

在main函數(shù)中調(diào)用他:


int main(int argc, char * argv[]) {
    //...
    //TODO: do testing
    run_test(input);
}

我們得到以下結(jié)果:


這個結(jié)果嘛聪轿,咳咳。猾浦。陆错。好吧。跃巡。危号。
我們把CPUOnly去掉再看看:


只能說,如果你項目中使用的是CPUAndGPU素邪,那這個壓縮對運行效率還是有比較好的影響的外莲,但是如果你只能用CPU,這條路還是不走為好兔朦。

五偷线、準(zhǔn)確率測試:

我們參考二、使用Core ML加載.mlmodel模型文件中的iOS項目沽甥,在ObjectRecognition/ORViewController.m中添加如下代碼:

#pragma mark - predict
- (UIImage *)scaleImage:(UIImage *)image size:(CGFloat)size {
    //參考:二声邦、使用Core ML加載.mlmodel模型文件
}

- (CVPixelBufferRef)pixelBufferFromCGImage:(CGImageRef)image {
    //參考:二、使用Core ML加載.mlmodel模型文件
}

- (void)predict:(UIImage *)image {
    UIImage *scaledImage = [self scaleImage:image size:224];
    CVPixelBufferRef buffer = [self pixelBufferFromCGImage:scaledImage.CGImage];
    
    NSError *error = nil;
    
    MLModelConfiguration *config = [[MLModelConfiguration alloc] init];
    config.computeUnits = MLComputeUnitsCPUAndGPU;
    MobileNet16 *model16 = [[MobileNet16 alloc] initWithConfiguration:config error:&error];
    if (error) {
        NSLog(@"%@", error);
        return;
    }
    
    MobileNet16Output *output16 = [model16 predictionFromImage:buffer error:&error];
    if (error) {
        NSLog(@"%@", error);
        return;
    }
    
    MobileNet *model = [[MobileNet alloc] initWithConfiguration:config error:&error];
    if (error) {
        NSLog(@"%@", error);
        return;
    }
    
    MobileNetOutput *output = [model predictionFromImage:buffer error:&error];
    if (error) {
        NSLog(@"%@", error);
        return;
    }
    
    NSMutableArray *result = [NSMutableArray arrayWithCapacity:2];
    [result addObject:@[@"MobileNet", output.classLabel]];
    [result addObject:@[@"MobileNet16", output16.classLabel]];
    self.array = result;
}

隨便拍一拍摆舟,得到以下八張測試結(jié)果:


我們可以發(fā)現(xiàn)亥曹,模型經(jīng)過壓縮后邓了,正確率并沒有很明顯的損失。當(dāng)然8張圖片可能并不能很好的說明問題媳瞪。手頭有大量數(shù)據(jù)集的同學(xué)骗炉,可以做一個進一步的測試。

上圖中有明顯的檢測錯誤的現(xiàn)象蛇受,但這并非我們關(guān)心的句葵。我們在評價壓縮模型算法的時候,我們通常關(guān)心壓縮后的正確率/召回率/查準(zhǔn)率損失了多少兢仰,而不是非常關(guān)心壓縮前正確率/召回率/查準(zhǔn)率原本是多少乍丈。

六、總結(jié)

  • 蘋果官方提供的這個模型壓縮算法把将,可以將模型文件大小降低一半轻专。
    這無論對于Coding階段就將模型集成到代碼中的方案,還是對于從服務(wù)端下載模型的方案來說秸弛,都是非常有利的铭若。
  • 但是對于無法受用CPU的機型、操作系統(tǒng)來說递览,預(yù)測階段耗時的激增,無疑使得這個方案成了雞肋瞳腌。
  • 這個方案對正確率的影響绞铃,目前來看可以忽略不計。當(dāng)然和需要大量的測試結(jié)果才能更加篤定的做出這個結(jié)論嫂侍。

總之儿捧,你能用CPUAndGPU,就可以放心的壓縮挑宠,如果只能用CPU菲盾,那還是別用這種方式了

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末各淀,一起剝皮案震驚了整個濱河市懒鉴,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌碎浇,老刑警劉巖临谱,帶你破解...
    沈念sama閱讀 212,718評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異奴璃,居然都是意外死亡悉默,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,683評論 3 385
  • 文/潘曉璐 我一進店門苟穆,熙熙樓的掌柜王于貴愁眉苦臉地迎上來抄课,“玉大人唱星,你說我怎么就攤上這事「ィ” “怎么了魏颓?”我有些...
    開封第一講書人閱讀 158,207評論 0 348
  • 文/不壞的土叔 我叫張陵,是天一觀的道長吱晒。 經(jīng)常有香客問我甸饱,道長,這世上最難降的妖魔是什么仑濒? 我笑而不...
    開封第一講書人閱讀 56,755評論 1 284
  • 正文 為了忘掉前任叹话,我火速辦了婚禮,結(jié)果婚禮上墩瞳,老公的妹妹穿的比我還像新娘驼壶。我一直安慰自己,他們只是感情好喉酌,可當(dāng)我...
    茶點故事閱讀 65,862評論 6 386
  • 文/花漫 我一把揭開白布热凹。 她就那樣靜靜地躺著,像睡著了一般泪电。 火紅的嫁衣襯著肌膚如雪般妙。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 50,050評論 1 291
  • 那天相速,我揣著相機與錄音碟渺,去河邊找鬼。 笑死突诬,一個胖子當(dāng)著我的面吹牛苫拍,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播旺隙,決...
    沈念sama閱讀 39,136評論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼绒极,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了蔬捷?” 一聲冷哼從身側(cè)響起垄提,我...
    開封第一講書人閱讀 37,882評論 0 268
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎抠刺,沒想到半個月后塔淤,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,330評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡速妖,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,651評論 2 327
  • 正文 我和宋清朗相戀三年高蜂,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片罕容。...
    茶點故事閱讀 38,789評論 1 341
  • 序言:一個原本活蹦亂跳的男人離奇死亡备恤,死狀恐怖稿饰,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情露泊,我是刑警寧澤喉镰,帶...
    沈念sama閱讀 34,477評論 4 333
  • 正文 年R本政府宣布,位于F島的核電站惭笑,受9級特大地震影響侣姆,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜沉噩,卻給世界環(huán)境...
    茶點故事閱讀 40,135評論 3 317
  • 文/蒙蒙 一捺宗、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧川蒙,春花似錦蚜厉、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,864評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至康聂,卻和暖如春贰健,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背早抠。 一陣腳步聲響...
    開封第一講書人閱讀 32,099評論 1 267
  • 我被黑心中介騙來泰國打工霎烙, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人蕊连。 一個月前我還...
    沈念sama閱讀 46,598評論 2 362
  • 正文 我出身青樓,卻偏偏與公主長得像游昼,于是被迫代替她去往敵國和親甘苍。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 43,697評論 2 351

推薦閱讀更多精彩內(nèi)容