在這里介紹兩種實(shí)現(xiàn):
第一種方式:采用iOS系統(tǒng)默認(rèn)的開發(fā)庫實(shí)現(xiàn)
#pragma mark - 采用系統(tǒng)自帶的庫進(jìn)行實(shí)現(xiàn)
- (UIImage*)systemImageToGrayImage:(UIImage*)image{
int width = image.size.width;
int height = image.size.height;
//第一步:創(chuàng)建顏色空間(說白了就是開辟一塊顏色內(nèi)存空間)
CGColorSpaceRef colorRef = CGColorSpaceCreateDeviceGray();
//第二步:顏色空間上下文(保存圖像數(shù)據(jù)信息)
//參數(shù)一:指向這塊內(nèi)存區(qū)域的地址(內(nèi)存地址)
//參數(shù)二:要開辟的內(nèi)存的大小,圖片寬
//參數(shù)三:圖片高
//參數(shù)四:像素位數(shù)(顏色空間纳鼎,例如:32位像素格式和RGB的顏色空間俺夕,8位)
//參數(shù)五:圖片的每一行占用的內(nèi)存的比特?cái)?shù)
//參數(shù)六:顏色空間
//參數(shù)七:圖片是否包含A通道(ARGB四個通道)
CGContextRef context = CGBitmapContextCreate(nil, width, height, 8, 0, colorRef, kCGImageAlphaNone);
//釋放內(nèi)存
CGColorSpaceRelease(colorRef);
if (context == nil) {
return nil;
}
//渲染圖片
//參數(shù)一:上下文對象
//參數(shù)二:渲染區(qū)域
//源圖片
CGContextDrawImage(context, CGRectMake(0, 0, width, height), image.CGImage);;
//將繪制的顏色空間轉(zhuǎn)成CGImage
CGImageRef grayImageRef = CGBitmapContextCreateImage(context);
//將c/c++圖片轉(zhuǎn)成iOS可顯示的圖片
UIImage *dstImage = [UIImage imageWithCGImage:grayImageRef];
//釋放內(nèi)存
CGContextRelease(context);
CGImageRelease(grayImageRef);
return dstImage;
}
第二種方式:OpenCV實(shí)現(xiàn)
openCV的集成超級簡單,到[openCV官網(wǎng)][]下載iOS對應(yīng)的框架贱鄙,然后導(dǎo)入到工程中就可以了
[openCV官網(wǎng)]: http://opencv.org功能實(shí)現(xiàn)
(1)由于OpenCV代碼時基于C++編寫的劝贸,因此,要在項(xiàng)目中運(yùn)行c++代碼逗宁,需要將文件名后綴由.m改成.mm映九,同時導(dǎo)入頭文件:<opencv2/opencv.hpp> 如下圖所示:
05FD25E1-906A-429A-AABE-8FC3C461939D.png
(2)代碼實(shí)現(xiàn)
//UIImage To cv::Mat:
- (cv::Mat)cvMatFromUIImage:(UIImage *)image
{
CGColorSpaceRef colorSpace = CGImageGetColorSpace(image.CGImage);
CGFloat cols = image.size.width;
CGFloat rows = image.size.height;
cv::Mat cvMat(rows, cols, CV_8UC4); // 8 bits per component, 4 channels (color channels + alpha)
CGContextRef contextRef = CGBitmapContextCreate(cvMat.data, // Pointer to data
cols, // Width of bitmap
rows, // Height of bitmap
8, // Bits per component
cvMat.step[0], // Bytes per row
colorSpace, // Colorspace
kCGImageAlphaNoneSkipLast |
kCGBitmapByteOrderDefault); // Bitmap info flags
CGContextDrawImage(contextRef, CGRectMake(0, 0, cols, rows), image.CGImage);
CGContextRelease(contextRef);
return cvMat;
}
//cv::Mat To UIImage:
-(UIImage *)UIImageFromCVMat:(cv::Mat)cvMat
{
NSData *data = [NSData dataWithBytes:cvMat.data length:cvMat.elemSize()*cvMat.total()];
CGColorSpaceRef colorSpace;
// if (cvMat.elemSize() == 1) {//可以根據(jù)這個決定使用哪種
// colorSpace = CGColorSpaceCreateDeviceGray();
// } else {
// colorSpace = CGColorSpaceCreateDeviceRGB();
// }
colorSpace = CGColorSpaceCreateDeviceGray();
CGDataProviderRef provider = CGDataProviderCreateWithCFData((__bridge CFDataRef)data);
// Creating CGImage from cv::Mat
CGImageRef imageRef = CGImageCreate(cvMat.cols, //width
cvMat.rows, //height
8, //bits per component
8 * cvMat.elemSize(), //bits per pixel
cvMat.step[0], //bytesPerRow
colorSpace, //colorspace
kCGImageAlphaNone|kCGBitmapByteOrderDefault,// bitmap info
provider, //CGDataProviderRef
NULL, //decode
false, //should interpolate
kCGRenderingIntentDefault //intent
);
// Getting UIImage from CGImage
UIImage *finalImage = [UIImage imageWithCGImage:imageRef];
CGImageRelease(imageRef);
CGDataProviderRelease(provider);
CGColorSpaceRelease(colorSpace);
return finalImage;
}
其中編譯運(yùn)行會報(bào)兩個錯誤,報(bào)錯是NO 只要把NO修改成 NO_EXPOSURE_COMPENSATOR 或 NO_EXPOSURE_COMPENSATOR =0 也行.
注: 使用過程中 opencv.hpp 并沒有引入擴(kuò)展模塊的頭文件,所以你要用到擴(kuò)展模塊的功能,還需要自己引入擴(kuò)展模塊的頭文件.
項(xiàng)目Demo托管在[GitHub][]上
[GitHub]:https://github.com/lizishiye/ImageToGrayDemo