[ios2] 關於CGBitmapContextCreate【轉】

 

 

CGContextRef CGBitmapContextCreate (
  void *data,
  size_t width,
  size_t height,
  size_t bitsPerComponent,
  size_t bytesPerRow,
  CGColorSpaceRef colorspace,
  CGBitmapInfo bitmapInfo
  );
 
 參數data指向繪圖操做被渲染的內存區域,這個內存區域大小應該爲(bytesPerRow*height)個字節。若是對繪製操做被渲染的內存區域並沒有特別的要求,那麼能夠傳遞NULL給參數date。
   參數width表明被渲染內存區域的寬度。
   參數height表明被渲染內存區域的高度。
   參數bitsPerComponent被渲染內存區域中組件在屏幕每一個像素點上須要使用的bits位,舉例來講,若是使用32-bit像素和RGB顏色格式,那麼RGBA顏色格式中每一個組件在屏幕每一個像素點上須要使用的bits位就爲32/4=8。
   參數bytesPerRow表明被渲染內存區域中每行所使用的bytes位數。
   參數colorspace用於被渲染內存區域的「位圖上下文」。
   參數bitmapInfo指定被渲染內存區域的「視圖」是否包含一個alpha(透視)通道以及每一個像素相應的位置,除此以外還能夠指定組件式是浮點值仍是整數值。
 
 
獲取圖片中單個點的顏色:
- (UIColor*) getPixelColorAtLocation:(CGPoint)point {
   UIColor* color = nil;
   CGImageRef inImage = self.image.CGImage;
    // Create off screen bitmap context to draw the image into. Format ARGB is 4 bytes for each pixel: Alpa, Red, Green, Blue
   CGContextRef cgctx = [self createARGBBitmapContextFromImage:inImage];
    if (cgctx == NULL) {  return nil;  }

   size_t w = CGImageGetWidth(inImage);
   size_t h = CGImageGetHeight(inImage);
   CGRect rect = {{ 0, 0},{w,h}}; 

    // Draw the image to the bitmap context. Once we draw, the memory 
    // allocated for the context for rendering will then contain the 
    // raw image data in the specified color space.
   CGContextDrawImage(cgctx, rect, inImage); 

    // Now we can get a pointer to the image data associated with the bitmap
    // context.
    unsigned  char* data = CGBitmapContextGetData (cgctx);
    if (data != NULL) {
        //offset locates the pixel in the data from x,y. 
        //4 for 4 bytes of data per pixel, w is width of one row of data.
        @try {
            int offset =  4*((w*round(point.y))+round(point.x));
           NSLog( @"offset: %d", offset);
            int alpha =  data[offset]; 
            int red = data[offset+ 1]; 
            int green = data[offset+ 2]; 
            int blue = data[offset+ 3]; 
           NSLog( @"offset: %i colors: RGB A %i %i %i  %i",offset,red,green,blue,alpha);
           color = [UIColor colorWithRed:(red/ 255.0f) green:(green/ 255.0f) blue:(blue/ 255.0f) alpha:(alpha/ 255.0f)];
       }
        @catch (NSException * e) {
           NSLog( @"%@",[e reason]);
       }
        @finally {
       }

   }
    // When finished, release the context
   CGContextRelease(cgctx); 
    // Free image data memory for the context
    if (data) { free(data); }

    return color;
}
 
建立取點圖片工做域:
- (CGContextRef) createARGBBitmapContextFromImage:(CGImageRef) inImage {

   CGContextRef    context = NULL;
   CGColorSpaceRef colorSpace;
    void *          bitmapData;
    int             bitmapByteCount;
    int             bitmapBytesPerRow;

    // Get image width, height. We'll use the entire image.
   size_t pixelsWide = CGImageGetWidth(inImage);
   size_t pixelsHigh = CGImageGetHeight(inImage);

    // Declare the number of bytes per row. Each pixel in the bitmap in this
    // example is represented by 4 bytes; 8 bits each of red, green, blue, and
    // alpha.
   bitmapBytesPerRow   = (pixelsWide *  4);
   bitmapByteCount     = (bitmapBytesPerRow * pixelsHigh);

    // Use the generic RGB color space.
   colorSpace = CGColorSpaceCreateDeviceRGB();

    if (colorSpace == NULL)
   {
       fprintf(stderr,  "Error allocating color space \n ");
        return NULL;
   }

    // Allocate memory for image data. This is the destination in memory
    // where any drawing to the bitmap context will be rendered.
   bitmapData = malloc( bitmapByteCount );
    if (bitmapData == NULL) 
   {
       fprintf (stderr,  "Memory not allocated!");
       CGColorSpaceRelease( colorSpace );
        return NULL;
   }

    // Create the bitmap context. We want pre-multiplied ARGB, 8-bits 
    // per component. Regardless of what the source image format is 
    // (CMYK, Grayscale, and so on) it will be converted over to the format
    // specified here by CGBitmapContextCreate.
   context = CGBitmapContextCreate (bitmapData,
                                                                    pixelsWide,
                                                                    pixelsHigh,
                                                                     8,       // bits per component
                                                                    bitmapBytesPerRow,
                                                                    colorSpace,
                                                                    kCGImageAlphaPremultipliedFirst);
    if (context == NULL)
   {
       free (bitmapData);
       fprintf (stderr,  "Context not created!");
   }
    // Make sure and release colorspace before returning
   CGColorSpaceRelease( colorSpace );
   
    return context;
}
 
 
 
- (UIColor *) colorOfPoint:(CGPoint)point
{
    unsigned char pixel[4] = {0};
    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
    CGContextRef context = CGBitmapContextCreate(pixel, 1, 1, 8, 4, colorSpace, kCGImageAlphaPremultipliedLast);

    CGContextTranslateCTM(context, -point.x, -point.y);

    [self.layer renderInContext:context];

    CGContextRelease(context);
    CGColorSpaceRelease(colorSpace);

    //NSLog(@"pixel: %d %d %d %d", pixel[0], pixel[1], pixel[2], pixel[3]);

    UIColor *color = [UIColor colorWithRed:pixel[0]/255.0 green:pixel[1]/255.0 blue:pixel[2]/255.0 alpha:pixel[3]/255.0];

    return color;
}


//圖片壓縮

iOS自帶的提供了一個API以下html

[html] view plain copy
  1. NSData *UIImageJPEGRepresentation(UIImage *image, CGFloat compressionQuality);    

在Iphone上有兩種讀取圖片數據的簡單方法: UIImageJPEGRepresentation和UIImagePNGRepresentation. UIImageJPEGRepresentation函數須要兩個參數:圖片的引用和壓縮係數.而UIImagePNGRepresentation只需 要圖片引用做爲參數.經過在實際使用過程當中,比較發現: UIImagePNGRepresentation(UIImage* image) 要比UIImageJPEGRepresentation(UIImage* image, 1.0) 返回的圖片數據量大不少.譬如,一樣是讀取攝像頭拍攝的一樣景色的照片, UIImagePNGRepresentation()返回的數據量大小爲199K ,而 UIImageJPEGRepresentation(UIImage* image, 1.0)返回的數據量大小隻爲140KB,比前者少了50多KB.若是對圖片的清晰度要求不高,還能夠經過設置 UIImageJPEGRepresentation函數的第二個參數,大幅度下降圖片數據量.譬如,剛纔拍攝的圖片, 經過調用UIImageJPEGRepresentation(UIImage* image, 1.0)讀取數據時,返回的數據大小爲140KB,但更改壓縮係數後,經過調用UIImageJPEGRepresentation(UIImage* image, 0.5)讀取數據時,返回的數據大小隻有11KB多,大大壓縮了圖片的數據量 ,並且從視角角度看,圖片的質量並無明顯的下降.所以,在讀取圖片數據內容時,建議優先使用UIImageJPEGRepresentation,並可 根據本身的實際使用場景,設置壓縮係數,進一步下降圖片數據量大小。less


 

[html] view plain copy
  1. UIImage *imageNew = [info objectForKey:@"UIImagePickerControllerOriginalImage"];  
  2. imageNew = [self imageWithImage:imageNew scaledToSize:CGSizeMake(100, 100)];  
  3. NSData *imageData = UIImageJPEGRepresentation(imageNew, 0.0001);  
  4.   
  5. m_selectImage = [UIImage imageWithData:imageData];  

.h具體codeide

 

[html] view plain copy
  1. #import <Foundation/Foundation.h>  
  2.   
  3. @interface UIImage (UIImageExt)  
  4.   
  5. - (UIImage *)scaleToSize:(UIImage *)img size:(CGSize)size;  
  6.   
  7. - (UIImage *)imageByScalingAndCroppingForSize:(CGSize)targetSize;  
  8. @end  
.m具體code

 

[html] view plain copy
    1. #import "UIImageExt.h"  
    2.   
    3.   
    4. @implementation UIImage (UIImageExt)  
    5.   
    6. - (UIImage *)scaleToSize:(UIImage *)img size:(CGSize)size{  
    7.     // 建立一個bitmap的context  
    8.     // 並把它設置成爲當前正在使用的context  
    9.     UIGraphicsBeginImageContext(size);  
    10.     // 繪製改變大小的圖片  
    11.     [img drawInRect:CGRectMake(0, 0, size.width, size.height)];  
    12.     // 從當前context中建立一個改變大小後的圖片  
    13.     UIImage* scaledImage = UIGraphicsGetImageFromCurrentImageContext();  
    14.     // 使當前的context出堆棧  
    15.     UIGraphicsEndImageContext();  
    16.     // 返回新的改變大小後的圖片  
    17.     return scaledImage;  
    18. }  
    19.   
    20.   
    21.   
    22. - (UIImage*)imageByScalingAndCroppingForSize:(CGSize)targetSize  
    23. {  
    24.     UIImage *sourceImage = self;  
    25.     UIImage *newImage = nil;  
    26.     CGSize imageSize = sourceImage.size;  
    27.     CGFloat width = imageSize.width;  
    28.     CGFloat height = imageSize.height;  
    29.     CGFloat targetWidth = targetSize.width;  
    30.     CGFloat targetHeight = targetSize.height;  
    31.     CGFloat scaleFactor = 0.0;  
    32.     CGFloat scaledWidth = targetWidth;  
    33.     CGFloat scaledHeight = targetHeight;  
    34.     CGPoint thumbnailPoint = CGPointMake(0.0,0.0);  
    35.       
    36.     if (CGSizeEqualToSize(imageSize, targetSize) == NO)  
    37.     {  
    38.         CGFloat widthFactor = targetWidth / width;  
    39.         CGFloat heightFactor = targetHeight / height;  
    40.           
    41.         if (widthFactor > heightFactor)  
    42.             scaleFactor = widthFactor; // scale to fit height  
    43.         else  
    44.             scaleFactor = heightFactor; // scale to fit width  
    45.         scaledWidth  = width * scaleFactor;  
    46.         scaledHeight = height * scaleFactor;  
    47.           
    48.         // center the image  
    49.         if (widthFactor > heightFactor)  
    50.         {  
    51.             thumbnailPoint.y = (targetHeight - scaledHeight) * 0.5;  
    52.         }  
    53.         else  
    54.             if (widthFactor < heightFactor)  
    55.             {  
    56.                 thumbnailPoint.x = (targetWidth - scaledWidth) * 0.5;  
    57.             }  
    58.     }  
    59.       
    60.     UIGraphicsBeginImageContext(targetSize); // this will crop  
    61.       
    62.     CGRect thumbnailRect = CGRectZero;  
    63.     thumbnailRect.origin = thumbnailPoint;  
    64.     thumbnailRect.size.width  = scaledWidth;  
    65.     thumbnailRect.size.height = scaledHeight;  
    66.       
    67.     [sourceImage drawInRect:thumbnailRect];  
    68.       
    69.     newImage = UIGraphicsGetImageFromCurrentImageContext();  
    70.     if(newImage == nil)  
    71.         NSLog(@"could not scale image");  
    72.       
    73.     //pop the context to get back to the default  
    74.     UIGraphicsEndImageContext();  
    75.     return newImage;  
    76. }  
    77.   
    78. @end  
相關文章
相關標籤/搜索