我能夠指導你,可是你必須按照我說的作。 -- 駭客帝國面試
在第10章「緩衝」中,咱們研究了CAMediaTimingFunction
,它是一個經過控制動畫緩衝來模擬物理效果例如加速或者減速來加強現實感的東西,那麼若是想更加真實地模擬物理交互或者實時根據用戶輸入修改動畫改怎麼辦呢?在這一章中,咱們將繼續探索一種可以容許咱們精確地控制一幀一幀展現的基於定時器的動畫。數據庫
動畫看起來是用來顯示一段連續的運動過程,但實際上當在固定位置上展現像素的時候並不能作到這一點。通常來講這種顯示都沒法作到連續的移動,能作的僅僅是足夠快地展現一系列靜態圖片,只是看起來像是作了運動。編程
咱們以前提到過iOS按照每秒60次刷新屏幕,而後CAAnimation
計算出須要展現的新的幀,而後在每次屏幕更新的時候同步繪製上去,CAAnimation
最機智的地方在於每次刷新須要展現的時候去計算插值和緩衝。數組
一個開發者,有一個學習的氛圍跟一個交流圈子特別重要,這是一個個人iOS交流羣:1012951431, 分享BAT,阿里面試題、面試經驗,討論技術, 你們一塊兒交流學習成長!但願幫助開發者少走彎路。緩存
在第10章中,咱們解決了如何自定義緩衝函數,而後根據須要展現的幀的數組來告訴CAKeyframeAnimation
的實例如何去繪製。全部的Core Animation實際上都是按照必定的序列來顯示這些幀,那麼咱們能夠本身作到這些麼?性能優化
NSTimer
實際上,咱們在第三章「圖層幾何學」中已經作過相似的東西,就是時鐘那個例子,咱們用了NSTimer
來對鐘錶的指針作定時動畫,一秒鐘更新一次,可是若是咱們把頻率調整成一秒鐘更新60次的話,原理是徹底相同的。服務器
咱們來試着用NSTimer
來修改第十章中彈性球的例子。因爲如今咱們在定時器啓動以後連續計算動畫幀,咱們須要在類中添加一些額外的屬性來存儲動畫的fromValue
,toValue
,duration
和當前的timeOffset
(見清單11.1)。網絡
清單11.1 使用NSTimer
實現彈性球動畫多線程
@interface ViewController () @property (nonatomic, weak) IBOutlet UIView *containerView; @property (nonatomic, strong) UIImageView *ballView; @property (nonatomic, strong) NSTimer *timer; @property (nonatomic, assign) NSTimeInterval duration; @property (nonatomic, assign) NSTimeInterval timeOffset; @property (nonatomic, strong) id fromValue; @property (nonatomic, strong) id toValue; @end @implementation ViewController - (void)viewDidLoad { [super viewDidLoad]; //add ball image view UIImage *ballImage = [UIImage imageNamed:@"Ball.png"]; self.ballView = [[UIImageView alloc] initWithImage:ballImage]; [self.containerView addSubview:self.ballView]; //animate [self animate]; } - (void)touchesBegan:(NSSet *)touches withEvent:(UIEvent *)event { //replay animation on tap [self animate]; } float interpolate(float from, float to, float time) { return (to - from) * time + from; } - (id)interpolateFromValue:(id)fromValue toValue:(id)toValue time:(float)time { if ([fromValue isKindOfClass:[NSValue class]]) { //get type const char *type = [(NSValue *)fromValue objCType]; if (strcmp(type, @encode(CGPoint)) == 0) { CGPoint from = [fromValue CGPointValue]; CGPoint to = [toValue CGPointValue]; CGPoint result = CGPointMake(interpolate(from.x, to.x, time), interpolate(from.y, to.y, time)); return [NSValue valueWithCGPoint:result]; } } //provide safe default implementation return (time < 0.5)? fromValue: toValue; } float bounceEaseOut(float t) { if (t < 4/11.0) { return (121 * t * t)/16.0; } else if (t < 8/11.0) { return (363/40.0 * t * t) - (99/10.0 * t) + 17/5.0; } else if (t < 9/10.0) { return (4356/361.0 * t * t) - (35442/1805.0 * t) + 16061/1805.0; } return (54/5.0 * t * t) - (513/25.0 * t) + 268/25.0; } - (void)animate { //reset ball to top of screen self.ballView.center = CGPointMake(150, 32); //configure the animation self.duration = 1.0; self.timeOffset = 0.0; self.fromValue = [NSValue valueWithCGPoint:CGPointMake(150, 32)]; self.toValue = [NSValue valueWithCGPoint:CGPointMake(150, 268)]; //stop the timer if it's already running [self.timer invalidate]; //start the timer self.timer = [NSTimer scheduledTimerWithTimeInterval:1/60.0 target:self selector:@selector(step:) userInfo:nil repeats:YES]; } - (void)step:(NSTimer *)step { //update time offset self.timeOffset = MIN(self.timeOffset + 1/60.0, self.duration); //get normalized time offset (in range 0 - 1) float time = self.timeOffset / self.duration; //apply easing time = bounceEaseOut(time); //interpolate position id position = [self interpolateFromValue:self.fromValue toValue:self.toValue time:time]; //move ball view to new position self.ballView.center = [position CGPointValue]; //stop the timer if we've reached the end of the animation if (self.timeOffset >= self.duration) { [self.timer invalidate]; self.timer = nil; } } @end
很贊,並且和基於關鍵幀例子的代碼同樣不少,可是若是想一次性在屏幕上對不少東西作動畫,很明顯就會有不少問題。app
NSTimer
並非最佳方案,爲了理解這點,咱們須要確切地知道NSTimer是如何工做的。iOS上的每一個線程都管理了一個NSRunloop,字面上看就是經過一個循環來完成一些任務列表。可是對主線程,這些任務包含以下幾項:
處理觸摸事件
發送和接受網絡數據包
執行使用gcd的代碼
處理計時器行爲
屏幕重繪
當你設置一個NSTimer
,他會被插入到當前任務列表中,而後直到指定時間過去以後纔會被執行。可是什麼時候啓動定時器並無一個時間上限,並且它只會在列表中上一個任務完成以後開始執行。這一般會致使有幾毫秒的延遲,可是若是上一個任務過了好久才完成就會致使延遲很長一段時間。
屏幕重繪的頻率是一秒鐘六十次,可是和定時器行爲同樣,若是列表中上一個執行了很長時間,它也會延遲。這些延遲都是一個隨機值,因而就不能保證定時器精準地一秒鐘執行六十次。有時候發生在屏幕重繪以後,這就會使得更新屏幕會有個延遲,看起來就是動畫卡殼了。有時候定時器會在屏幕更新的時候執行兩次,因而動畫看起來就跳動了。
咱們能夠經過一些途徑來優化:
咱們能夠用CADisplayLink
讓更新頻率嚴格控制在每次屏幕刷新以後。
基於真實幀的持續時間而不是假設的更新頻率來作動畫。
調整動畫計時器的run loop
模式,這樣就不會被別的事件干擾。
CADisplayLink
是CoreAnimation提供的另外一個相似於NSTimer
的類,它老是在屏幕完成一次更新以前啓動,它的接口設計的和NSTimer
很相似,因此它實際上就是一個內置實現的替代,可是和timeInterval
以秒爲單位不一樣,CADisplayLink
有一個整型的frameInterval
屬性,指定了間隔多少幀以後才執行。默認值是1,意味着每次屏幕更新以前都會執行一次。可是若是動畫的代碼執行起來超過了六十分之一秒,你能夠指定frameInterval
爲2,就是說動畫每隔一幀執行一次(一秒鐘30幀)或者3,也就是一秒鐘20次,等等。
用CADisplayLink
而不是NSTimer
,會保證幀率足夠連續,使得動畫看起來更加平滑,但即便CADisplayLink
也不能保證每一幀都按計劃執行,一些失去控制的離散的任務或者事件(例如資源緊張的後臺程序)可能會致使動畫偶爾地丟幀。當使用NSTimer
的時候,一旦有機會計時器就會開啓,可是CADisplayLink
卻不同:若是它丟失了幀,就會直接忽略它們,而後在下一次更新的時候接着運行。
不管是使用NSTimer
仍是CADisplayLink
,咱們仍然須要處理一幀的時間超出了預期的六十分之一秒。因爲咱們不可以計算出一幀真實的持續時間,因此須要手動測量。咱們能夠在每幀開始刷新的時候用CACurrentMediaTime()
記錄當前時間,而後和上一幀記錄的時間去比較。
經過比較這些時間,咱們就能夠獲得真實的每幀持續的時間,而後代替硬編碼的六十分之一秒。咱們來更新一下上個例子(見清單11.2)。
清單11.2 經過測量沒幀持續的時間來使得動畫更加平滑
@interface ViewController () @property (nonatomic, weak) IBOutlet UIView *containerView; @property (nonatomic, strong) UIImageView *ballView; @property (nonatomic, strong) CADisplayLink *timer; @property (nonatomic, assign) CFTimeInterval duration; @property (nonatomic, assign) CFTimeInterval timeOffset; @property (nonatomic, assign) CFTimeInterval lastStep; @property (nonatomic, strong) id fromValue; @property (nonatomic, strong) id toValue; @end @implementation ViewController ... - (void)animate { //reset ball to top of screen self.ballView.center = CGPointMake(150, 32); //configure the animation self.duration = 1.0; self.timeOffset = 0.0; self.fromValue = [NSValue valueWithCGPoint:CGPointMake(150, 32)]; self.toValue = [NSValue valueWithCGPoint:CGPointMake(150, 268)]; //stop the timer if it's already running [self.timer invalidate]; //start the timer self.lastStep = CACurrentMediaTime(); self.timer = [CADisplayLink displayLinkWithTarget:self selector:@selector(step:)]; [self.timer addToRunLoop:[NSRunLoop mainRunLoop] forMode:NSDefaultRunLoopMode]; } - (void)step:(CADisplayLink *)timer { //calculate time delta CFTimeInterval thisStep = CACurrentMediaTime(); CFTimeInterval stepDuration = thisStep - self.lastStep; self.lastStep = thisStep; //update time offset self.timeOffset = MIN(self.timeOffset + stepDuration, self.duration); //get normalized time offset (in range 0 - 1) float time = self.timeOffset / self.duration; //apply easing time = bounceEaseOut(time); //interpolate position id position = [self interpolateFromValue:self.fromValue toValue:self.toValue time:time]; //move ball view to new position self.ballView.center = [position CGPointValue]; //stop the timer if we've reached the end of the animation if (self.timeOffset >= self.duration) { [self.timer invalidate]; self.timer = nil; } } @end
注意到當建立CADisplayLink
的時候,咱們須要指定一個run loop
和run loop mode
,對於run loop來講,咱們就使用了主線程的run loop,由於任何用戶界面的更新都須要在主線程執行,可是模式的選擇就並不那麼清楚了,每一個添加到run loop的任務都有一個指定了優先級的模式,爲了保證用戶界面保持平滑,iOS會提供和用戶界面相關任務的優先級,並且當UI很活躍的時候的確會暫停一些別的任務。
一個典型的例子就是當是用UIScrollview
滑動的時候,重繪滾動視圖的內容會比別的任務優先級更高,因此標準的NSTimer
和網絡請求就不會啓動,一些常見的run loop模式以下:
NSDefaultRunLoopMode
- 標準優先級
NSRunLoopCommonModes
- 高優先級
UITrackingRunLoopMode
- 用於UIScrollView和別的控件的動畫
在咱們的例子中,咱們是用了NSDefaultRunLoopMode
,可是不能保證動畫平滑的運行,因此就能夠用NSRunLoopCommonModes
來替代。可是要當心,由於若是動畫在一個高幀率狀況下運行,你會發現一些別的相似於定時器的任務或者相似於滑動的其餘iOS動畫會暫停,直到動畫結束。
一樣能夠同時對CADisplayLink
指定多個run loop模式,因而咱們能夠同時加入NSDefaultRunLoopMode
和UITrackingRunLoopMode
來保證它不會被滑動打斷,也不會被其餘UIKit控件動畫影響性能,像這樣:
self.timer = [CADisplayLink displayLinkWithTarget:self selector:@selector(step:)];
[self.timer addToRunLoop:[NSRunLoop mainRunLoop] forMode:NSDefaultRunLoopMode];
[self.timer addToRunLoop:[NSRunLoop mainRunLoop] forMode:UITrackingRunLoopMode];
和CADisplayLink
相似,NSTimer
一樣也可使用不一樣的run loop模式配置,經過別的函數,而不是+scheduledTimerWithTimeInterval:
構造器
self.timer = [NSTimer timerWithTimeInterval:1/60.0 target:self selector:@selector(step:) userInfo:nil repeats:YES]; [[NSRunLoop mainRunLoop] addTimer:self.timer forMode:NSRunLoopCommonModes];
即便使用了基於定時器的動畫來複制第10章中關鍵幀的行爲,但仍是會有一些本質上的區別:在關鍵幀的實現中,咱們提早計算了全部幀,可是在新的解決方案中,咱們實際上實在按須要在計算。意義在於咱們能夠根據用戶輸入實時修改動畫的邏輯,或者和別的實時動畫系統例如物理引擎進行整合。
咱們來基於物理學建立一個真實的重力模擬效果來取代當前基於緩衝的彈性動畫,但即便模擬2D的物理效果就已近極其複雜了,因此就不要嘗試去實現它了,直接用開源的物理引擎庫好了。
咱們將要使用的物理引擎叫作Chipmunk。另外的2D物理引擎也一樣能夠(例如Box2D),可是Chipmunk使用純C寫的,而不是C++,好處在於更容易和Objective-C項目整合。Chipmunk有不少版本,包括一個和Objective-C綁定的「indie」版本。C語言的版本是免費的,因此咱們就用它好了。在本書寫做的時候6.1.4是最新的版本;你能夠從http://chipmunk-physics.net下載它。
Chipmunk完整的物理引擎至關巨大複雜,可是咱們只會使用以下幾個類:
cpSpace
- 這是全部的物理結構體的容器。它有一個大小和一個可選的重力矢量
cpBody
- 它是一個固態無彈力的剛體。它有一個座標,以及其餘物理屬性,例如質量,運動和摩擦係數等等。
cpShape
- 它是一個抽象的幾何形狀,用來檢測碰撞。能夠給結構體添加一個多邊形,並且cpShape
有各類子類來表明不一樣形狀的類型。
在例子中,咱們來對一個木箱建模,而後在重力的影響下下落。咱們來建立一個Crate
類,包含屏幕上的可視效果(一個UIImageView
)和一個物理模型(一個cpBody
和一個cpPolyShape
,一個cpShape
的多邊形子類來表明矩形木箱)。
用C版本的Chipmunk
會帶來一些挑戰,由於它如今並不支持Objective-C的引用計數模型,因此咱們須要準確的建立和釋放對象。爲了簡化,咱們把cpShape
和cpBody
的生命週期和Crate
類進行綁定,而後在木箱的-init
方法中建立,在-dealloc
中釋放。木箱物理屬性的配置很複雜,因此閱讀了Chipmunk
文檔會頗有意義。
視圖控制器用來管理cpSpace
,還有和以前同樣的計時器邏輯。在每一步中,咱們更新cpSpace
(用來進行物理計算和全部結構體的從新擺放)而後迭代對象,而後再更新咱們的木箱視圖的位置來匹配木箱的模型(在這裏,實際上只有一個結構體,可是以後咱們將要添加更多)。
Chipmunk使用了一個和UIKit顛倒的座標系(Y軸向上爲正方向)。爲了使得物理模型和視圖之間的同步更簡單,咱們須要經過使用geometryFlipped
屬性翻轉容器視圖的集合座標(第3章中有提到),因而模型和視圖都共享一個相同的座標系。
具體的代碼見清單11.3。注意到咱們並無在任何地方釋放cpSpace
對象。在這個例子中,內存空間將會在整個app的生命週期中一直存在,因此這沒有問題。可是在現實世界的場景中,咱們須要像建立木箱結構體和形狀同樣去管理咱們的空間,封裝在標準的Cocoa對象中,而後來管理Chipmunk對象的生命週期。圖11.1展現了掉落的木箱。
清單11.3 使用物理學來對掉落的木箱建模
#import "ViewController.h" #import #import "chipmunk.h" @interface Crate : UIImageView @property (nonatomic, assign) cpBody *body; @property (nonatomic, assign) cpShape *shape; @end @implementation Crate #define MASS 100 - (id)initWithFrame:(CGRect)frame { if ((self = [super initWithFrame:frame])) { //set image self.image = [UIImage imageNamed:@"Crate.png"]; self.contentMode = UIViewContentModeScaleAspectFill; //create the body self.body = cpBodyNew(MASS, cpMomentForBox(MASS, frame.size.width, frame.size.height)); //create the shape cpVect corners[] = { cpv(0, 0), cpv(0, frame.size.height), cpv(frame.size.width, frame.size.height), cpv(frame.size.width, 0), }; self.shape = cpPolyShapeNew(self.body, 4, corners, cpv(-frame.size.width/2, -frame.size.height/2)); //set shape friction & elasticity cpShapeSetFriction(self.shape, 0.5); cpShapeSetElasticity(self.shape, 0.8); //link the crate to the shape //so we can refer to crate from callback later on self.shape->data = (__bridge void *)self; //set the body position to match view cpBodySetPos(self.body, cpv(frame.origin.x + frame.size.width/2, 300 - frame.origin.y - frame.size.height/2)); } return self; } - (void)dealloc { //release shape and body cpShapeFree(_shape); cpBodyFree(_body); } @end @interface ViewController () @property (nonatomic, weak) IBOutlet UIView *containerView; @property (nonatomic, assign) cpSpace *space; @property (nonatomic, strong) CADisplayLink *timer; @property (nonatomic, assign) CFTimeInterval lastStep; @end @implementation ViewController #define GRAVITY 1000 - (void)viewDidLoad { //invert view coordinate system to match physics self.containerView.layer.geometryFlipped = YES; //set up physics space self.space = cpSpaceNew(); cpSpaceSetGravity(self.space, cpv(0, -GRAVITY)); //add a crate Crate *crate = [[Crate alloc] initWithFrame:CGRectMake(100, 0, 100, 100)]; [self.containerView addSubview:crate]; cpSpaceAddBody(self.space, crate.body); cpSpaceAddShape(self.space, crate.shape); //start the timer self.lastStep = CACurrentMediaTime(); self.timer = [CADisplayLink displayLinkWithTarget:self selector:@selector(step:)]; [self.timer addToRunLoop:[NSRunLoop mainRunLoop] forMode:NSDefaultRunLoopMode]; } void updateShape(cpShape *shape, void *unused) { //get the crate object associated with the shape Crate *crate = (__bridge Crate *)shape->data; //update crate view position and angle to match physics shape cpBody *body = shape->body; crate.center = cpBodyGetPos(body); crate.transform = CGAffineTransformMakeRotation(cpBodyGetAngle(body)); } - (void)step:(CADisplayLink *)timer { //calculate step duration CFTimeInterval thisStep = CACurrentMediaTime(); CFTimeInterval stepDuration = thisStep - self.lastStep; self.lastStep = thisStep; //update physics cpSpaceStep(self.space, stepDuration); //update all the shapes cpSpaceEachShape(self.space, &updateShape, NULL); } @end
圖11.1 真實引力場下的木箱交互
對於實現動畫的緩衝效果來講,計算每幀持續的時間是一個很好的解決方案,可是對模擬物理效果並不理想。經過一個可變的時間步長來實現有着兩個弊端:
若是時間步長不是固定的,精確的值,物理效果的模擬也就隨之不肯定。這意味着即便是傳入相同的輸入值,也可能在不一樣場合下有着不一樣的效果。有時候沒多大影響,可是在基於物理引擎的遊戲下,玩家就會因爲相同的操做行爲致使不一樣的結果而感到困惑。一樣也會讓測試變得麻煩。
因爲性能故常形成的丟幀或者像電話呼入的中斷均可能會形成不正確的結果。考慮一個像子彈那樣快速移動物體,每一幀的更新都須要移動子彈,檢測碰撞。若是兩幀之間的時間加長了,子彈就會在這一步移動更遠的距離,穿過圍牆或者是別的障礙,這樣就丟失了碰撞。
咱們想獲得的理想的效果就是經過固定的時間步長來計算物理效果,可是在屏幕發生重繪的時候仍然可以同步更新視圖(可能會因爲在咱們控制範圍以外形成不可預知的效果)。
幸運的是,因爲咱們的模型(在這個例子中就是Chipmunk的cpSpace
中的cpBody
)被視圖(就是屏幕上表明木箱的UIView
對象)分離,因而就很簡單了。咱們只須要根據屏幕刷新的時間跟蹤時間步長,而後根據每幀去計算一個或者多個模擬出來的效果。
咱們能夠經過一個簡單的循環來實現。經過每次CADisplayLink
的啓動來通知屏幕將要刷新,而後記錄下當前的CACurrentMediaTime()
。咱們須要在一個小增量中提早重複物理模擬(這裏用120分之一秒)直到遇上顯示的時間。而後更新咱們的視圖,在屏幕刷新的時候匹配當前物理結構體的顯示位置。
清單11.5展現了固定時間步長版本的代碼
清單11.5 固定時間步長的木箱模擬
#define SIMULATION_STEP (1/120.0) - (void)step:(CADisplayLink *)timer { //calculate frame step duration CFTimeInterval frameTime = CACurrentMediaTime(); //update simulation while (self.lastStep < frameTime) { cpSpaceStep(self.space, SIMULATION_STEP); self.lastStep += SIMULATION_STEP; }  //update all the shapes cpSpaceEachShape(self.space, &updateShape, NULL); }
當使用固定的模擬時間步長時候,有一件事情必定要注意,就是用來計算物理效果的現實世界的時間並不會加速模擬時間步長。在咱們的例子中,咱們隨意選擇了120分之一秒來模擬物理效果。Chipmunk很快,咱們的例子也很簡單,因此cpSpaceStep()
會完成的很好,不會延遲幀的更新。
可是若是場景很複雜,好比有上百個物體之間的交互,物理計算就會很複雜,cpSpaceStep()
的計算也可能會超出1/120秒。咱們沒有測量出物理步長的時間,由於咱們假設了相對於幀刷新來講並不重要,可是若是模擬步長更久的話,就會延遲幀率。
若是幀刷新的時間延遲的話會變得很糟糕,咱們的模擬須要執行更多的次數來同步真實的時間。這些額外的步驟就會繼續延遲幀的更新,等等。這就是所謂的死亡螺旋,由於最後的結果就是幀率變得愈來愈慢,直到最後應用程序卡死了。
咱們能夠經過添加一些代碼在設備上來對物理步驟計算真實世界的時間,而後自動調整固定時間步長,可是實際上它不可行。其實只要保證你給容錯留下足夠的邊長,而後在指望支持的最慢的設備上進行測試就能夠了。若是物理計算超過了模擬時間的50%,就須要考慮增長模擬時間步長(或者簡化場景)。若是模擬時間步長增長到超過1/60秒(一個完整的屏幕更新時間),你就須要減小動畫幀率到一秒30幀或者增長CADisplayLink
的frameInterval
來保證不會隨機丟幀,否則你的動畫將會看起來不平滑。
代碼應該運行的儘可能快,而不是更快 - 理查德
在第一和第二部分,咱們瞭解了Core Animation提供的關於繪製和動畫的一些特性。Core Animation功能和性能都很是強大,但若是你對背後的原理不清楚的話也會下降效率。讓它達到最優的狀態是一門藝術。在這章中,咱們將探究一些動畫運行慢的緣由,以及如何去修復這些問題。
關於繪圖和動畫有兩種處理的方式:CPU(中央處理器)和GPU(圖形處理器)。在現代iOS設備中,都有能夠運行不一樣軟件的可編程芯片,可是因爲歷史緣由,咱們能夠說CPU所作的工做都在軟件層面,而GPU在硬件層面。
總的來講,咱們能夠用軟件(使用CPU)作任何事情,可是對於圖像處理,一般用硬件會更快,由於GPU使用圖像對高度並行浮點運算作了優化。因爲某些緣由,咱們想盡量把屏幕渲染的工做交給硬件去處理。問題在於GPU並無無限制處理性能,並且一旦資源用完的話,性能就會開始降低了(即便CPU並無徹底佔用)
大多數動畫性能優化都是關於智能利用GPU和CPU,使得它們都不會超出負荷。因而咱們首先須要知道Core Animation是如何在這兩個處理器之間分配工做的。
Core Animation處在iOS的核心地位:應用內和應用間都會用到它。一個簡單的動畫可能同步顯示多個app的內容,例如當在iPad上多個程序之間使用手勢切換,會使得多個程序同時顯示在屏幕上。在一個特定的應用中用代碼實現它是沒有意義的,由於在iOS中不可能實現這種效果(App都是被沙箱管理,不能訪問別的視圖)。
動畫和屏幕上組合的圖層實際上被一個單獨的進程管理,而不是你的應用程序。這個進程就是所謂的渲染服務。在iOS5和以前的版本是SpringBoard進程(同時管理着iOS的主屏)。在iOS6以後的版本中叫作BackBoard
。
當運行一段動畫時候,這個過程會被四個分離的階段被打破:
佈局 - 這是準備你的視圖/圖層的層級關係,以及設置圖層屬性(位置,背景色,邊框等等)的階段。
顯示 - 這是圖層的寄宿圖片被繪製的階段。繪製有可能涉及你的-drawRect:
和-drawLayer:inContext:
方法的調用路徑。
準備 - 這是Core Animation準備發送動畫數據到渲染服務的階段。這同時也是Core Animation將要執行一些別的事務例如解碼動畫過程當中將要顯示的圖片的時間點。
提交 - 這是最後的階段,Core Animation打包全部圖層和動畫屬性,而後經過IPC(內部處理通訊)發送到渲染服務進行顯示。
可是這些僅僅階段僅僅發生在你的應用程序以內,在動畫在屏幕上顯示以前仍然有更多的工做。一旦打包的圖層和動畫到達渲染服務進程,他們會被反序列化來造成另外一個叫作渲染樹的圖層樹(在第一章「圖層樹」中提到過)。使用這個樹狀結構,渲染服務對動畫的每一幀作出以下工做:
對全部的圖層屬性計算中間值,設置OpenGL幾何形狀(紋理化的三角形)來執行渲染
在屏幕上渲染可見的三角形
因此一共有六個階段;最後兩個階段在動畫過程當中不停地重複。前五個階段都在軟件層面處理(經過CPU),只有最後一個被GPU執行。並且,你真正只能控制前兩個階段:佈局和顯示。Core Animation框架在內部處理剩下的事務,你也控制不了它。
這並非個問題,由於在佈局和顯示階段,你能夠決定哪些由CPU執行,哪些交給GPU去作。那麼改如何判斷呢?
GPU爲一個具體的任務作了優化:它用來採集圖片和形狀(三角形),運行變換,應用紋理和混合而後把它們輸送到屏幕上。現代iOS設備上可編程的GPU在這些操做的執行上又很大的靈活性,可是Core Animation並無暴露出直接的接口。除非你想繞開Core Animation並編寫你本身的OpenGL着色器,從根本上解決硬件加速的問題,那麼剩下的全部都仍是須要在CPU的軟件層面上完成。
寬泛的說,大多數CALayer
的屬性都是用GPU來繪製。好比若是你設置圖層背景或者邊框的顏色,那麼這些能夠經過着色的三角板實時繪製出來。若是對一個contents
屬性設置一張圖片,而後裁剪它 - 它就會被紋理的三角形繪製出來,而不須要軟件層面作任何繪製。
可是有一些事情會下降(基於GPU)圖層繪製,好比:
太多的幾何結構 - 這發生在須要太多的三角板來作變換,以應對處理器的柵格化的時候。現代iOS設備的圖形芯片能夠處理幾百萬個三角板,因此在Core Animation中幾何結構並非GPU的瓶頸所在。但因爲圖層在顯示以前經過IPC發送到渲染服務器的時候(圖層其實是由不少小物體組成的特別重量級的對象),太多的圖層就會引發CPU的瓶頸。這就限制了一次展現的圖層個數(見本章後續「CPU相關操做」)。
重繪 - 主要由重疊的半透明圖層引發。GPU的填充比率(用顏色填充像素的比率)是有限的,因此須要避免重繪(每一幀用相同的像素填充屢次)的發生。在現代iOS設備上,GPU都會應對重繪;即便是iPhone 3GS均可以處理高達2.5的重繪比率,並任然保持60幀率的渲染(這意味着你能夠繪製一個半的整屏的冗餘信息,而不影響性能),而且新設備能夠處理更多。
離屏繪製 - 這發生在當不能直接在屏幕上繪製,而且必須繪製到離屏圖片的上下文中的時候。離屏繪製發生在基於CPU或者是GPU的渲染,或者是爲離屏圖片分配額外內存,以及切換繪製上下文,這些都會下降GPU性能。對於特定圖層效果的使用,好比圓角,圖層遮罩,陰影或者是圖層光柵化都會強制Core Animation提早渲染圖層的離屏繪製。但這不意味着你須要避免使用這些效果,只是要明白這會帶來性能的負面影響。
過大的圖片 - 若是視圖繪製超出GPU支持的2048x2048或者4096x4096尺寸的紋理,就必需要用CPU在圖層每次顯示以前對圖片預處理,一樣也會下降性能。
大多數工做在Core Animation的CPU都發生在動畫開始以前。這意味着它不會影響到幀率,因此很好,可是他會延遲動畫開始的時間,讓你的界面看起來會比較遲鈍。
如下CPU的操做都會延遲動畫的開始時間:
佈局計算 - 若是你的視圖層級過於複雜,當視圖呈現或者修改的時候,計算圖層幀率就會消耗一部分時間。特別是使用iOS6的自動佈局機制尤其明顯,它應該是比老版的自動調整邏輯增強了CPU的工做。
視圖懶加載 - iOS只會當視圖控制器的視圖顯示到屏幕上時纔會加載它。這對內存使用和程序啓動時間頗有好處,可是當呈現到屏幕上以前,按下按鈕致使的許多工做都會不能被及時響應。好比控制器從數據庫中獲取數據,或者視圖從一個nib文件中加載,或者涉及IO的圖片顯示(見後續「IO相關操做」),都會比CPU正常操做慢得多。
Core Graphics繪製 - 若是對視圖實現了-drawRect:
方法,或者CALayerDelegate
的-drawLayer:inContext:
方法,那麼在繪製任何東西以前都會產生一個巨大的性能開銷。爲了支持對圖層內容的任意繪製,Core Animation必須建立一個內存中等大小的寄宿圖片。而後一旦繪製結束以後,必須把圖片數據經過IPC傳到渲染服務器。在此基礎上,Core Graphics繪製就會變得十分緩慢,因此在一個對性能十分挑剔的場景下這樣作十分很差。
解壓圖片 - PNG或者JPEG壓縮以後的圖片文件會比同質量的位圖小得多。可是在圖片繪製到屏幕上以前,必須把它擴展成完整的未解壓的尺寸(一般等同於圖片寬 x 長 x 4個字節)。爲了節省內存,iOS一般直到真正繪製的時候纔去解碼圖片(14章「圖片IO」會更詳細討論)。根據你加載圖片的方式,第一次對圖層內容賦值的時候(直接或者間接使用UIImageView
)或者把它繪製到Core Graphics中,都須要對它解壓,這樣的話,對於一個較大的圖片,都會佔用必定的時間。
當圖層被成功打包,發送到渲染服務器以後,CPU仍然要作以下工做:爲了顯示屏幕上的圖層,Core Animation必須對渲染樹種的每一個可見圖層經過OpenGL循環轉換成紋理三角板。因爲GPU並不知曉Core Animation圖層的任何結構,因此必需要由CPU作這些事情。這裏CPU涉及的工做和圖層個數成正比,因此若是在你的層級關係中有太多的圖層,就會致使CPU沒一幀的渲染,即便這些事情不是你的應用程序可控的。
還有一項沒涉及的就是IO相關工做。上下文中的IO(輸入/輸出)指的是例如閃存或者網絡接口的硬件訪問。一些動畫可能須要從山村(甚至是遠程URL)來加載。一個典型的例子就是兩個視圖控制器之間的過渡效果,這就須要從一個nib文件或者是它的內容中懶加載,或者一個旋轉的圖片,可能在內存中尺寸太大,須要動態滾動來加載。
IO比內存訪問更慢,因此若是動畫涉及到IO,就是一個大問題。總的來講,這就須要使用聰敏但尷尬的技術,也就是多線程,緩存和投機加載(提早加載當前不須要的資源,可是以後可能須要用到)。這些技術將會在第14章中討論。
因而如今你知道有哪些點可能會影響動畫性能,那該如何修復呢?好吧,其實不須要。有不少種詭計來優化動畫,但若是盲目使用的話,可能會形成更多性能上的問題,而不是修復。
如何正確的測量而不是猜想這點很重要。根據性能相關的知識寫出代碼不一樣於倉促的優化。前者很好,後者實際上就是在浪費時間。
那該如何測量呢?第一步就是確保在真實環境下測試你的程序。
當你開始作一些性能方面的工做時,必定要在真機上測試,而不是模擬器。模擬器雖然是加快開發效率的一把利器,但它不能提供準確的真機性能參數。
模擬器運行在你的Mac上,然而Mac上的CPU每每比iOS設備要快。相反,Mac上的GPU和iOS設備的徹底不同,模擬器不得已要在軟件層面(CPU)模擬設備的GPU,這意味着GPU相關的操做在模擬器上運行的更慢,尤爲是使用CAEAGLLayer
來寫一些OpenGL的代碼時候。
這就是說在模擬器上的測試出的性能會高度失真。若是動畫在模擬器上運行流暢,可能在真機上十分糟糕。若是在模擬器上運行的很卡,也可能在真機上很平滑。你沒法肯定。
另外一件重要的事情就是性能測試必定要用發佈配置,而不是調試模式。由於當用發佈環境打包的時候,編譯器會引入一系列提升性能的優化,例如去掉調試符號或者移除並從新組織代碼。你也能夠本身作到這些,例如在發佈環境禁用NSLog語句。你只關心發佈性能,那纔是你須要測試的點。
最後,最好在你支持的設備中性能最差的設備上測試:若是基於iOS6開發,這意味着最好在iPhone 3GS或者iPad2上測試。若是可能的話,測試不一樣的設備和iOS版本,由於蘋果在不一樣的iOS版本和設備中作了一些改變,這也可能影響到一些性能。例如iPad3明顯要在動畫渲染上比iPad2慢不少,由於渲染4倍多的像素點(爲了支持視網膜顯示)。
爲了作到動畫的平滑,你須要以60FPS(幀每秒)的速度運行,以同步屏幕刷新速率。經過基於NSTimer
或者CADisplayLink
的動畫你能夠下降到30FPS,並且效果還不錯,可是沒辦法經過Core Animation作到這點。若是不保持60FPS的速率,就可能隨機丟幀,影響到體驗。
你能夠在使用的過程當中明顯感到有沒有丟幀,但沒辦法經過肉眼來獲得具體的數據,也無法知道你的作法有沒有真的提升性能。你須要的是一系列精確的數據。
你能夠在程序中用CADisplayLink
來測量幀率(就像11章「基於定時器的動畫」中那樣),而後在屏幕上顯示出來,但應用內的FPS顯示並不可以徹底真實測量出Core Animation性能,由於它僅僅測出應用內的幀率。咱們知道不少動畫都在應用以外發生(在渲染服務器進程中處理),但同時應用內FPS計數的確能夠對某些性能問題提供參考,一旦找出一個問題的地方,你就須要獲得更多精確詳細的數據來定位到問題所在。蘋果提供了一個強大的Instruments工具集來幫咱們作到這些。
在這章中,咱們學習了Core Animation是如何渲染,以及咱們可能出現的瓶頸所在。你一樣學習瞭如何使用Instruments來檢測和修復性能問題。
在下三章中,咱們將對每一個普通程序的性能陷阱進行詳細討論,而後學習如何修復。