基於CoreGraphics的3D渲染方案

前言

今年的首要研究對象OpenGL基本研究的差很少了,突發奇想,想用CoreGraphics根據OpenGL的渲染流水線,渲染出3D圖形來。折騰了2天,寫出了個demo,效果以下。 html

其實這種經過2D渲染引擎渲染3D的技術方案在Flash時代我就據說了,可是當時對於3D技術不是很瞭解,並無作深刻研究。git

原理

在OpenGL中,每一個頂點經過Vertex Shader的處理,被處理成基本的繪製圖形,好比三角形,再經過Fragment Shader處理各個像素點的顏色。最終以透視的效果呈如今屏幕上(固然若是你用了正交矩陣就沒透視啦)。根據上面的原理,我在渲染方案中定義了兩種基本圖形,線和多邊形。線由2個頂點組成,多邊形由3到多個頂點組成。經過MVP矩陣對頂點進行變換,而後用CoreGraphics繪製頂點變換後的圖形。上圖中的正方體就是由6個四邊形組成,錐體則是4個三角形組成。github

基本繪製圖形

每一個基本繪製圖形都會實現下面的協議,material是圖形的樣式,包括顏色,線條粗細等,transform方法用來對組成圖形的頂點進行變換,並返回變換後的圖形。sortZRef會返回圖形在z方向排序的參考值,這個主要用來彌補CoreGraphics中沒法進行Depth Test的缺陷。不過目前的參考值計算方案仍是有問題的,僅僅是計算了全部頂點變換後z的平均值而已。算法

public protocol HT3DElement {
    var material: HT3DMaterial { get set }
    func transform(matrix: GLKMatrix4) -> Self
    func sortZRef() -> Float
}
複製代碼

下面咱們來看看圖形-線的實現。canvas

public var startPoint: GLKVector3
public var endPoint: GLKVector3
public var material: HT3DMaterial
public func transform(matrix: GLKMatrix4) -> HT3DLineElement {
    let newStartPoint = matrix * GLKVector4.init(vector3: startPoint, w: 1)
    let newEndPoint = matrix * GLKVector4.init(vector3: endPoint, w: 1)
    return HT3DLineElement.init(startPoint: (newStartPoint / newStartPoint.w).xyz, endPoint:
(newEndPoint
            / newEndPoint.w).xyz, material: material)
}
public func sortZRef() -> Float {
    return (startPoint.z + endPoint.z) / 2.0
}
複製代碼

在使用矩陣對頂點變換後,要從新把頂點變換到屏幕空間,因此將頂點除以它的w。xyz是自定義的擴展,獲取4維向量的前3維。swift

(newStartPoint / newStartPoint.w).xyz
複製代碼

sortZRef的實現正如上面所說,求z的平均值。app

幾何體Geometry

Geometry由一組基本圖形組成,好比一個正方體。Geometry提供modelMatrix對這一組基本圖形進行變換。它的存在讓咱們能夠爲每一組基本圖形提供不一樣的模型變換。同時它也肩負着管理圖形材質的任務。能夠經過它的setMaterialForElementsInRange方法爲每個基本圖形設置不一樣的樣式。優化

public var elements: [HT3DElement]?
public var materials: [HT3DMaterial] = []
public var modelMatrix: GLKMatrix4 = GLKMatrix4Identity
public var material: HT3DMaterial? {
    return materials.first
}
public init(elements: [HT3DElement], material: HT3DMaterial) {
    self.elements = elements
    self.materials.append(material)
    self.setMaterialForElementsInRange(range: Range<Int>.init(uncheckedBounds: (0,
elements.count - 1)), materialIndex: 0)
}

public func setMaterialForElementsInRange(range: Range<Int>, materialIndex: Int) {
    if let material = materials[cycle: materialIndex] {
        for index in range.lowerBound...range.upperBound {
            if let element = self.elements?[safe: index] {
                var ele = element
                ele.material = material
                self.elements?[index] = ele
            }
        }
    }
}
複製代碼

CoreGraphics渲染

爲了方便其餘渲染器的實現,我定義了渲染器的協議。渲染器的主要功能就是渲染基本圖形的集合。ui

protocol HT3DRenderContext {
    func render(elements: [HT3DElement])
}
複製代碼

爲了更加方便的調用渲染器代碼,爲該協議編寫了下面的擴展方法。spa

extension HT3DRenderContext {
    public func render(vpMatrix: GLKMatrix4, geometries: [HT3DGeometry]) {
        var elements: [HT3DElement] = []
        for geometry in geometries {
            let _ = geometry.elements?.map {
                elements.append($0.transform(matrix: vpMatrix * geometry.modelMatrix))
            }
        }
        elements.sort { $0.sortZRef() > $1.sortZRef() }
        render(elements: elements)
    }
}
複製代碼

這樣就能夠很方便的使用VP(ProjectionMatrix * ViewMatrix)和幾何體列表渲染了。在這個方法中,咱們將基本圖形的頂點使用VP和所屬幾何體的ModelMatrix進行變換,而後將這些基本圖形按照z軸排序,從而模擬DepthTest,最後調用渲染器的渲染方法。這個方法的具體實現取決於你用什麼樣的渲染器。本文天然採用了CoreGraphics渲染器。渲染器代碼在HT3DCGRenderContext.swift中。主要就是線和多邊形兩種基本圖形的渲染,很是簡單的代碼。

func renderElement(context: CGContext, element: HT3DLineElement) {
    context.setStrokeColor(UIColor.fromVec3(glkVector3: element.material.lineColor).cgColor)
    context.setLineWidth(element.material.lineWidth)
    context.beginPath()
    context.move(to: convertCoordFromGLToCG(element.startPoint.cgPoint()))
    context.addLine(to: convertCoordFromGLToCG(element.endPoint.cgPoint()))
    context.strokePath()
}

func renderElement(context: CGContext, element: HT3DPolygonElement) {
    context.setFillColor(UIColor.fromVec3(glkVector3: element.material.diffuse).cgColor)
    context.setStrokeColor(UIColor.fromVec3(glkVector3: element.material.lineColor).cgColor)
    context.setLineWidth(element.material.lineWidth)

    context.beginPath()

    element.points.first.map { context.move(to: convertCoordFromGLToCG($0.cgPoint())) }
    for index in 1..<element.points.count {
        context.addLine(to: convertCoordFromGLToCG(element.points[index].cgPoint()))
    }
    if element.isClosed {
        context.closePath()
    }

    context.drawPath(using: .fillStroke)
}

func convertCoordFromGLToCG(_ from: CGPoint) -> CGPoint {
    return (from * (1, -1) + 1.0) * 0.5 * (canvasSize.width, canvasSize.height)
}
複製代碼

其中convertCoordFromGLToCG用於將OpenGL座標轉換成CoreGraphics中的座標,若是你對OpenGL座標不瞭解,能夠去看個人OpenGL系列教程

若是你對本文的其餘關於OpenGL的概念也不理解,也能夠去教程裏面找找答案,畢竟本文中不少OpenGL的概念我只是一筆帶過。

整合

最後將CoreGraphics渲染器用Layer封裝起來,代碼在HT3DCGLayer中。比較簡單,有興趣的同窗能夠直接前往GitHub查看,若是以爲項目還湊合,別忘了Star一下哦~

目前這個方案還只是開始階段,還有不少優化和不足的地方有待改進。好比使用更加精準的z軸排序算法,提供基本光照模型等等。

相關文章
相關標籤/搜索