人工智能數學基礎----線性二階近似

人工智能數學基礎系列文章函數



通過第一篇導數的學習後,想必對於導數的知識也有所理解了,下面來看看「線性二階近似」。3d

線性近似

咋一看,這玩意又是啥,這裏先不說明,先給出一個公司:f(x) ≈ f(x0) + f'(x0)(x - x0)。函數f(x)近似於 f(x0) + f'(x0)(x - x0)的值。有沒看着似曾相識,沒錯就是咱們在導數這篇文章中提到的切線的斜率計算公式:y-y0 = m(x-x0),上面那個公式的證實以下:cdn

線性近似公司求導過程
近似值其實就是一個求極限的過程,固然咱們的前提是x0這點在f(x)上是有值的(即連續的,連續纔可導),最終:f'(x0) ≈ Δf(Δx) / Δx, 能夠獲得:f(x) ≈ f(x0) + f'(x0)(x - x0)

例子一: f(x) = lnx的近似

當在x0爲1的位置上,上圖的lnx對數函數的圖像上看x0爲1,那麼lnx就是0,斜率是1,當x值越趨近於1的時候,就函數f(x)=lnx的值就越趨近於0,也就有在x爲1的那條切線:y = x-1。f(x) = lnx ≈ x + 1。

例子二:

上圖計算能夠看出,當x->0的時候,近似公式爲:f(x) ≈ f(0) + f'(0)x,公式代入後,分別計算出: sinx ≈ x、cosx ≈ 一、e^x ≈ 1 + x。 這三個函數,從函數圖像上看也很容易獲得如上近似答案。

上圖看出,在x爲0的點,三種函數的切線函數,就是三個函數的近似

線性二階近似

二階顧名思義,既然線性近似是一階導,那麼二階近似就是要二階導,二階近似,會使函數近視值更加精確。blog


(未完待續。。。)



人工智能數學基礎系列文章get

相關文章
相關標籤/搜索