Javascript中數字存儲使用的是IEEE754 64位雙精度浮點數spa
在計算機中存儲爲64位
1 11 52
1: 符號位 0正數 1負數
11: 指數位 用來肯定範圍
52: 尾數位 用來肯定精度
轉成十進制表示法爲code
num = (-1)^s * (1.f) * 2^E E = e - 1023 s:符號位 e:指數位 f:尾數位 1023偏正值 使得指數位真實取值爲[-1023, 1024] 而非 [0, 2047] 目的是爲了方便比較大小 實際指數值 = 階碼 - 偏正值 階碼 = 指數的移碼 - 1 移碼與補碼符號爲互爲取反 舉例: 若是指數位實際值爲-1 原碼:100 0000 0001 反碼:111 1111 1110 補碼:111 1111 1111 移碼:011 1111 1111 階碼:011 1111 1110 = 1022 也能夠經過 階碼 = 指數 + 偏正值 = -1 + 1023 = 1022 = 011 1111 1110來計算獲得
指數位全0和全1有特殊含義,在後面會講到,用來表示+-0 和 +-∞ip
特殊值it
機器精度
del = 2^-52class
接下來解釋一下爲何在使用IEEE754標準的語言中0.1 + 0.2 = 0.30000000000000004
首先咱們計算下0.1的二進制
0.1 * 2 = 0
0.2 * 2 = 0
0.4 * 2 = 0
0.8 * 2 = 1
0.6 * 2 = 1
0.2 * 2 = 0
0.4 * 2 = 0
0.8 * 2 = 1
0.6 * 2 = 1
0.2 * 2 = 0
....
因此0.1的二進制爲 0.0001100110011001100...循環,
能夠轉換爲2^-4 * 1.100110011001100...
因爲保留位數共52位,不包括最左邊整數位1,
因此最終在計算機中存儲的數值是:2^-4 * 1.100 11001100 11001100 11001100 11001100 11001100 11001100 1cli
同理0.2
0.2 * 2 = 0
0.4 * 2 = 0
0.8 * 2 = 1
0.6 * 2 = 1
0.2 * 2 = 0
0.4 * 2 = 0
0.8 * 2 = 1
0.6 * 2 = 1
...
因此0.2的二進制爲 0.001100110011001100...循環,
能夠轉換爲2^-3 * 1.100110011001100...
最易最終在計算機中存儲的數值是:2^-3 * 1.100 11001100 11001100 11001100 11001100 11001100 11001100 1
二者相加
0.0001100 11001100 11001100 11001100 11001100 11001100 11001100 1
+
0.001100 11001100 11001100 11001100 11001100 11001100 11001100 1
= 0.0 10011001 10011001 10011001 10011001 10011001 10011001 10011
≈ 0.30000000000000004循環