DOS、Mac 和 Unix 文件格式+ UltraEdit使用

文件格式 區分DOS、Mac 和 Unix分別對應三種系統
從文件編碼的方式來看,文件可分爲ASCII碼文件和二進制碼文件兩種
文件模式 區分ASCII模式和Binary模式 
    一般由系統決定,大多數Linux/UNIX系統只有兩種模式:文本模式和二進制模式。文本傳輸器使用ASCII字符,並由回車鍵和換行符分開,而二進制不用轉換或格式化就可傳字符,二進制模式比文本模式更快,而且能夠傳輸全部ASCII值
 
1、文本格式區別
用UltraEdit打開unix文本文件時總會提示:是否將文件轉換爲dos格式。在windows編輯配置文件,而後用ftp上傳到linux主機,發現運行時讀取配置文件有錯。因爲沒有經驗,分析了半天。
UltraEdit另存爲有1.DOS終結符-CR/LF
   2.UNIX終結符-LF
   3.MAC終結符-CR
具體分析,在 utrledit下打開分別打開一個dos和unix的文本文件,而後選擇十六進制編輯,便可看到其編碼內容(能夠批量替換來轉格式 bat文件)。unix下的回車是用0x0A表示的,而dos下的回車則是0x0D0A。
在windows下用utraledit編輯後,能夠在文件菜單下找到轉換爲unix格式,而後再上傳主機。可是這時還有問題,由於有的ftp工具能夠選擇以文本或者二進制格式傳輸,這時則必須選擇二進制,不然傳輸時又會被改成dos格式。
unix文本文件和windows/dos文本文件的格式區別主要是兩點:
 
換行符:
                  unix(/n)                            windows/dos(/r/n)
Ctrl:            ^J                              ^M^J
Dec:           10                               13+10
Hex:            0A                              0D+0A
Code:          LF                               CR+LF
文件結束符:
                  unix                            windows/dos
Ctrl:            ^D                              ^Z
Dec:           04                               26
Hex:            04                              1A
ASCII模式和Binary模式的區別是回車換行的處理,Binary模式不對數據進行任何處理,ASCII模式將回車換行轉換爲本機的回車字符,好比:UNIX下是\n,Windows下是\r\n,Mac下是\r。
    ASCII模式下會轉換文件,不能說是不一樣系統對回車換行解釋不一樣,而是不一樣的系統有不一樣的行結束符。UNIX系統下行結束符是一個字節,即十六進制的0A,而Windows的系統是兩個字節,即十六進制的0D0A,因此當你用ASCII方式從UNIX的FTP Server下載文件到Windows系統上時(無論是二進制或者文本文件),每檢測到一個字節是0A,就會自動插入一個0D,因此若是你的文件是二進制文件,好比可執行文件、壓縮包什麼的,就確定不能用了。若是你的文件就是UNIX下的文本文件,你用ASCII模式是正確的,要是誤用了Binary模式,你在Windows上看這個文件是沒有換行的,裏面是一個個的黑方塊。
    通常來講,咱們最好都用Binary方式,這樣能夠保證不出錯。若是有文本格式轉換的問題,即UNIX格式的文本和DOS格式的文本之間的轉換,有不少工具能夠作的,不要在ftp傳輸的時候冒險,尤爲是你若是對這些東西不是很是清楚的話。
在printf這樣的函數中, 若是你出現一個\n, 它卻表明了一個邏輯上的意義, 即它表明在本地系統上的那種回車換行, 因此它在UNIX上只是<LF>, 但若是你在DOS上用諸如Truboc編程的話它輸出的是<CR><LF>。

 

 

UltraEdit 每次打開新文件的時候,都提示:

文件可能不是DOS格式,php

你要轉換 File 爲 DOS 格式嗎?html


高 級 -> 配置 -> 文件處理 -> DOS/UNIX/MAC 處理 -> UNIX/MAC 文件檢測/轉換 中,取消原先選擇的
檢測文件類型並提示進行更改,選取 禁用

 

 

DOS、Mac 和 Unix 文件格式 相信不少朋友都碰到過這三種文件格式的互換問題,今日又碰到這個問題,突然想 尋根問底,因而整理了本文檔。 文件格式區別 咱們先看看這三個傢伙有啥區別。linux

好久之前,人們用老式的電傳打字機做爲輸入設備,它使用 兩個字符來另起新行。一個字符把滑動架移回首位 (稱爲回車,),另外一個字符把紙上移一行 (稱爲換行,)。 當計算機問世後,因爲存儲器曾經很是昂貴。有些人就認定不必用兩個字符來表示行尾。因而 UNIX 開發者決定他們能夠用 一個字符來表示行尾。程序員

Apple 開發者規定了用 。 開發 MS-DOS (以及微軟視窗) 的那些傢伙則決定沿用老式的 。三種行尾格式以下: unix dos mac 這意味着,若是你試圖把一個文件從一種系統移到另外一種系統,那麼你就有換行符方面的麻煩。 轉換 有需求就會有動力。算法

在Windows平臺,有強大的UltraEdit,它支持DOS、Mac 和 Unix 三種文 件格式的任意互換。在【文件】->【轉換】選項卡下有相應的對應選項,很傻很強大。sql

下面咱們看看在Unix/Linux平臺該如何作呢?編程

方法一:強大的dos2unix dos2unix filenamevim

方法二:強大的腳本 sed 's/^M//' filename > tmp_filename 其中^M是同時Ctrl+V+M按出來的,表示回車。 或 tr -d "\r" filename 或 cat filename | perl -pe '~s/\r//g' > tmp_filenamewindows

方法三:強大的vim vim filename :set fileformat=unix :w 或 vim filename :%s/^M//g :w 與vi不一樣,vim具備自動識別功能,只需以下設置就能夠自動進行轉換。不過因爲Mac格式比較特殊,vim對mac格式的自動探測可能會出錯。請參考: http://vimcdoc.sourceforge.NET/doc/usr_23.html vim filename :set fileformats=unix,dos,mac 批量轉換 有時候咱們可能但願對這種轉換進行批量處理。網絡

在Windows下有強大的UltraEdit,用全局replace的方法或者創建工程的方法能夠批量轉換,請參考 http://tech.ddvip.com/2007-10/119380983936863.html 。Windows平臺下還有不少相關的小工具,如MultiU2D等,google一下吧。 在Unix/linux平臺下咱們就要藉助腳本文件或者通道了,實質上是上述幾種方法的自動化。

下面舉幾個簡單例子,來源自 http://bbs.chinaunix.net/viewthread.PHP?tid=412957&extra=&page=1 :

腳本1: ls -l | awk '{print 8}' > filename.txt N=1 NN=`wc -l filename.txt | awk '{print $1}'` while [ "8}' > filename.txt N=1 NN=`wc -l filename.txt | awk '{print $1}'` while [ "N" -le "NN"];doTempLine=sedn"NN"];doTempLine=‘sed−n"N"p "filename.txt"` if [ -n "TempLine"];thentmpfilename=TempLine"];thentmpfilename=TempLine dos2ux tmpfilename>filemvfiletmpfilename>filemvfiletmpfilename fi N=((((N + 1)) done

腳本2: for XFILE in (egreplMfind.name".txt";find.name".sql")doecho""(egrep−lM‘find.−name"∗.txt";find.−name"∗.sql"‘)doecho"開始處理文件"XFILE if [ -s XFILE]thenTMPFILE=XFILE]thenTMPFILE=XFILE.tmp mv XFILEXFILETMPFILE tr -d "\r" XFILErmXFILErmTMPFILE else continue fi done 通道法: find . -type f |xargs -i dos2unix {} 後記 對於Mac格式轉換到其餘兩種格式的方法相似,在類Unix環境下有dos2unix/mac2unix工具。 在計算機世界,格式轉換無處不在,如字符格式、壓縮格式、網絡協議格式、音視頻格式等等。因此進行相關工做時,應該多多留意。

 

 

從文件編碼的方式來看,文件可分爲ASCII碼文件和二進制碼文件兩種。

ASCII文件也稱爲文本文件,這種文件在磁盤中存放時每一個字符對應一個字節,用於存放對應的ASCII碼。例如,數5678的存儲形式爲:
ASC碼:  00110101 00110110 00110111 00111000
     ↓     ↓    ↓    ↓
十進制碼: 5     6    7    8 共佔用4個字節。ASCII碼文件可在屏幕上按字符顯示, 例如源程序文件就是ASCII文件,用DOS命令TYPE可顯示文件的內容。 因爲是按字符顯示,所以能讀懂文件內容。

二進制文件是按二進制的編碼方式來存放文件的。 例如, 數5678的存儲形式爲: 00010110 00101110只佔二個字節。二進制文件雖然也可在屏幕上顯示,但其內容沒法讀懂。C系統在處理這些文件時,並不區分類型,都當作是字符流,按字節進行處理。輸入輸出字符流的開始和結束只由程序控制而不受物理符號(如回車符)的控制。 所以也把這種文件稱做「流式文件」。

UCS-2編碼(16進制) UTF-8 字節流(二進制)
0000 - 007F 0xxxxxxx
0080 - 07FF 110xxxxx 10xxxxxx
0800 - FFFF 1110xxxx 10xxxxxx 10xxxxxx
問題一:

使用Windows記事本的「另存爲」,能夠在GBK、Unicode、Unicode big endian和UTF-8這幾種編碼方式間相互轉換。一樣是txt文件,Windows是怎樣識別編碼方式的呢?

我很早前就發現Unicode、Unicode big endian和UTF-8編碼的txt文件的開頭會多出幾個字節,分別是FF、FE(Unicode),FE、FF(Unicode big endian),EF、BB、BF(UTF-8)。但這些標記是基於什麼標準呢?

問題二:
最近在網上看到一個ConvertUTF.c,實現了UTF-3二、UTF-16和UTF-8這三種編碼方式的相互轉換。對於Unicode(UCS2)、 GBK、UTF-8這些編碼方式,我原來就瞭解。但這個程序讓我有些糊塗,想不起來UTF-16和UCS2有什麼關係。

查了查相關資料,總算將這些問題弄清楚了,順帶也瞭解了一些Unicode的細節。寫成一篇文章,送給有過相似疑問的朋友。本文在寫做時儘可能作到通俗易懂,但要求讀者知道什麼是字節,什麼是十六進制。

0、big endian和little endian

big endian和little endian是CPU處理多字節數的不一樣方式。例如「漢」字的Unicode編碼是6C49。那麼寫到文件裏時,到底是將6C寫在前面,仍是將49寫在前面?若是將6C寫在前面,就是big endian。仍是將49寫在前面,就是little endian。

「endian」這個詞出自《格列佛遊記》。小人國的內戰就源於吃雞蛋時是究竟從大頭(Big-Endian)敲開仍是從小頭(Little-Endian)敲開,由此曾發生過六次叛亂,其中一個皇帝送了命,另外一個丟了王位。

咱們通常將endian翻譯成「字節序」,將big endian和little endian稱做「大尾」和「小尾」。

一、字符編碼、內碼,順帶介紹漢字編碼

字符必須編碼後才能被計算機處理。計算機使用的缺省編碼方式就是計算機的內碼。早期的計算機使用7位的ASCII編碼,爲了處理漢字,程序員設計了用於簡體中文的GB2312和用於繁體中文的big5。

GB2312(1980年)一共收錄了7445個字符,包括6763個漢字和682個其它符號。漢字區的內碼範圍高字節從B0-F7,低字節從A1-FE,佔用的碼位是72*94=6768。其中有5個空位是D7FA-D7FE。

GB2312 支持的漢字太少。1995年的漢字擴展規範GBK1.0收錄了21886個符號,它分爲漢字區和圖形符號區。漢字區包括21003個字符。2000年的 GB18030是取代GBK1.0的正式國家標準。該標準收錄了27484個漢字,同時還收錄了藏文、蒙文、維吾爾文等主要的少數民族文字。如今的PC平臺必須支持GB18030,對嵌入式產品暫不做要求。因此手機、MP3通常只支持GB2312。

從ASCII、 GB23十二、GBK到GB18030,這些編碼方法是向下兼容的,即同一個字符在這些方案中老是有相同的編碼,後面的標準支持更多的字符。在這些編碼中,英文和中文能夠統一地處理。區分中文編碼的方法是高字節的最高位不爲0。按照程序員的稱呼,GB23十二、GBK到GB18030都屬於雙字節字符集 (DBCS)。

有的中文Windows的缺省內碼仍是GBK,能夠經過GB18030升級包升級到GB18030。不過GB18030相對GBK增長的字符,普通人是很難用到的,一般咱們仍是用GBK指代中文Windows內碼。

這裏還有一些細節:

  • GB2312的原文仍是區位碼,從區位碼到內碼,須要在高字節和低字節上分別加上A0。

  • 在DBCS中,GB內碼的存儲格式始終是big endian,即高位在前。

  • GB2312 的兩個字節的最高位都是1。但符合這個條件的碼位只有128*128=16384個。因此GBK和GB18030的低字節最高位均可能不是1。不過這不影響DBCS字符流的解析:在讀取DBCS字符流時,只要遇到高位爲1的字節,就能夠將下兩個字節做爲一個雙字節編碼,而不用管低字節的高位是什麼。

二、Unicode、UCS和UTF

前面提到從ASCII、GB23十二、GBK到GB18030的編碼方法是向下兼容的。而Unicode只與ASCII兼容(更準確地說,是與ISO-8859-1兼容),與GB碼不兼容。例如「漢」字的Unicode編碼是6C49,而GB碼是BABA。

Unicode 也是一種字符編碼方法,不過它是由國際組織設計,能夠容納全世界全部語言文字的編碼方案。Unicode的學名是"Universal Multiple-Octet Coded Character Set",簡稱爲UCS。UCS能夠看做是"Unicode Character Set"的縮寫。

根據維基百科全書(http: //zh.wikipedia.org/wiki/)的記載:歷史上存在兩個試圖獨立設計Unicode的組織,即國際標準化組織(ISO)和一個軟件製造商的協會(unicode.org)。ISO開發了ISO 10646項目,Unicode協會開發了Unicode項目。

在1991年先後,雙方都認識到世界不須要兩個不兼容的字符集。因而它們開始合併雙方的工做成果,併爲創立一個單一編碼表而協同工做。從Unicode2.0開始,Unicode項目採用了與ISO 10646-1相同的字庫和字碼。

目前兩個項目仍都存在,並獨立地公佈各自的標準。Unicode協會如今的最新版本是2005年的Unicode 4.1.0。ISO的最新標準是10646-3:2003。

UCS規定了怎麼用多個字節表示各類文字。怎樣傳輸這些編碼,是由UTF(UCS Transformation Format)規範規定的,常見的UTF規範包括UTF-八、UTF-七、UTF-16。

IETF 的RFC2781和RFC3629以RFC的一向風格,清晰、明快又不失嚴謹地描述了UTF-16和UTF-8的編碼方法。我老是記不得IETF是 Internet Engineering Task Force的縮寫。但IETF負責維護的RFC是Internet上一切規範的基礎。

三、UCS-二、UCS-四、BMP

UCS有兩種格式:UCS-2和UCS-4。顧名思義,UCS-2就是用兩個字節編碼,UCS-4就是用4個字節(實際上只用了31位,最高位必須爲0)編碼。下面讓咱們作一些簡單的數學遊戲:

UCS-2有2^16=65536個碼位,UCS-4有2^31=2147483648個碼位。

UCS -4根據最高位爲0的最高字節分紅2^7=128個group。每一個group再根據次高字節分爲256個plane。每一個plane根據第3個字節分爲 256行 (rows),每行包含256個cells。固然同一行的cells只是最後一個字節不一樣,其他都相同。

group 0的plane 0被稱做Basic Multilingual Plane, 即BMP。或者說UCS-4中,高兩個字節爲0的碼位被稱做BMP。

將UCS-4的BMP去掉前面的兩個零字節就獲得了UCS-2。在UCS-2的兩個字節前加上兩個零字節,就獲得了UCS-4的BMP。而目前的UCS-4規範中尚未任何字符被分配在BMP以外。

四、UTF編碼

UTF-8就是以8位爲單元對UCS進行編碼。從UCS-2到UTF-8的編碼方式以下:

例如「漢」字的Unicode編碼是6C49。6C49在0800-FFFF之間,因此確定要用3字節模板了:1110xxxx 10xxxxxx 10xxxxxx。將6C49寫成二進制是:0110 110001 001001, 用這個比特流依次代替模板中的x,獲得:11100110 10110001 10001001,即E6 B1 89。

讀者能夠用記事本測試一下咱們的編碼是否正確。

UTF -16以16位爲單元對UCS進行編碼。對於小於0x10000的UCS碼,UTF-16編碼就等於UCS碼對應的16位無符號整數。對於不小於 0x10000的UCS碼,定義了一個算法。不過因爲實際使用的UCS2,或者UCS4的BMP必然小於0x10000,因此就目前而言,能夠認爲UTF -16和UCS-2基本相同。但UCS-2只是一個編碼方案,UTF-16卻要用於實際的傳輸,因此就不得不考慮字節序的問題。

五、UTF的字節序和BOM

UTF -8以字節爲編碼單元,沒有字節序的問題。UTF-16以兩個字節爲編碼單元,在解釋一個UTF-16文本前,首先要弄清楚每一個編碼單元的字節序。例如收到一個「奎」的Unicode編碼是594E,「乙」的Unicode編碼是4E59。若是咱們收到UTF-16字節流「594E」,那麼這是「奎」仍是 「乙」?

Unicode規範中推薦的標記字節順序的方法是BOM。BOM不是「Bill Of Material」的BOM表,而是Byte Order Mark。BOM是一個有點小聰明的想法:

在UCS 編碼中有一個叫作"ZERO WIDTH NO-BREAK SPACE"的字符,它的編碼是FEFF。而FFFE在UCS中是不存在的字符,因此不該該出如今實際傳輸中。UCS規範建議咱們在傳輸字節流前,先傳輸字符"ZERO WIDTH NO-BREAK SPACE"。

這樣若是接收者收到FEFF,就代表這個字節流是Big-Endian的;若是收到FFFE,就代表這個字節流是Little-Endian的。所以字符"ZERO WIDTH NO-BREAK SPACE"又被稱做BOM。

UTF -8不須要BOM來代表字節順序,但能夠用BOM來代表編碼方式。字符"ZERO WIDTH NO-BREAK SPACE"的UTF-8編碼是EF BB BF(讀者能夠用咱們前面介紹的編碼方法驗證一下)。因此若是接收者收到以EF BB BF開頭的字節流,就知道這是UTF-8編碼了。

Windows就是使用BOM來標記文本文件的編碼方式的。

六、進一步的參考資料

本文主要參考的資料是 "Short overview of ISO-IEC 10646 and Unicode" (http://www.nada.kth.se/i18n/ucs/unicode-iso10646-oview.html)。

我還找了兩篇看上去不錯的資料,不過由於我開始的疑問都找到了答案,因此就沒有看:

  1. "Understanding Unicode A general introduction to the Unicode Standard" (http://scripts.sil.org/cms/scripts/page.php?site_id=nrsi&item_id=IWS-Chapter04a)
  2. "Character set encoding basics Understanding character set encodings and legacy encodings" (http://scripts.sil.org/cms/scripts/page.php?site_id=nrsi&item_id=IWS-Chapter03)

我寫過UTF-八、UCS-二、GBK相互轉換的軟件包,包括使用Windows API和不使用Windows API的版本。之後有時間的話,我會整理一下放到個人我的主頁上(http://fmddlmyy.home4u.china.com)。

相關文章
相關標籤/搜索