餘弦定理的應用:基於文字的文本類似度計算

      最近因爲工做項目,須要判斷兩個txt文本是否類似,因而開始在網上找資料研究,由於在程序中會把文本轉換成String再作比較,因此最開始找到了這篇關於 距離編輯算法 Blog寫的很是好,受益不淺。 html

       因而我決定把它用到項目中,來判斷兩個文本的類似度。但後來實際操做發現有一些問題:直接說就是查詢一本書中的類似章節花了我七、8分鐘;這是我不能接受…… java

       因而停下來仔細分析發現,這種算法在此項目中不是特別適用,因爲要判斷一本書中是否有相同章節,因此每兩個章節之間都要比較,若一本書書有x章的話,這裏需對比x(x-1)/2次;而此算法採用矩陣的方式,計算兩個字符串之間的變化步驟,會遍歷兩個文本中的每個字符兩兩比較,能夠推斷出時間複雜度至少爲document1.length × document2.length,我所比較的章節字數平均在幾千~一萬字;這樣計算實在要了老命。 算法

       想到Lucene中的評分機制,也是算一個類似度的問題,不過它採用的是計算向量間的夾角(餘弦公式),在google黑板報中的:數學之美(餘弦定理和新聞分類) 也有說明,能夠經過餘弦定理來判斷類似度;因而決定本身動手試試。 測試

       首相選擇向量的模型:在以字爲向量仍是以詞爲向量的問題上,糾結了一會;後來仍是以爲用字,雖然詞更爲準確,但分詞卻須要增長額外的複雜度,而且此項目要求速度,準確率能夠放低,因而仍是選擇字爲向量。 優化

       而後每一個字在章節中出現的次數,即是以此字向量的值。如今咱們假設: google

       章節1中出現的字爲:Z1c1,Z1c2,Z1c3,Z1c4……Z1cn;它們在章節中的個數爲:Z1n1,Z1n2,Z1n3……Z1nm編碼

       章節2中出現的字爲:Z2c1,Z2c2,Z2c3,Z2c4……Z2cn;它們在章節中的個數爲:Z2n1,Z2n2,Z2n3……Z2nmspa

       其中,Z1c1和Z2c1表示兩個文本中同一個字,Z1n1和Z2n1是它們分別對應的個數, .net

       最後咱們的類似度能夠這麼計算: code

       程序實現以下:(如有可優化或更好的實現請不吝賜教)

import java.io.UnsupportedEncodingException;
import java.util.HashMap;
import java.util.Iterator;
import java.util.Map;


public class CosineSimilarAlgorithm {
	public static double getSimilarity(String doc1, String doc2) {
		if (doc1 != null && doc1.trim().length() > 0 && doc2 != null
				&& doc2.trim().length() > 0) {
			
			Map<Integer, int[]> AlgorithmMap = new HashMap<Integer, int[]>();
			
			//將兩個字符串中的中文字符以及出現的總數封裝到,AlgorithmMap中
			for (int i = 0; i < doc1.length(); i++) {
				char d1 = doc1.charAt(i);
				if(isHanZi(d1)){
					int charIndex = getGB2312Id(d1);
					if(charIndex != -1){
						int[] fq = AlgorithmMap.get(charIndex);
						if(fq != null && fq.length == 2){
							fq[0]++;
						}else {
							fq = new int[2];
							fq[0] = 1;
							fq[1] = 0;
							AlgorithmMap.put(charIndex, fq);
						}
					}
				}
			}

			for (int i = 0; i < doc2.length(); i++) {
				char d2 = doc2.charAt(i);
				if(isHanZi(d2)){
					int charIndex = getGB2312Id(d2);
					if(charIndex != -1){
						int[] fq = AlgorithmMap.get(charIndex);
						if(fq != null && fq.length == 2){
							fq[1]++;
						}else {
							fq = new int[2];
							fq[0] = 0;
							fq[1] = 1;
							AlgorithmMap.put(charIndex, fq);
						}
					}
				}
			}
			
			Iterator<Integer> iterator = AlgorithmMap.keySet().iterator();
			double sqdoc1 = 0;
			double sqdoc2 = 0;
			double denominator = 0; 
			while(iterator.hasNext()){
				int[] c = AlgorithmMap.get(iterator.next());
				denominator += c[0]*c[1];
				sqdoc1 += c[0]*c[0];
				sqdoc2 += c[1]*c[1];
			}
			
			return denominator / Math.sqrt(sqdoc1*sqdoc2);
		} else {
			throw new NullPointerException(
					" the Document is null or have not cahrs!!");
		}
	}

	public static boolean isHanZi(char ch) {
		// 判斷是否漢字
		return (ch >= 0x4E00 && ch <= 0x9FA5);

	}

	/**
	 * 根據輸入的Unicode字符,獲取它的GB2312編碼或者ascii編碼,
	 * 
	 * @param ch
	 *            輸入的GB2312中文字符或者ASCII字符(128個)
	 * @return ch在GB2312中的位置,-1表示該字符不認識
	 */
	public static short getGB2312Id(char ch) {
		try {
			byte[] buffer = Character.toString(ch).getBytes("GB2312");
			if (buffer.length != 2) {
				// 正常狀況下buffer應該是兩個字節,不然說明ch不屬於GB2312編碼,故返回'?',此時說明不認識該字符
				return -1;
			}
			int b0 = (int) (buffer[0] & 0x0FF) - 161; // 編碼從A1開始,所以減去0xA1=161
			int b1 = (int) (buffer[1] & 0x0FF) - 161; // 第一個字符和最後一個字符沒有漢字,所以每一個區只收16*6-2=94個漢字
			return (short) (b0 * 94 + b1);
		} catch (UnsupportedEncodingException e) {
			e.printStackTrace();
		}
		return -1;
	}
	
	public static void main(String[] args) {
		System.out.println(getSimilarity("我喜歡看電視,不喜歡看電影。", "我不喜歡看電視,也不喜歡看電影。"));
	}
}


程序中作了兩小的改進,以加快效率:

1. 只將漢字做爲向量,其餘的如標點,數字等符號不處理;

2. 在HashMap中存放漢字和其在文本中對於的個數時,先將單個漢字經過GB2312編碼轉換成數字,再存放。

       最後寫了個測試,根據兩種不一樣的算法對比下時間,下面是測試結果:

       餘弦定理算法:doc1 與 doc2 類似度爲:0.9954971, 耗時:22mm

       距離編輯算法:doc1 與 doc2 類似度爲:0.99425095, 耗時:322mm

       可見效率有明顯提升,算法複雜度大體爲:document1.length + document2.length

推薦閱讀:

TF-IDF與餘弦類似性的應用(一):自動提取關鍵詞

http://www.ruanyifeng.com/blog/2013/03/tf-idf.html

TF-IDF與餘弦類似性的應用(二):找出類似文章

http://www.ruanyifeng.com/blog/2013/03/cosine_similarity.html

TF-IDF與餘弦類似性的應用(三):自動摘要

http://www.ruanyifeng.com/blog/2013/03/automatic_summarization.html

相關文章
相關標籤/搜索