利用機器學習能夠很方便的作情感分析。本篇文章將介紹在R語言中如何利用機器學習方法來作情感分析。在R語言中,由Timothy P.Jurka開發的情感分析以及更通常的文本挖掘包已經獲得了很好的發展。你能夠查看下sentiment包以及夢幻般的RTextTools包。實際上,Timothy還寫了一個針對低內存下多元Logistic迴歸(也稱最大熵)的R包maxtent。html
然而,RTextTools
包中不包含樸素貝葉斯方法。e1071
包能夠很好的執行樸素貝葉斯方法。e1071是TU Wien(維也納科技大學)統計系的一門課程。這個包的主要開發者是David Meyer。python
咱們仍然有必要了解文本分析方面的知識。用R語言來處理文本分析已是公認的事實(詳見R語言中的天然語言處理)。tm包算是其中成功的一部分:它是R語言在文本挖掘應用中的一個框架。它在文本清洗(詞幹提取,刪除停用詞等)以及將文本轉換爲詞條-文檔矩陣(dtm)方面作得很好。這裏是對它的一個介紹。文本分析最重要的部分就是獲得每一個文檔的特徵向量,其中詞語特徵最重要的。固然,你也能夠將單個詞語特徵擴展爲雙詞組,三連詞,n-連詞等。在本篇文章,咱們以單個詞語特徵爲例作演示。git
注意,在R中用ngram
包來處理n-連詞。在過去,Rweka
包提供了函數來處理它,感興趣的能夠查看這個案例。如今,你能夠設置RTextTools
包中create_matrix
函數的參數ngramLength
來實現它。github
第一步是讀取數據:web
library(RTextTools) library(e1071) pos_tweets = rbind( c('I love this car', 'positive'), c('This view is amazing', 'positive'), c('I feel great this morning', 'positive'), c('I am so excited about the concert', 'positive'), c('He is my best friend', 'positive') ) neg_tweets = rbind( c('I do not like this car', 'negative'), c('This view is horrible', 'negative'), c('I feel tired this morning', 'negative'), c('I am not looking forward to the concert', 'negative'), c('He is my enemy', 'negative') ) test_tweets = rbind( c('feel happy this morning', 'positive'), c('larry friend', 'positive'), c('not like that man', 'negative'), c('house not great', 'negative'), c('your song annoying', 'negative') ) tweets = rbind(pos_tweets, neg_tweets, test_tweets)
建立詞條-文檔矩陣:算法
# build dtm matrix= create_matrix(tweets[,1], language="english", removeStopwords=FALSE, removeNumbers=TRUE, stemWords=FALSE)
如今,咱們能夠用這個數據集來訓練樸素貝葉斯模型。注意,e1071
要求響應變量是數值型或因子型的。咱們用下面的方法將字符串型數據轉換成因子型:app
# train the model mat = as.matrix(matrix) classifier = naiveBayes(mat[1:10,], as.factor(tweets[1:10,2]) )
測試結果準確度:框架
# test the validity predicted = predict(classifier, mat[11:15,]); predicted table(tweets[11:15, 2], predicted) recall_accuracy(tweets[11:15, 2], predicted)
顯然,這個結果跟python獲得的結果是相同的(這篇文章是用python獲得的結果)。機器學習
下面咱們使用RTextTools
包來處理它。函數
首先,指定相應的數據:
# build the data to specify response variable, training set, testing set. container = create_container(matrix, as.numeric(as.factor(tweets[,2])), trainSize=1:10, testSize=11:15,virgin=FALSE)
其次,用多種機器學習算法訓練模型:
models = train_models(container, algorithms=c("MAXENT" , "SVM", "RF", "BAGGING", "TREE"))
如今,咱們可使用訓練過的模型作測試集分類:
results = classify_models(container, models)
準確性如何呢?
# accuracy table table(as.numeric(as.factor(tweets[11:15, 2])), results[,"FORESTS_LABEL"]) table(as.numeric(as.factor(tweets[11:15, 2])), results[,"MAXENTROPY_LABEL"]) # recall accuracy recall_accuracy(as.numeric(as.factor(tweets[11:15, 2])), results[,"FORESTS_LABEL"]) recall_accuracy(as.numeric(as.factor(tweets[11:15, 2])), results[,"MAXENTROPY_LABEL"]) recall_accuracy(as.numeric(as.factor(tweets[11:15, 2])), results[,"TREE_LABEL"]) recall_accuracy(as.numeric(as.factor(tweets[11:15, 2])), results[,"BAGGING_LABEL"]) recall_accuracy(as.numeric(as.factor(tweets[11:15, 2])), results[,"SVM_LABEL"])
獲得模型的結果摘要(特別是結果的有效性):
# model summary analytics = create_analytics(container, results) summary(analytics) head(analytics@document_summary) analytics@ensemble_summar
結果的交叉驗證:
N=4 set.seed(2014) cross_validate(container,N,"MAXENT") cross_validate(container,N,"TREE") cross_validate(container,N,"SVM") cross_validate(container,N,"RF")
結果可在個人Rpub頁面找到。能夠看到,maxent
的準確性跟樸素貝葉斯是同樣的,其它方法的結果準確性更差。這是能夠理解的,由於咱們給的是一個很是小的數據集。擴大訓練集後,利用更復雜的方法咱們對推文作的情感分析能夠獲得一個更好的結果。示例演示以下:
數據來自victornep。victorneo展現的是用python對推文作情感分析。這裏,咱們用R來處理它:
讀取數據:
################### "load data" ################### setwd("D:/Twitter-Sentimental-Analysis-master/") happy = readLines("./happy.txt") sad = readLines("./sad.txt") happy_test = readLines("./happy_test.txt") sad_test = readLines("./sad_test.txt") tweet = c(happy, sad) tweet_test= c(happy_test, sad_test) tweet_all = c(tweet, tweet_test) sentiment = c(rep("happy", length(happy) ), rep("sad", length(sad))) sentiment_test = c(rep("happy", length(happy_test) ), rep("sad", length(sad_test))) sentiment_all = as.factor(c(sentiment, sentiment_test)) library(RTextTools)
首先,嘗試下樸素貝葉斯
# naive bayes mat= create_matrix(tweet_all, language="english", removeStopwords=FALSE, removeNumbers=TRUE, stemWords=FALSE, tm::weightTfIdf) mat = as.matrix(mat) classifier = naiveBayes(mat[1:160,], as.factor(sentiment_all[1:160])) predicted = predict(classifier, mat[161:180,]); predicted table(sentiment_test, predicted) recall_accuracy(sentiment_test, predicted)
而後,嘗試其餘方法:
# the other methods mat= create_matrix(tweet_all, language="english", removeStopwords=FALSE, removeNumbers=TRUE, stemWords=FALSE, tm::weightTfIdf) container = create_container(mat, as.numeric(sentiment_all), trainSize=1:160, testSize=161:180,virgin=FALSE) #能夠設置removeSparseTerms models = train_models(container, algorithms=c("MAXENT", "SVM", #"GLMNET", "BOOSTING", "SLDA","BAGGING", "RF", # "NNET", "TREE" )) # test the model results = classify_models(container, models) table(as.numeric(as.numeric(sentiment_all[161:180])), results[,"FORESTS_LABEL"]) recall_accuracy(as.numeric(as.numeric(sentiment_all[161:180])), results[,"FORESTS_LABEL"])
這裏,咱們也但願獲得正式的測試結果。包括:
analytics@algorithm_summary:包括精確度,召回率,準確率,F-scores的摘要
analytics@label_summary:類標籤摘要
analytics@document_summary:全部數據和得分的原摘要
analytics@ensemble_summary:全部 精確度/覆蓋度 比值的摘要
如今讓咱們看看結果:
# formal tests analytics = create_analytics(container, results) summary(analytics) head(analytics@algorithm_summary) head(analytics@label_summary) head(analytics@document_summary) analytics@ensemble_summary # Ensemble Agreement # Cross Validation N=3 cross_SVM = cross_validate(container,N,"SVM") cross_GLMNET = cross_validate(container,N,"GLMNET") cross_MAXENT = cross_validate(container,N,"MAXENT")
與樸素貝葉斯方法相比,其它算法的結果更好,召回精度高於0.95。結果可在Rpub查看
注:對上述獲得的四個測試結果所表明的意義能夠參考這篇文章R之文本分類
本文由雪晴數據網負責翻譯整理,原文請參考Sentiment analysis with machine learning in R做者Chen-Jun Wang。轉載請註明原文連接http://www.xueqing.cc/cms/article/107