全文檢索

INSTALLED_APPS = (
    ...
    'haystack',
)

  

全文檢索

  • 全文檢索不一樣於特定字段的模糊查詢,使用全文檢索的效率更高,而且可以對於中文進行分詞處理
  • haystack:全文檢索的框架,支持whoosh、solr、Xapian、Elasticsearc四種全文檢索引擎,點擊查看官方網站
  • whoosh:純Python編寫的全文搜索引擎,雖然性能比不上sphinx、xapian、Elasticsearc等,可是無二進制包,程序不會莫名其妙的崩潰,對於小型的站點,whoosh已經足夠使用,點擊查看whoosh文檔
  • jieba:一款免費的中文分詞包,若是以爲很差用能夠使用一些收費產品,點擊查看jieba文檔
  • 在虛擬環境中依次安裝須要的包
pip install django-haystack
pip install whoosh
pip install jieba

  

  • 修改test6/settings.py文件,安裝應用haystack
 
  • 在test6/settings.py文件中配置搜索引擎
#coding=utf-8
...
HAYSTACK_CONNECTIONS = {
    'default': {
        #使用whoosh引擎
        'ENGINE': 'haystack.backends.whoosh_cn_backend.WhooshEngine',
        #索引文件路徑
        'PATH': os.path.join(BASE_DIR, 'whoosh_index'),
    }
}
#當添加、修改、刪除數據時,自動生成索引
HAYSTACK_SIGNAL_PROCESSOR = 'haystack.signals.RealtimeSignalProcessor'

  

  • 在test6/urls.py中添加搜索的配置
  url(r'^search/', include('haystack.urls')),

  





建立引擎及索引

  • 在booktest目錄下建立search_indexes.py文件
#coding=utf-8
from haystack import indexes
from models import GoodsInfo
#指定對於某個類的某些數據創建索引
class GoodsInfoIndex(indexes.SearchIndex, indexes.Indexable):
    text = indexes.CharField(document=True, use_template=True)

    def get_model(self):
        return GoodsInfo

    def index_queryset(self, using=None):
        return self.get_model().objects.all()

  

  • 在templates目錄下建立「search/indexes/booktest/」目錄

 

  • 在上面的目錄中建立「goodsinfo_text.txt」文件
  • #指定索引的屬性
    {{object.gcontent}}
    

      

    找到虛擬環境py_django下的haystack目錄
/home/python/.virtualenvs/py_django/lib/python2.7/site-packages/haystack/backends/

  

  • 在上面的目錄中建立ChineseAnalyzer.py文件
import jieba
from whoosh.analysis import Tokenizer, Token

class ChineseTokenizer(Tokenizer):
    def __call__(self, value, positions=False, chars=False,
                 keeporiginal=False, removestops=True,
                 start_pos=0, start_char=0, mode='', **kwargs):
        t = Token(positions, chars, removestops=removestops, mode=mode,
                  **kwargs)
        seglist = jieba.cut(value, cut_all=True)
        for w in seglist:
            t.original = t.text = w
            t.boost = 1.0
            if positions:
                t.pos = start_pos + value.find(w)
            if chars:
                t.startchar = start_char + value.find(w)
                t.endchar = start_char + value.find(w) + len(w)
            yield t

def ChineseAnalyzer():
    return ChineseTokenizer()

  

  • 複製whoosh_backend.py文件,改成以下名稱
  • 注意:複製出來的文件名,末尾會有一個空格,記得要刪除這個空格
whoosh_cn_backend.py

  

  • 打開復製出來的新文件,引入中文分析類,內部採用結巴分詞
from .ChineseAnalyzer import ChineseAnalyzer

  

  • 更改詞語分析類
查找
analyzer=StemmingAnalyzer()
改成
analyzer=ChineseAnalyzer()

  

  • 初始化索引數據
python manage.py rebuild_index

  

  • 按提示輸入y後回車,生成索引

 

  • 索引生成後目錄結構以下圖

 

 

 

 

使用

  • 按照配置,在admin管理中添加數據後,會自動爲數據建立索引,能夠直接進行搜索,能夠先建立一些測試數據
  • 在booktest/views.py中定義視圖query
def query(request):
    return render(request,'booktest/query.html')

  

  • 在booktest/urls.py中配置
   url(r'^query/', views.query),

  

  • 在templates/booktest/目錄中建立模板query.html
  • 參數q表示搜索內容,傳遞到模板中的數據爲query
<html>
<head>
    <title>全文檢索</title>
</head>
<body>
<form method='get' action="/search/" target="_blank">
    <input type="text" name="q">
    <br>
    <input type="submit" value="查詢">
</form>
</body>
</html>

  

  • 自定義搜索結果模板:在templates/search/目錄下建立search.html
  • 搜索結果進行分頁,視圖向模板中傳遞的上下文以下
    • query:搜索關鍵字
    • page:當前頁的page對象
    • paginator:分頁paginator對象
  • 視圖接收的參數以下:
    • 參數q表示搜索內容,傳遞到模板中的數據爲query
    • 參數page表示當前頁碼
<html>
<head>
    <title>全文檢索--結果頁</title>
</head>
<body>
<h1>搜索 <b>{{query}}</b> 結果以下:</h1>
<ul>
{%for item in page%}
    <li>{{item.object.id}}--{{item.object.gcontent|safe}}</li>
{%empty%}
    <li>啥也沒找到</li>
{%endfor%}
</ul>
<hr>
{%for pindex in page.paginator.page_range%}
    {%if pindex == page.number%}
        {{pindex}}  
    {%else%}
        <a href="?q={{query}}&page={{pindex}}">{{pindex}}</a>  
    {%endif%}
{%endfor%}
</body>
</html>

  

  • 運行服務器,在瀏覽器中輸入以下地址
http://127.0.0.1:8000/query/
  • 在文本框中填寫要搜索的信息,點擊」搜索「按鈕

 

  • 搜索結果以下

相關文章
相關標籤/搜索