搜索是一個日益重要的話題。用戶愈來愈依賴於搜索從噪聲信息中分離和快速找到有用信息。此外,搜索搜索能夠洞察那些東西是受歡迎的,改善網站上難以查找的東西。html
爲此,Haystack試圖整合自定義搜索,使其儘量簡單的靈活和強大到足以處理更高級的用例。haystack支持多種搜索引擎,不只僅是whoosh,使用python
solr、elastic search等搜索,也可經過haystack,並且直接切換引擎便可,甚至無需修改搜索代碼。git
pip install django-haystack pip install whoosh pip install jieba
1:將Haystack添加到settings.py中的INSTALLED_APPS中:github
INSTALLED_APPS = [ 'django.contrib.admin', 'django.contrib.auth', 'django.contrib.contenttypes', 'django.contrib.sessions', 'django.contrib.sites', # 添加 'haystack', # 你的app 'blog', ]
2:在你的settings.py中添加一個設置來指示站點配置文件正在使用的後端,以及其餘的後端設置。數據庫
django
Solr:後端
HAYSTACK_CONNECTIONS = { 'default': { 'ENGINE': 'haystack.backends.solr_backend.SolrEngine', 'URL': 'http://127.0.0.1:8983/solr' # ...or for multicore... # 'URL': 'http://127.0.0.1:8983/solr/mysite', }, }
Elasticsearch:api
HAYSTACK_CONNECTIONS = { 'default': { 'ENGINE': 'haystack.backends.elasticsearch_backend.ElasticsearchSearchEngine', 'URL': 'http://127.0.0.1:9200/', 'INDEX_NAME': 'haystack', }, }
Whoosh:服務器
#須要設置PATH到你的Whoosh索引的文件系統位置 import os HAYSTACK_CONNECTIONS = { 'default': { 'ENGINE': 'haystack.backends.whoosh_backend.WhooshEngine', 'PATH': os.path.join(os.path.dirname(__file__), 'whoosh_index'), }, } # 自動更新索引 HAYSTACK_SIGNAL_PROCESSOR = 'haystack.signals.RealtimeSignalProcessor'
Xapian:session
#首先安裝Xapian後端(http://github.com/notanumber/xapian-haystack/tree/master) #須要設置PATH到你的Xapian索引的文件系統位置。 import os HAYSTACK_CONNECTIONS = { 'default': { 'ENGINE': 'xapian_backend.XapianEngine', 'PATH': os.path.join(os.path.dirname(__file__), 'xapian_index'), }, }
下面咱們以whoosh爲例進行操做。
在整個項目的urls.py中,配置搜索功能的url路徑
urlpatterns = [ ... url(r'^search/', include('haystack.urls')), ]
在你的應用目錄下面新建一個search_indexes.py文件,文件名不能修改!
from haystack import indexes from app01.models import Article class ArticleIndex(indexes.SearchIndex, indexes.Indexable): #類名必須爲須要檢索的Model_name+Index,這裏須要檢索Article,因此建立ArticleIndex text = indexes.CharField(document=True, use_template=True)#建立一個text字段 #其它字段 desc = indexes.CharField(model_attr='desc') content = indexes.CharField(model_attr='content') def get_model(self):#重載get_model方法,必需要有! return Article def index_queryset(self, using=None): return self.get_model().objects.all()
ps:爲何要建立索引呢,索引就像一本書的目錄,能夠爲讀者提供更快速的導航與查找。在這裏也是一樣的道理,當數據量很是大的時候,若要從
這些數據裏找出全部知足搜索條件的幾乎是不太可能的事情,將會給服務器帶來極大的負擔,因此咱們須要爲指定的數據添加一個索引。
索引實現的細節並非咱們須要關心的事情,可是它爲哪些字段建立索引,怎麼指定,下面來講明:
每一個索引裏面必須有且只能有一個字段爲 document=Ture,這表明着haystack和搜索引擎將使用此字段的內容做爲索引進行檢索(primary field)
其餘的字段只是附屬的屬性,方便調用,並不作檢索的依據。
注意:若是一個字段設置了document=True,則通常約定此字段名爲text,這是ArticleIndex類裏面一向的寫法。
另外,咱們在text字段上提供了use_template=Ture。這容許咱們使用一個數據模板,來構建文檔搜索引擎索引。你應該在模板目錄下創建,也就是在
templates文件夾中創建一個新的模板,search/indexes/項目名/模型名_text.txt,而且將如下的內容放入txt文件中:
#在目錄「templates/search/indexes/應用名稱/」下建立「模型類名稱_text.txt」文件 {{ object.title }} {{ object.desc }} {{ object.content }}
這個數據模板的做用就是對
搜索模板默認在search/search.html中,下面的代碼足以讓你搜索運行:
<!DOCTYPE html> <html> <head> <title></title> <style> span.highlighted { color: red; } </style> </head> <body> {% load highlight %} {% if query %} <h3>搜索結果以下:</h3> {% for result in page.object_list %} {# <a href="/{{ result.object.id }}/">{{ result.object.title }}</a><br/>#} <a href="/{{ result.object.id }}/">{% highlight result.object.title with query max_length 2%}</a><br/> <p>{{ result.object.content|safe }}</p> <p>{% highlight result.content with query %}</p> {% empty %} <p>啥也沒找到</p> {% endfor %} {% if page.has_previous or page.has_next %} <div> {% if page.has_previous %} <a href="?q={{ query }}&page={{ page.previous_page_number }}">{% endif %}« 上一頁 {% if page.has_previous %}</a>{% endif %} | {% if page.has_next %}<a href="?q={{ query }}&page={{ page.next_page_number }}">{% endif %}下一頁 » {% if page.has_next %}</a>{% endif %} </div> {% endif %} {% endif %} </body> </html>
注意:page.object_list其實是SearchResult對象的列表。這些對象返回索引的全部數據。他們能夠經過{{ result.object }}來訪問,
配置完成以後,接下應該把數據庫中的數據放入索引。Haystack中自帶了一個命令工具:
python manage.py rebuild_index
新建一個ChineseAnalyzer.py文件:
import jieba from whoosh.analysis import Tokenizer, Token class ChineseTokenizer(Tokenizer): def __call__(self, value, positions=False, chars=False, keeporiginal=False, removestops=True, start_pos=0, start_char=0, mode='', **kwargs): t = Token(positions, chars, removestops=removestops, mode=mode, **kwargs) seglist = jieba.cut(value, cut_all=True) for w in seglist: t.original = t.text = w t.boost = 1.0 if positions: t.pos = start_pos + value.find(w) if chars: t.startchar = start_char + value.find(w) t.endchar = start_char + value.find(w) + len(w) yield t def ChineseAnalyzer(): return ChineseTokenizer()
保存在python安裝路徑的backends文件夾中(例如:D:\python3\Lib\site-packages\haystack\backends)
而後在該文件夾中找到一個whoosh_backend.py文件,更名爲whoosh_cn_backend.py
在內部添加:
from .ChineseAnalyzer import ChineseAnalyzer
而後查找到這行代碼:
analyzer=StemmingAnalyzer()
修改成:
analyzer=ChineseAnalyzer()
<form method='get' action="/search/" target="_blank"> <input type="text" name="q"> <input type="submit" value="查詢"> </form>