我有60万个文档的集合。大多数文件的结构如下
{
"_id" : ObjectId("53d86ef920ba274d5e4c8683"),
"checksum" : "2856caa9490e5c92aedde91330964488",
"content" : "<!DOCTYPE html PUBLIC \"-//W3C//DTD XHTML 1.0 Transitional//EN\" \"http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd\">\r\n<html xmlns=\"http://www.w3.org/1999/xhtml\" xml:lang=\"bn-bd\" lang=\"bn-bd\" dir=\"ltr\" " />\n <link rel=\"stylesheet\" href=\"/templates/beez_20/css/position.css\" type=\"text/css\" media=\"screen,projection\ef=\"/index.php/bn/contact-bangla/2013-0</body>\r\n</html>",
"date" : ISODate("2014-07-29T15:57:11.886Z"),
"filtered_content" : "",
"indexed" : true,
"category": 'raw',
"link_extracted" : 1,
"parsed" : true,
"title" : "Constituency 249_10th_En",
"url" : "http://www.somesite.com.bd/index.php/bn/bangla/2014-03-23-11-45-04?layout=edit&id=2143"
}
所有文档都具有date属性。现在,当我在下面编写查询时,将得到不确定的延迟时间来显示结果。
from pymongo import Connection
import datetime
con = Connection()
db = con.spider
pages = db.pages
today = datetime.datetime.combine( datetime.date.today(), datetime.datetime.min.time() )
c = pages.find({ u'category': 'news', u'date': {u'$gt': today } }, {u'title': 1, '_id': 0} )
for item in c:
print item
索引是
_id, url, parsed
如何在限制为可接受的时间范围内提高此查询的性能?任何坚实的答案,建议表示赞赏!
看起来像在上面添加了索引category
,date
将会有所帮助。
pages.createIndex({'date': 1, 'category': 1});
在pymongo中,索引的创建看起来像这样:
keys = [
("date", pymongo.ASCENDING),
("category", pymongo.ASCENDING)
]
pages.create_index(keys)
您最感兴趣的选项是:
name: custom name to use for this index - if none is given, a name will be generated
unique: if True creates a unique constraint on the index
我不希望日期/类别是唯一的。给索引起一个名字似乎是一个好习惯。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句