PyMongo:如何在MongoDB中批量更新巨大的JSON数据

克里斯·A

我正在从API提取JSON数据,输出如下:

[[{'employeeId': 1, 'lastName': 'Smith'}, {'employeeId': 2, 'lastName': 'Flores'}]]

列表中大约有25万个对象。我能够遍历列表中的对象并以这种方式update_one通过PyMongo进行操作:

json_this = json.dumps(json_list[0])
json_that = json.loads(json_this)
for x in json_that:
    collection.update_one({"employeeId": x['employeeId']},{"$set": x},upsert=True)

但是,如果有25万条记录,则需要花费很长时间。我正在尝试使用update_many但无法弄清楚如何正确转换/格式化此JSON列表以使用该update_many功能。任何指导将不胜感激。

谁-假面真灵魂

250K文档更新/插入数据库可能是一项艰巨的任务,您不能使用update_many筛选查询,并且每个字典之间的更新值都会改变。因此,使用下面的查询至少可以避免多次调用数据库,但是我不确定这对您的情况有多好,请注意,我是python的初学者,这是一个基本的代码,可以帮助您:

对于批量操作,最好的办法是PyMongo-bulk,由于.bulkWrite()的局限性,我们将250K条记录分成多个块:

from pymongo import UpdateOne
from pprint import pprint
import sys

json_this = json.dumps(json_list[0])
json_that = json.loads(json_this)

primaryBulkArr = []
secondaryBulkArr = []
thirdBulkArr = []

## Here we're splicing 250K records into 3 arrays, in case if we want to finish a chunk at a time,
 # No need to splice all at once - Finish end - to - end for one chunk & restart the process for another chunk from the index of the list where you left previously

for index, x in enumerate(json_that):
    if index < 90000:
        primaryBulkArr.append(
            UpdateOne({"employeeId": x['employeeId']}, {'$set': x}, upsert=True))
    elif index > 90000 and index < 180000:
        secondaryBulkArr.append(
            UpdateOne({"employeeId": x['employeeId']}, {'$set': x}, upsert=True))
    else:
        thirdBulkArr.append(
            UpdateOne({"employeeId": x['employeeId']}, {'$set': x}, upsert=True))

## Reason why I've spliced into 3 arrays is may be you can run below code in parallel if your DB & application servers can take it,
# At the end of the day irrespective of time taken only 3 DB calls are needed & this bulk op is much efficient.
try:
    result = collection.bulk_write(bulkArr)
    ## result = db.test.bulk_write(bulkArr, ordered=False)
    # Opt for above if you want to proceed on all dictionaries to be updated, even though an error occured in between for one dict
    pprint(result.bulk_api_result)
except:
    e = sys.exc_info()[0]
    print("An exception occurred ::", e) ## Get the ids failed if any & do re-try

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

如何使用pymongo更新Mongodb中的多个值?

来自分类Dev

如何在laravel 4中批量更新

来自分类Dev

Django:如何在事务中包装批量更新/插入操作?

来自分类Dev

如何在AngularJS中更新json文件中的数据?

来自分类Dev

如何在AppEngine数据存储区上执行批量更新

来自分类Dev

您如何在YouTrack中批量更新问题?

来自分类Dev

如何在Scala-ActiveRecord中批量更新

来自分类Dev

如何在pymongo中编写mongodb查询

来自分类Dev

如何使用Java在MongoDB中执行文档的批量更新?

来自分类Dev

如何在mongodb中更新数组元素

来自分类Dev

如何在kedro中处理巨大的数据集

来自分类Dev

如何使用python更新Elastic Search(Kibana)中可用的巨大Json数据

来自分类Dev

MongoDB使用外部数据批量更新

来自分类Dev

如何使用Java更新MongoDb中的数据?

来自分类Dev

如何在MongoDB中更新嵌套数组中的数据

来自分类Dev

如何使用pymongo更新Mongodb中的多个值?

来自分类Dev

如何在Eclipse中批量创建和更新标记?

来自分类Dev

如何在Scala-ActiveRecord中批量更新

来自分类Dev

如何在mongodb中批量获取数据

来自分类Dev

如何在mongodb更新中设置数据

来自分类Dev

在mongodb中批量更新数据

来自分类Dev

如何在mongoDB中构造JSON数据?

来自分类Dev

如何更新pymongo中的集合

来自分类Dev

如何在 Pandas 中编写巨大的数据框

来自分类Dev

如何在 SQLalchemy 中批量更新?

来自分类Dev

如何使用nodejs更新mongodb中的数据

来自分类Dev

无法更新pymongo中的数据

来自分类Dev

批量插入数据时如何在Cassandra中给出ttl?

来自分类Dev

如何更新mongodb中的数据