使用python请求获取所有页面

曼尼什·古普塔(Manish Gupta)

我正在使用API​​从网站获取订单。问题在于,一次只能提取20个订单。我发现我需要使用分页迭代器,但不知道要使用它。如何一次获取所有订单。

我的代码:

def search_orders(self):
    headers = {'Authorization':'Bearer %s' % self.token,'Content-Type':'application/json',}
    url = "https://api.flipkart.net/sellers/orders/search"
    filter = {"filter": {"states": ["APPROVED","PACKED"],},}
    return requests.post(url, data=json.dumps(filter), headers=headers)

这是文档的链接。

文献资料

阿南德·库玛(Anand S Kumar)

您需要执行文档中建议的操作-

首次调用Search API会根据pageSize值返回有限数量的结果。调用响应的nextPageURL字段中返回的URL,将获得搜索结果的后续页面。

nextPageUrl-字符串-对该URL的GET调用将获取下一页结果。最后一页不存在

(强调我的)

您可以response.json()用来获取响应的json。然后,您可以检查标志--hasMore以查看是否还有更多标志,使用requests.get()来获取下一页的响应,并继续执行直到hasMore错误为止例子 -

def search_orders(self):
    headers = {'Authorization':'Bearer %s' % self.token,'Content-Type':'application/json',}
    url = "https://api.flipkart.net/sellers/orders/search"
    filter = {"filter": {"states": ["APPROVED","PACKED"],},}
    s = requests.Session()
    response = s.post(url, data=json.dumps(filter), headers=headers)
    orderList = []
    resp_json = response.json()
    orderList.append(resp_json["orderItems"])
    while resp_json.get('hasMore') == True:
        response = s.get('"https://api.flipkart.net/sellers{0}'.format(resp_json['nextPageUrl']))
        resp_json = response.json()
        orderList.append(resp_json["orderItems"])
    return orderList

上面的代码应返回完整的订单列表。

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

如何使用Python中的请求从Reddit页面的帖子中获取所有图像链接

来自分类Dev

使用tampermonkey获取与页面相关的所有请求的标头

来自分类Dev

使用PHP从Curl或任何库中获取网站页面请求的所有链接

来自分类Dev

如何使用 Angular 中的 observable 获取 API http 请求的所有页面中的数据?

来自分类Dev

无法使用Python请求获取整个页面

来自分类Dev

Python请求-在有页面时获取并保存图像

来自分类Dev

不能使用python请求模块获取所有cookie信息

来自分类Dev

使用特定的span类python硒获取页面中的所有元素

来自分类Dev

从API获取所有页面

来自分类Dev

如何在http请求python中获取所有结果

来自分类Dev

Python从谷歌搜索结果页面获取所有链接

来自分类Dev

如何通过selenium python从所有页面获取数据

来自分类Dev

如何使用Bitbucket API获取所有拉取请求?

来自分类Dev

无法使用请求从网页获取所有表格内容

来自分类Dev

如何使用Bitbucket API获取所有拉取请求?

来自分类Dev

使用ruby capybara获取页面的所有href链接

来自分类Dev

如何使用 zomato API 获取菜单的所有页面?

来自分类Dev

使用 Facebook Graph API 从页面获取所有对话

来自分类Dev

wagtail - 如何使用 slug 获取页脚中的所有页面

来自分类Dev

从页面缓存中获取所有页面

来自分类Dev

如何获取为页面加载的所有请求的响应正文?

来自分类Dev

使用python从网站获取所有网址

来自分类Dev

使用Python请求抓取页面

来自分类Dev

如何使用jQuery和Javascript禁用页面中的所有AJAX请求?

来自分类Dev

如何从Facebook帐户获取所有页面

来自分类Dev

从Wikipedia上的页面获取所有链接

来自分类Dev

Facebook-从页面获取所有消息

来自分类Dev

如何从Facebook帐户获取所有页面

来自分类Dev

从页面获取所有文本元素

Related 相关文章

  1. 1

    如何使用Python中的请求从Reddit页面的帖子中获取所有图像链接

  2. 2

    使用tampermonkey获取与页面相关的所有请求的标头

  3. 3

    使用PHP从Curl或任何库中获取网站页面请求的所有链接

  4. 4

    如何使用 Angular 中的 observable 获取 API http 请求的所有页面中的数据?

  5. 5

    无法使用Python请求获取整个页面

  6. 6

    Python请求-在有页面时获取并保存图像

  7. 7

    不能使用python请求模块获取所有cookie信息

  8. 8

    使用特定的span类python硒获取页面中的所有元素

  9. 9

    从API获取所有页面

  10. 10

    如何在http请求python中获取所有结果

  11. 11

    Python从谷歌搜索结果页面获取所有链接

  12. 12

    如何通过selenium python从所有页面获取数据

  13. 13

    如何使用Bitbucket API获取所有拉取请求?

  14. 14

    无法使用请求从网页获取所有表格内容

  15. 15

    如何使用Bitbucket API获取所有拉取请求?

  16. 16

    使用ruby capybara获取页面的所有href链接

  17. 17

    如何使用 zomato API 获取菜单的所有页面?

  18. 18

    使用 Facebook Graph API 从页面获取所有对话

  19. 19

    wagtail - 如何使用 slug 获取页脚中的所有页面

  20. 20

    从页面缓存中获取所有页面

  21. 21

    如何获取为页面加载的所有请求的响应正文?

  22. 22

    使用python从网站获取所有网址

  23. 23

    使用Python请求抓取页面

  24. 24

    如何使用jQuery和Javascript禁用页面中的所有AJAX请求?

  25. 25

    如何从Facebook帐户获取所有页面

  26. 26

    从Wikipedia上的页面获取所有链接

  27. 27

    Facebook-从页面获取所有消息

  28. 28

    如何从Facebook帐户获取所有页面

  29. 29

    从页面获取所有文本元素

热门标签

归档