我已经使用python从可从互联网链接获得的json文件中获取信息,并将想要的部分保存在csv中。我的代码适用于1个文件,但是有多个文件(我有不同的链接)。json文件的格式完全相同(来自我执教的联赛中的体育比赛的数据)。
我的代码如下所示:
import csv
import json
import pandas as pd
import requests
website = 'https://www.diferentwebsites.json'
r = requests.get(website)
contents = r.json()
然后我从json中抓取了一些元素,并将其另存为csv(实际上是2个csv,每个团队一个)...(后来我将其用于所有游戏)。我今年通过每次手动粘贴链接100次运行代码来完成这项工作,然后运行一行以合并所有csvs(我确信这是“更好的方式”,但它“有效”)
有没有一种简单的方法来制作网站链接列表(例如在文本文件或单独的csv中)并执行“针对每个”类型的行,以便我在列表中的每个网站上运行我的代码以为整个网站创建csv季节?
您是否尝试过将所有站点放入列表,然后遍历每个站点?
import csv
import json
import pandas as pd
import requests
websites = ['a','b','c']
contents_list = []
for site in websites:
website = site
r = requests.get(website)
contents = r.json()
contents_list.append(contents)
如果文件中有全部文件,则可以打开文件并循环浏览并创建列表,然后使用上述方法
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句