使用Beautifulsoup和Python进行Web抓取不起作用

舍德尔420

我正在尝试从以下页面获取网站地址列表:https : //www.wer-zu-wem.de/dienstleister/filmstudios.html

我的代码:

import requests
from bs4 import BeautifulSoup
result = requests.get("https://www.wer-zu-wem.de/dienstleister/filmstudios.html")
src = result.content
soup = BeautifulSoup(src, 'lxml')
links = soup.find_all('a', {'class': 'col-md-4 col-lg-5 col-xl-4 text-center text-lg-right'})
print(links)

import requests
from bs4 import BeautifulSoup

webLinksList = []

result = requests.get(
    "https://www.wer-zu-wem.de/dienstleister/filmstudios.html")
src = result.content
soup = BeautifulSoup(src, 'lxml')


website_Links = soup.find_all(
    'div', class_='col-md-4 col-lg-5 col-xl-4 text-center text-lg-right')


if website_Links != "":
    print("List is empty")
for website_Link in website_Links:
    try:
        realLink = website_Link.find(
            "a", attrs={"class": "btn btn-primary external-link"})
        webLinksList.append(featured_challenge.attrs['href'])
    except:
        continue

for link in webLinksList:
    print(link)

开头会显示“列表为空”,而我尝试过的任何操作都不会将任何数据添加到列表中。

三菱

请尝试以下操作以获得通往外部网站的所有链接:

import requests
from bs4 import BeautifulSoup

link = "https://www.wer-zu-wem.de/dienstleister/filmstudios.html"

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.150 Safari/537.36'
}

result = requests.get(link,headers=headers)
soup = BeautifulSoup(result.text,'lxml')
for links in soup.find_all('a',{'class':'external-link'}):
    print(links.get("href"))

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

我正在尝试删除使用Python和BeautifulSoup抓取的Web链接的重复数据,但是它不起作用

来自分类Dev

BeautifulSoup 和抓取 href 不起作用

来自分类Dev

使用__RequestAccessToken的python web抓取登录不起作用

来自分类Dev

使用Python,BeautifulSoup进行Web抓取

来自分类Dev

使用python和BeautifulSoup进行网络抓取

来自分类Dev

Python - 使用 BeautifulSoup 和 Urllib 进行抓取

来自分类Dev

使用Python和beautifulsoup进行Web抓取:BeautifulSoup函数可以保存什么?

来自分类Dev

使用xpath抓取Web内容将不起作用

来自分类Dev

使用请求不起作用的python web抓取表单数据

来自分类Dev

使用 python3 和 bs4 抓取 html 表不起作用

来自分类Dev

抓取Google Web结果不起作用

来自分类Dev

使用python 2.7和beautifulsoup 4进行网站抓取

来自分类Dev

Python 和 BeautifulSoup:为什么我的 if 条件不起作用

来自分类Dev

使用硒抓取内容不起作用

来自分类Dev

在Wikipedia上使用BeautifulSoup进行Web抓取

来自分类Dev

使用BeautifulSoup到Dataframe进行Web抓取

来自分类Dev

Python BeautifulSoup按索引对td标签进行排序,[0]和[2]有效,但[1]不起作用

来自分类Dev

使用Cookie进行抓取,即使使用“ credentials:'include'”也不起作用

来自分类Dev

使用 BeautifulSoup 进行网页抓取 -- Python

来自分类Dev

使用 Python BeautifulSoup 进行网页抓取

来自分类Dev

python,beautifulsoup)如果语句不起作用

来自分类Dev

如何使用BeautifulSoup和Python抓取页面?

来自分类Dev

使用 Beautifulsoup 和 Python 抓取复杂的表格

来自分类Dev

使用 Python 和 BeautifulSoup 抓取 alt 标签

来自分类Dev

使用R和RVest进行Web抓取

来自分类Dev

使用python,BeautifulSoup和pandas'read_html'进行网页抓取的问题

来自分类Dev

使用BeautifulSoup遍历URL列表进行Web抓取

来自分类Dev

使用BeautifulSoup进行Web抓取-无法提取表行

来自分类Dev

使用BGTaskScheduler进行的后台抓取与调试仿真完美结合,但在实践中却绝不起作用

Related 相关文章

  1. 1

    我正在尝试删除使用Python和BeautifulSoup抓取的Web链接的重复数据,但是它不起作用

  2. 2

    BeautifulSoup 和抓取 href 不起作用

  3. 3

    使用__RequestAccessToken的python web抓取登录不起作用

  4. 4

    使用Python,BeautifulSoup进行Web抓取

  5. 5

    使用python和BeautifulSoup进行网络抓取

  6. 6

    Python - 使用 BeautifulSoup 和 Urllib 进行抓取

  7. 7

    使用Python和beautifulsoup进行Web抓取:BeautifulSoup函数可以保存什么?

  8. 8

    使用xpath抓取Web内容将不起作用

  9. 9

    使用请求不起作用的python web抓取表单数据

  10. 10

    使用 python3 和 bs4 抓取 html 表不起作用

  11. 11

    抓取Google Web结果不起作用

  12. 12

    使用python 2.7和beautifulsoup 4进行网站抓取

  13. 13

    Python 和 BeautifulSoup:为什么我的 if 条件不起作用

  14. 14

    使用硒抓取内容不起作用

  15. 15

    在Wikipedia上使用BeautifulSoup进行Web抓取

  16. 16

    使用BeautifulSoup到Dataframe进行Web抓取

  17. 17

    Python BeautifulSoup按索引对td标签进行排序,[0]和[2]有效,但[1]不起作用

  18. 18

    使用Cookie进行抓取,即使使用“ credentials:'include'”也不起作用

  19. 19

    使用 BeautifulSoup 进行网页抓取 -- Python

  20. 20

    使用 Python BeautifulSoup 进行网页抓取

  21. 21

    python,beautifulsoup)如果语句不起作用

  22. 22

    如何使用BeautifulSoup和Python抓取页面?

  23. 23

    使用 Beautifulsoup 和 Python 抓取复杂的表格

  24. 24

    使用 Python 和 BeautifulSoup 抓取 alt 标签

  25. 25

    使用R和RVest进行Web抓取

  26. 26

    使用python,BeautifulSoup和pandas'read_html'进行网页抓取的问题

  27. 27

    使用BeautifulSoup遍历URL列表进行Web抓取

  28. 28

    使用BeautifulSoup进行Web抓取-无法提取表行

  29. 29

    使用BGTaskScheduler进行的后台抓取与调试仿真完美结合,但在实践中却绝不起作用

热门标签

归档