BeautifulSoup을 통한 Google의 정확한 웹 사이트 링크

매니쉬 티 와리

BeautifulSoup을 사용하여 Google을 검색하고 첫 번째 링크를 열고 싶습니다. 그러나 링크를 열면 오류가 표시됩니다. 내가 생각하는 이유는 Google이 웹 사이트의 정확한 링크를 제공하지 않기 때문에 URL에 여러 매개 변수를 추가했기 때문입니다. 정확한 URL을 얻는 방법?

인용 태그 를 사용하려고 할 때 작동했지만 큰 URL의 경우 생성 문제가 발생했습니다.

난 soup.h3.a을 사용하여 얻는 제 링크 [ 'HREF'] [7]은 ' http://www.wikipedia.com/wiki/White_holes&sa=U&ved=0ahUKEwi_oYLLm_rUAhWJNI8KHa5SClsQFggbMAI&usg=AFQjCNGN-vlBvbJ9OPrnq40d0_b8M0KFJQ '

내 코드는 다음과 같습니다.

import requests
from bs4 import Beautifulsoup
r = requests.get('https://www.google.com/search?q=site:wikipedia.com+Black+hole&gbv=1&sei=YwHNVpHLOYiWmQHk3K24Cw')
soup = BeautifulSoup(r.text, "html.parser")
print(soup.h3.a['href'][7:])
l' L' l

반환 된 문자열을 분할 할 수 있습니다.

url = soup.h3.a['href'][7:].split('&')
print(url[0])

이 기사는 인터넷에서 수집됩니다. 재 인쇄 할 때 출처를 알려주십시오.

침해가 발생한 경우 연락 주시기 바랍니다[email protected] 삭제

에서 수정
0

몇 마디 만하겠습니다

0리뷰
로그인참여 후 검토

관련 기사

분류에서Dev

BeautifulSoup을 사용한 웹 크롤링

분류에서Dev

Selenium 웹 드라이버로 Google을 통한 링크 클릭

분류에서Dev

BeautifulSoup to Dataframe을 사용한 웹 스크랩

분류에서Dev

Python (Beautifulsoup)을 사용한 웹 스크랩

분류에서Dev

BeautifulSoup을 사용한 웹 스크래핑

분류에서Dev

beautifulsoup을 사용하여 HTML 웹 사이트 ID의 특정 부분 스크랩

분류에서Dev

웹 사이트의 모든 링크에 대한 동적 페이지 템플릿을 만들려고합니다.

분류에서Dev

Google Play 웹 사이트에서 무한 스크롤의 모든 링크를 긁어내는 방법

분류에서Dev

Python / BeautifulSoup을 사용한 웹 스크래핑 : 프로필에 대한 여러 링크가있는 사이트> 프로필 콘텐츠 필요

분류에서Dev

Python / BeautifulSoup을 사용한 웹 스크래핑 : 프로필에 대한 여러 링크가있는 사이트> 프로필 콘텐츠 필요

분류에서Dev

무작위로 선택한 사진을 지정된 링크에서 웹 페이지로 통합

분류에서Dev

스크래피 / 파이썬으로 웹 크롤링을 통한 연락처 정보 추출

분류에서Dev

.htaccess를 사용하여 특정 IP 범위에 대한 웹 사이트의 특정 링크 차단

분류에서Dev

VBA 이메일의 "단어"에 대한 웹 링크 설정

분류에서Dev

BeautifulSoup을 사용하여 특정 웹 사이트 스크래핑

분류에서Dev

BeautifulSoup을 활용하여 링크 제목 및 URL에 대한 웹 페이지 스크랩

분류에서Dev

BeautifulSoup을 사용하여 웹 페이지에서 특정 링크 스크래핑

분류에서Dev

SharePoint 사이트의 웹 API 통합을위한 Azure Active Directory v2.0 쿼리

분류에서Dev

크롤링 할 웹 사이트에서 BeautifulSoup의 클래스 이름을 찾을 수 없습니다.

분류에서Dev

웹 사이트의 sitemap.xml에서 특정 .xml에 대한 링크 가져 오기

분류에서Dev

NHibernate 응답을 통한 웹 API 사용자 정의 직렬화

분류에서Dev

Python을 사용하여 동일한 웹 사이트의 페이지 목록을 스크랩하는 웹

분류에서Dev

Opaleye의 링크 테이블을 통한 어레이 집계

분류에서Dev

스크래피 스파이더가 웹 사이트의 한 부분을 너무 오래 크롤링하지 않도록 방지

분류에서Dev

Storm Crawler- 인증이 필요한 웹 사이트 크롤링

분류에서Dev

BeautifulSoup을 사용한 웹 사이트 스크랩 : TypeError : 'NoneType'개체를 호출 할 수 없습니다.

분류에서Dev

Python, BeautifulSoup을 사용한 웹 스크래핑

분류에서Dev

Python BeautifulSoup을 사용한 웹 스크래핑

분류에서Dev

웹 사이트에 대한 Android ImageView 링크

Related 관련 기사

  1. 1

    BeautifulSoup을 사용한 웹 크롤링

  2. 2

    Selenium 웹 드라이버로 Google을 통한 링크 클릭

  3. 3

    BeautifulSoup to Dataframe을 사용한 웹 스크랩

  4. 4

    Python (Beautifulsoup)을 사용한 웹 스크랩

  5. 5

    BeautifulSoup을 사용한 웹 스크래핑

  6. 6

    beautifulsoup을 사용하여 HTML 웹 사이트 ID의 특정 부분 스크랩

  7. 7

    웹 사이트의 모든 링크에 대한 동적 페이지 템플릿을 만들려고합니다.

  8. 8

    Google Play 웹 사이트에서 무한 스크롤의 모든 링크를 긁어내는 방법

  9. 9

    Python / BeautifulSoup을 사용한 웹 스크래핑 : 프로필에 대한 여러 링크가있는 사이트> 프로필 콘텐츠 필요

  10. 10

    Python / BeautifulSoup을 사용한 웹 스크래핑 : 프로필에 대한 여러 링크가있는 사이트> 프로필 콘텐츠 필요

  11. 11

    무작위로 선택한 사진을 지정된 링크에서 웹 페이지로 통합

  12. 12

    스크래피 / 파이썬으로 웹 크롤링을 통한 연락처 정보 추출

  13. 13

    .htaccess를 사용하여 특정 IP 범위에 대한 웹 사이트의 특정 링크 차단

  14. 14

    VBA 이메일의 "단어"에 대한 웹 링크 설정

  15. 15

    BeautifulSoup을 사용하여 특정 웹 사이트 스크래핑

  16. 16

    BeautifulSoup을 활용하여 링크 제목 및 URL에 대한 웹 페이지 스크랩

  17. 17

    BeautifulSoup을 사용하여 웹 페이지에서 특정 링크 스크래핑

  18. 18

    SharePoint 사이트의 웹 API 통합을위한 Azure Active Directory v2.0 쿼리

  19. 19

    크롤링 할 웹 사이트에서 BeautifulSoup의 클래스 이름을 찾을 수 없습니다.

  20. 20

    웹 사이트의 sitemap.xml에서 특정 .xml에 대한 링크 가져 오기

  21. 21

    NHibernate 응답을 통한 웹 API 사용자 정의 직렬화

  22. 22

    Python을 사용하여 동일한 웹 사이트의 페이지 목록을 스크랩하는 웹

  23. 23

    Opaleye의 링크 테이블을 통한 어레이 집계

  24. 24

    스크래피 스파이더가 웹 사이트의 한 부분을 너무 오래 크롤링하지 않도록 방지

  25. 25

    Storm Crawler- 인증이 필요한 웹 사이트 크롤링

  26. 26

    BeautifulSoup을 사용한 웹 사이트 스크랩 : TypeError : 'NoneType'개체를 호출 할 수 없습니다.

  27. 27

    Python, BeautifulSoup을 사용한 웹 스크래핑

  28. 28

    Python BeautifulSoup을 사용한 웹 스크래핑

  29. 29

    웹 사이트에 대한 Android ImageView 링크

뜨겁다태그

보관