Ich möchte von mehreren Websites mit ähnlichen URLs wie https://woollahra.ljhooker.com.au/our-team, https://chinatown.ljhooker.com.au/our-team und https://bondibeach.ljhooker.com.au/our-team kratzen.Scraping mehrerer Webseiten mit Python
Ich habe bereits ein Skript geschrieben, das für die erste Website funktioniert, aber ich bin mir nicht sicher, wie ich es von den anderen beiden Websites kratzen soll.
Mein Code:
from urllib.request import urlopen as uReq
from bs4 import BeautifulSoup as soup
my_url = "https://woollahra.ljhooker.com.au/our-team"
page_soup = soup(page_html, "html.parser")
containers = page_soup.findAll("div", {"class":"team-details"})
for container in containers:
agent_name = container.findAll("div", {"class":"team-name"})
name = agent_name[0].text
phone = container.findAll("span", {"class":"phone"})
mobile = phone[0].text
print("name: " + name)
print("mobile: " + mobile)
Gibt es eine Möglichkeit, dass ich einfach den anderen Teil der URL-Liste kann (Woollahra, Chinatown, Bondi Beach), so dass das Skript durch jede Webseite Schleife den Code I mit Hast du schon geschrieben?
Machen Sie eine Liste URLs und iterieren durch sie und legen Sie einige Sekunden Schlaf zwischen ihnen –
Ich würde vorschlagen, 'lxml' als Parser zu verwenden, um die Leistung zu verbessern. Sie können 'SoupStrainer' auch verwenden, um relevante Segmente der Quelle zu analysieren, um die Leistung weiter zu verbessern. –