Ich möchte eine PHP-basierte Website durchsuchen es ein Suchfeld können wir eine Nummer in diesem Suchfeld eingeben, es rendert das Ergebnis gegen die eingegebene Zahl, wenn wir auf Senden Schaltfläche klicken oder Enter drücken, aber die URL ändert sich nicht. wie seine zeigt foo.com/res_17.php für jedes Ergebnis, aber für Crawlen wie mehr als tausend Datensätze, sollten Datensätze durch eindeutige IDs wie foo.com/res_17.php?id = 1001, foo.com/res_17 zugänglich sein. php? id = 1002 - foo.com/res_17.php?id=3450 so dass ich mit while loop auf sie zugreifen kann Wie kann ich das tun jede Lösung bitte helfen.wie crawl website mit statischer url in python
-1
A
Antwort
0
Ich habe Ihnen ein mein Skript
from urllib.request import urlopen
from bs4 import BeautifulSoup
import re
html = urlopen("http://en.wikipedia.org/wiki/Andrew_Ng")
bsObj = BeautifulSoup(html)
for link in bsObj.find("div", {"id":"bodyContent"}).findAll("a",
href=re.compile("^(/wiki/)((?!:).)*$")):
if 'href' in link.attrs:
print(link.attrs['href'])
Ausgabe als alle Artikel Andrew Ng Wikipedia präsentiert wird.
Verwandte Themen
- 1. Crawl Website-Inhalt von Python
- 2. Scrapy - Crawl ganze Website
- 3. Incremental crawl eine Website mit Scrapy
- 4. Googlebot Crawl URL mit Get-Parameter?
- 5. Software zu scrape/crawl Website URLs
- 6. Crawl Website von der Liste der Werte mit scrapy
- 7. Python crawl Tabellenelemente
- 8. Crawl-Website alle x Minuten/Sekunden mit Scrapy
- 9. Dynamische URL zu statischer URL Änderung
- 10. Statischer Effekt auf Python
- 11. .htaccess: Dynamische URL mit statischer URL neu schreiben
- 12. Crawl mehr Seiten mit Scrapy
- 13. Crawl Seiten nach dem Login mit einer anderen URL
- 14. Wie Website-URL Bildschirm
- 15. unbekannt Befehl: crawl Fehler
- 16. Open in einem neuen Tab funktioniert nicht wie mit s3 statischer Website und Cloudfront erwartet
- 17. Crawl-Sitemap mit ABOT
- 18. Einfaches PHP CMS mit Internationalisierung, statischer Website und Blog-Fähigkeiten?
- 19. Anklickbare Website URL
- 20. Crawl Mehrere Seiten von einer Website (BeautifulSoup, Requests, Python3)
- 21. Wie funktionieren Scrapy-Regeln mit Crawl Spider
- 22. Crawl durch JavaScript-Umleitung
- 23. Nutch Crawl funktioniert nicht
- 24. Python crawl Daten Klassenname enthält einige Klassennamen
- 25. scrape Url und Text von der Website mit lxml Python
- 26. Crawl mit Scrapy mit IP-Adresse
- 27. Crawl-Streaming-Tweets und historische Tweets mit Python
- 28. crawl dynamische Webseite mit htmlunit
- 29. Wie Jobstatus von Crawl Aufgaben in nutch
- 30. Wie testen externe URL oder Links in einer Django-Website?
Was ist dein Problem? –
http://fbise.edu.pk/res-ssc-II.php auf dieser Website Ergebnisse für Rolle # 100001-143293 stehen zur Verfügung, wie man sie kriecht ...? –