Ich studiere Python. Ich möchte Inhalte auf einer URL erhalten. Holen Sie sich den gesamten Text in einem Titel auf der Website und speichern Sie ihn in der Datei .txt. Können Sie mir ein Codebeispiel zeigen?Crawl Website-Inhalt von Python
-1
A
Antwort
0
Von Get all text in one title on the website
Ich nehme an, Sie meinen, den Titel der Seite zu bekommen? Zum einen
, müssen Sie BeautifulSoup
Wenn Sie pip
haben, verwenden
pip install beautifulsoup4
nun auf den Code:
from bs4 import BeautifulSoup
from requests import get
r = get(url).text
soup = BeautifulSoup(r, 'html.parser')
title = soup.title.string #I save the title to a variable rather then jus
with open('url.txt', 'w') as f:
f.write(title)
Jetzt, wo immer Sie haben das Skript gespeichert, wird eine Datei namens url.txt
mit der URL haben.
+0
'suppe = BeautifulSoup (r, 'lxml')', 'lxml' arbeitet schneller als' html.parser' – Jeril
Verwandte Themen
- 1. Python crawl Tabellenelemente
- 2. Python crawl Daten Klassenname enthält einige Klassennamen
- 3. Nutch Crawl - Löschen von Segmenten bei jedem Crawl Implikationen
- 4. Python Scrapy: Crawl von der lokalen Datei: Content-Type undefined
- 5. crawl Daten von "angular.callbacks" Web
- 6. # # Links von Scrapy crawl löschen
- 7. unbekannt Befehl: crawl Fehler
- 8. Apache Nutch Neustart Crawl
- 9. Scrapy authentifizierte Crawl
- 10. Crawl über Sachen
- 11. Crawl-Sitemap mit ABOT
- 12. Crawl durch JavaScript-Umleitung
- 13. Crawl-Streaming-Tweets und historische Tweets mit Python
- 14. ESLint crawl ES6 Module
- 15. Scrapy - Crawl ganze Website
- 16. MOSS Crawl-Kontoberechtigungen durchsuchen
- 17. Nutch Crawl funktioniert nicht
- 18. Empty Nutch crawl list
- 19. Crawl eine große Anzahl von Webseiten
- 20. Scrapy crawl nicht alle Daten von Seite
- 21. Crawl Links von sitemap.xml über wget Befehl
- 22. Wie Jobstatus von Crawl Aufgaben in nutch
- 23. Crawl mehr Seiten mit Scrapy
- 24. wie crawl website mit statischer url in python
- 25. Crawl Echtzeit Google Finanzen Preis
- 26. Scrapy Crawl mehrere Spinnen anschließend
- 27. crawl dynamische Webseite mit htmlunit
- 28. Leere CSV nach Scrapy Crawl
- 29. Crawl-Seite, die Anmeldung mit Anemone erfordert
- 30. Wie scrapy crawl zu speichern Command Ausgabe
Google BeautifulSoup und/oder Scrapy. Es gibt viele Codebeispiele da draußen. –
Es gibt viele Beispiele in anderen Fragen zu StackOverflow. – furas