Angenommen, wir haben eine Website www.example.com und ich brauche 5 bestimmte Elemente von der Website, habe ich jedes Element gefunden und erklärte sie BeautifulSoup verwenden.Scraping bestimmte Teile einer Webseite [Python]
g_data1 = soup.find_all("td", {"class": "title"})
for item in g_data1:
try
print item.****[3].text
except:
pass
Jetzt muss ich diese Informationen in einer CSV-Datei **** Namen speichern csv Dies ist mein Code für den Versuch, es in der CSV-Datei zu speichern.
def save_csv(f, tvseries):
'''
Output a CSV file containing highest ranking TV-series.
'''
import urllib2
url = *example url*
response = urllib2.urlopen(url)
with open('****.csv', 'w') as f:
f.write(response.read())
Im erhalten die gesamte hTML-Webseite .. weil ich habe erklärt, offensichtlich ist es die uRL zu greifen, aber kann mir jemand erklären, eine andere Art von Ansatz, weil ich nicht wirklich verstehen, wie man: L
mit freundlichen Grüßen
* UPDATE * Ich habe die einfachste Art und Weise versucht, dies zu tun: c = csv.writer (open ("tvseries.csv", "wb")) c.writerow ([ 'Titel', 'Bewertung' , 'Genre', 'Schauspieler', 'Laufzeit']) – 1337
Sie haben nicht wirklich eine Frage gestellt. Der erste Teil Ihres Codes ist (mindestens) nicht richtig formatiert. Was meinst du mit dem ****? Wenn Sie die Liste der Elemente haben, müssen Sie diese Liste an save_csv übergeben (...) und in Ihre Ausgabedatei schreiben –
Es tut mir leid ich versehentlich gedrückt: PI bearbeitet es: * UPDATE * Ich habe den einfachsten Weg versucht Um dies zu tun: c = csv.writer (offen ("***. csv", "wb")) c.writerow (['Titel', '***', '***', '* ** ',' **** ']) Jetzt habe ich die erste Zeile, aber das ist, weil ich es manuell in den Writerow gesetzt habe. Ich muss die Daten, die ich von g_data1 erhalten habe, in die CSV-Datei eingeben, aber ich verstehe nicht, wie. Ich bekomme immer noch die gesamte Website ausgedruckt ... und alles steht in der ersten Zeile: / – 1337