2016-04-07 29 views
1

Angenommen, wir haben eine Website www.example.com und ich brauche 5 bestimmte Elemente von der Website, habe ich jedes Element gefunden und erklärte sie BeautifulSoup verwenden.Scraping bestimmte Teile einer Webseite [Python]

g_data1 = soup.find_all("td", {"class": "title"}) 

for item in g_data1: 
try 
print item.****[3].text 
except: 
pass 

Jetzt muss ich diese Informationen in einer CSV-Datei **** Namen speichern csv Dies ist mein Code für den Versuch, es in der CSV-Datei zu speichern.

def save_csv(f, tvseries): 
''' 
Output a CSV file containing highest ranking TV-series. 
''' 
import urllib2 

url = *example url* 
response = urllib2.urlopen(url) 

with open('****.csv', 'w') as f: 
    f.write(response.read()) 

Im erhalten die gesamte hTML-Webseite .. weil ich habe erklärt, offensichtlich ist es die uRL zu greifen, aber kann mir jemand erklären, eine andere Art von Ansatz, weil ich nicht wirklich verstehen, wie man: L

mit freundlichen Grüßen

+0

* UPDATE * Ich habe die einfachste Art und Weise versucht, dies zu tun: c = csv.writer (open ("tvseries.csv", "wb")) c.writerow ([ 'Titel', 'Bewertung' , 'Genre', 'Schauspieler', 'Laufzeit']) – 1337

+0

Sie haben nicht wirklich eine Frage gestellt. Der erste Teil Ihres Codes ist (mindestens) nicht richtig formatiert. Was meinst du mit dem ****? Wenn Sie die Liste der Elemente haben, müssen Sie diese Liste an save_csv übergeben (...) und in Ihre Ausgabedatei schreiben –

+0

Es tut mir leid ich versehentlich gedrückt: PI bearbeitet es: * UPDATE * Ich habe den einfachsten Weg versucht Um dies zu tun: c = csv.writer (offen ("***. csv", "wb")) c.writerow (['Titel', '***', '***', '* ** ',' **** ']) Jetzt habe ich die erste Zeile, aber das ist, weil ich es manuell in den Writerow gesetzt habe. Ich muss die Daten, die ich von g_data1 erhalten habe, in die CSV-Datei eingeben, aber ich verstehe nicht, wie. Ich bekomme immer noch die gesamte Website ausgedruckt ... und alles steht in der ersten Zeile: / – 1337

Antwort

0

Sie sollten das Csv-Modul von Python verwenden. Speziell die CSVWriter.
Nehmen Sie die Textelemente, die Sie mit BeautifulSoup aufgenommen haben, in die CSV-Datei.

Verwandte Themen