Ich versuche, ein Skript zu erstellen, das eine TXT-Datei mit mehreren Zeilen von YouTube-Nutzernamen aufnimmt, an die URL der YouTube-Benutzerhomepage anfügt und durchsucht Profildaten.Iterieren durch mehrere URLs aus TXT-Datei mit Python/BeautifulSoup
Der folgende Code gibt mir die Informationen, die ich für einen Benutzer haben möchte, aber ich habe keine Ahnung, wo ich anfangen soll, um mehrere URLs zu importieren und zu durchlaufen.
#!/usr/bin/env python
# -- coding: utf-8 --
from bs4 import BeautifulSoup
import re
import urllib2
# download the page
response = urllib2.urlopen("http://youtube.com/user/alxlvt")
html = response.read()
# create a beautiful soup object
soup = BeautifulSoup(html)
# find the profile info & display it
profileinfo = soup.findAll("div", { "class" : "user-profile-item" })
for info in profileinfo:
print info.get_text()
Hat jemand irgendwelche Empfehlungen? .
ZB wenn ich eine TXT-Datei, die gelesen:
username1
username2
username3
etc.
Wie könnte ich über Iterieren durch diejenigen gehen, um sie zu http://youtube.com/user/%s anhängt, und die Schaffung einer Schleife alle Infos zu ziehen?