Bitte entschuldigen Sie meine Unwissenheit, ich bin ein normaler Computerbenutzer und habe kein Wissen über Programmierung. Wie auch immer, meine Frage ist:Wie kann ich alle Artikel von einer Website abschaben (möglicherweise auch über einen RSS-Reader)?
Gibt es eine Möglichkeit zu erhalten (d. H. Wahrscheinlich "scrape" in Programmiersprache) alle Artikel auf einer bestimmten Tech-News-Website veröffentlicht? Ich möchte, dass die Ausgabe (Überschrift und Artikel und möglicherweise Datum und Autor) idealerweise als reiner Text erscheint, so dass ich sie in einem Korpus-Tool namens AntConc als Teil meiner persönlichen und nicht gewinnorientierten Recherche verwenden kann.
In der Tat wäre es super bequem, wenn ich es über meinen RSS-Feed-Reader (Feedly oder Inoreader) für ziemlich viele Websites tun könnte, aber das ist wahrscheinlich zu viel verlangt, so 'eins nach dem anderen' Scraping wäre auch in Ordnung.
Würde etwas wie Portia den Trick machen? Bitte denken Sie daran, dass ich nichts über Python usw. weiß, und ich brauche die Methode, die es gibt, sehr, sehr einfach und unkompliziert.
Danke
Vielen Dank Vivee für die Zeit nehmen, um zu antworten! Ich habe ein Konto bei Udemy und habe den Kurs überflogen, aber ich bin wahrscheinlich zu dick und beschäftigt, um es umzusetzen. Gäbe es eine andere und schnellere Art, all diesen Inhalt zu sammeln? Vielen Dank! – nnad
Ich habe ein Update in der Antwort bro –
Nochmals vielen Dank, Vivee, ich schätze Ihre Bemühungen sehr zu helfen! Ich werde die Links in einer Minute genauer untersuchen, aber im Moment ist es noch immer nicht nachvollziehbar, wie mein eigener RSS-Reader es mir ermöglichen würde, alle Artikel herunterzuladen, die je auf einer bestimmten Website seit dem Start der Website gepostet wurden. Wäre das einfache Web Scraping nicht einfacher? Nur fragen :/ – nnad