Ich möchte JSON-Ressourcen rekursiv von einem REST-fähigen HTTP-Endpunkt herunterladen und diese in einer lokalen Verzeichnisstruktur speichern. Dabei werden Links zu verwandten Ressourcen in Form von JSON-Strings mit HTTP-URLs verwendet. Wget scheint ein wahrscheinliches Werkzeug für den Job zu sein, obwohl sein rekursiver Download anscheinend auf HTML-Hyperlinks und CSS-url() - Referenzen beschränkt ist.Ressourcen rekursiv vom RESTful-Webdienst herunterladen
Die Ressourcen in Frage sind Swagger Dokumentationsdateien ähnlich wie this one, obwohl in meinen Fällen alle URLs absolut sind. Das Swagger-Schema ist ziemlich kompliziert, aber es wäre ausreichend, einer beliebigen Zeichenfolge zu folgen, die wie eine absolute HTTP (S) -URL aussieht. Noch besser wäre es, absoluten oder relativen Pfaden zu folgen, die in 'Pfad'-Eigenschaften angegeben sind.
Kann jemand einen allgemeinen rekursiven Crawler vorschlagen, der tun würde, was ich hier will, oder eine leichte Art des Scripts wget oder ähnliches, um es zu erreichen?
Wenn jemand neugierig ist, versuche ich dies zu tun, um Änderungen unserer In-Entwicklung API im Laufe der Zeit zu verfolgen - vor einer Veröffentlichung konnten wir die aktuelle Dokumentation mit einem Schnappschuss von der vorherigen Version zu vergleichen. – yjo
Ich kann Ihnen nicht vorschlagen, was Sie fragen, aber für allgemeine Informationen ist Swagger 2.0 im Allgemeinen eine Einzelseiten-Deklaration und nicht mehrseitig (es kann * bei Bedarf mehrseitig sein), so dass Diffs einfacher wären . – Ron
@webron - klingt wie das wäre eine Verbesserung! Leider werden unsere Swagger-Dokumente semi-automatisch generiert (mit [swagger-springmvc] (https://github.com/martypitt/swagger-springmvc)) und ich denke nicht, dass Swagger v2.0 eine Option ist. – yjo