Ich werde mit einem neuen Projekt beginnen. Ich muss mit hundert Gigs von Daten in einer .NET-Anwendung umgehen. Es ist sehr früh, jetzt viel über dieses Projekt zu erzählen. Einige Übersicht ist folgendermaßen:Umgang mit Gigabyte Daten
- Viele schreibt und Lose auf denselben Tabellen liest, sehr Echtzeit
- Skalierung ist sehr wichtig, da die Client-Erweiterung von Datenbankservern besteht sehr häufig, damit die Anwendungsserver als auch
- voraussah, viel, viel Nutzung hinsichtlich der aggregierten Anfragen werden könnte
- Jede Reihe von Daten implementiert werden viele Attribute enthält mit
ich schlage/umgehen ha folgende ving als Lösung:
- Verwenden verteilten Hash-Tabelle Art Persistenz (nicht aber S3 Inhouse one)
- Verwenden Hadoop/Hive mag (jeder Ersatz in .NET?) für jeden Analyseprozess über die Knoten
- Impelement GUI in ASP.NET/Silverlight (mit vielen ajaxification, wo immer erforderlich)
Was denkt ihr? Mache ich hier einen Sinn?
"sehr Echtzeit" ist keine nützliche Aussage. Wenn Sie die Bewegung von Gletschern verfolgen müssen, ist "Echtzeit" "wirklich langsam". –