Es ist erwiesen, dass ein künstliches neuronales Netz mit nur einer versteckten Schicht ist ein universal approximator; das heißt, unter richtiger Parametrisierung kann es sich jeder stetigen Funktion annähern (siehe universal approximation theorem). Noch wichtiger ist, als die Wikipedia article erwähnt:
Arbeit von Hava Siegelmann und Eduardo D. Sontag einen Beweis zur Verfügung gestellt hat, dass eine bestimmte wiederkehrende Architektur mit rationalen geschätzten Gewichten (im Gegensatz zu voller Genauigkeit reeller Zahl bewertet Gewichten gegen) hat die volle Leistung einer Universal Turing Machine mit einer endlichen Anzahl von Neuronen und linearen Verbindungen.
Dies bedeutet, dass, zumindest in der Theorie, ein neuronales Netz genauso schlau ist wie Ihr teurer PC. Und dies ist wahr, ohne alle modernen Erweiterungen zu berücksichtigen, z. wie in Long-Short Term Memory Netzwerken. Wie einer der Kommentare erwähnt, ist das eigentliche Problem jedoch Lernfähigkeit, d. H. Wie man den richtigen Parametersatz für die betreffende Aufgabe findet.
Bevor ich das auch dachte, denke ich jetzt, dass unsere Gehirne völlig anders funktionieren. –
es ist nicht wirklich Regression, vor allem nicht, wenn es um moderne Netzwerke geht, die Zustand, Gedächtnis, Aufmerksamkeitsmechanismus usw. haben. Ja, wir haben vor 60 Jahren mit Regressoren und basaler Raumaufteilung begonnen, aber das ist ein sehr kleines Bild. ähnlich wie das Gehirn, das vereinfacht werden könnte als "das ist nur ein Haufen elektrischer Impulse, die zwischen Neuronen wandern" oder noch tiefer "nur ein paar chemische Reaktionen, die Unterschiede in den Potentialen verursachen". Die lustige Sache, "nur eine Regression" kann wahrscheinlich einen perfekten Simulator der Welt modellieren. Die Frage ist ** wie man lernt **, das ist das Problem. – lejlot
Danke :) Das klingt vernünftig. Gute Argumentation :)! –