2013-07-20 2 views
5

Ich habe im ganzen Internet gesucht und kann kein Tutorial finden, wie man die SoundTouch library für Beat-Erkennung verwendet.iOS SoundTouch Framework BPM Erkennung Beispiel

(Anmerkung:... Ich habe keine C++ Erfahrung vor diesem Ich weiß C, Objective-C und Java Also habe ich einige dieser verkorkste können, aber es kompiliert)

Ich fügte hinzu, die framework mein Projekt und verwaltet die folgenden zu kompilieren:

NSString *path = [[NSBundle mainBundle] pathForResource:@"song" ofType:@"wav"]; 

NSData *data = [NSData dataWithContentsOfFile:path]; 

player =[[AVAudioPlayer alloc] initWithData:data error:NULL]; 

player.volume = 1.0; 

player.delegate = self; 

[player prepareToPlay]; 
[player play]; 

NSUInteger len = [player.data length]; // Get the length of the data 

soundtouch::SAMPLETYPE sampleBuffer[len]; // Create buffer array 

[player.data getBytes:sampleBuffer length:len]; // Copy the bytes into the buffer 

soundtouch::BPMDetect *BPM = new soundtouch::BPMDetect(player.numberOfChannels, [[player.settings valueForKey:@"AVSampleRateKey"] longValue]); // This is working (tested) 

BPM->inputSamples(sampleBuffer, len); // Send the samples to the BPM class 

NSLog(@"Beats Per Minute = %f", BPM->getBpm()); // Print out the BPM - currently returns 0.00 for errors per documentation 

Der inputSamples(*samples, numSamples) Song Byteinformationen verwirrt mich.

Wie bekomme ich diese Informationen aus einer Song-Datei?

Ich versuchte mit memcpy(), aber es scheint nicht zu funktionieren.

Wer hat irgendwelche Gedanken?

Antwort

1

Nach Stunden und Stunden der Fehlersuche und die begrenzte Dokumentation im Web zu lesen, geändert ich ein paar Dinge, bevor auf dem Stolpern: Sie müssen numSamples von numberOfChannels in der inputSamples() Funktion teilen.

Mein letzter Code ist wie folgt:

NSString *path = [[NSBundle mainBundle] pathForResource:@"song" ofType:@"wav"]; 

NSData *data = [NSData dataWithContentsOfFile:path]; 

player =[[AVAudioPlayer alloc] initWithData:data error:NULL]; 

player.volume = 1.0; // optional to play music 

player.delegate = self; 

[player prepareToPlay]; // optional to play music 
[player play];   // optional to play music 

NSUInteger len = [player.data length]; 

soundtouch::SAMPLETYPE sampleBuffer[len]; 

[player.data getBytes:sampleBuffer length:len]; 

soundtouch::BPMDetect BPM(player.numberOfChannels, [[player.settings valueForKey:@"AVSampleRateKey"] longValue]); 

BPM.inputSamples(sampleBuffer, len/player.numberOfChannels); 

NSLog(@"Beats Per Minute = %f", BPM.getBpm()); 
+0

cool können Sie sagen, wie haben Sie die SoundTouch Library in das xcode-Projekt hinzugefügt? – otakuProgrammer

+0

Sie laden einfach das Framework herunter und importieren es in Ihr Projekt. – MrHappyAsthma

+0

ok ich habe es geschafft, es in das xcode-projekt zu integrieren, der obige code funktioniert nicht, manchmal stürzt die app ab, ich habe sowohl wav- als auch mp3-dateien ausprobiert, ich habe sogar das orig-audio-sample von der soundtouch-website benutzt, es bringt mich zum crash Problem, oder nan Ergebnis (bei der Verwendung der ursprünglichen Probe Audio) – otakuProgrammer

0

Ich habe diese Lösung versucht, die BPM von MP3-Dateien (mit der TSLibraryImport Klasse umwandeln in wav) zu lesen, in dem iOS Music Library:

       MPMediaItem *item = [collection representativeItem]; 

           NSURL *urlStr = [item valueForProperty:MPMediaItemPropertyAssetURL]; 

           TSLibraryImport* import = [[TSLibraryImport alloc] init]; 

           NSArray *paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES); 
           NSString *documentsDirectory = [paths objectAtIndex:0]; 

           NSURL* destinationURL = [NSURL fileURLWithPath:[documentsDirectory stringByAppendingPathComponent:@"temp_data"]]; 
           [[NSFileManager defaultManager] removeItemAtURL:destinationURL error:nil]; 

           [import importAsset:urlStr toURL:destinationURL completionBlock:^(TSLibraryImport* import) { 

            NSString *outPath = [documentsDirectory stringByAppendingPathComponent:@"temp_data"]; 


            NSData *data = [NSData dataWithContentsOfFile:outPath]; 
            AVAudioPlayer *player =[[AVAudioPlayer alloc] initWithData:data error:NULL]; 

            NSUInteger len = [player.data length]; 
            int numChannels = player.numberOfChannels; 

            soundtouch::SAMPLETYPE sampleBuffer[1024]; 

            soundtouch::BPMDetect *BPM = new soundtouch::BPMDetect(player.numberOfChannels, [[player.settings valueForKey:@"AVSampleRateKey"] longValue]); 


            for (NSUInteger i = 0; i <= len - 1024; i = i + 1024) { 

             NSRange r = NSMakeRange(i, 1024); 
             //NSData *temp = [player.data subdataWithRange:r]; 
             [player.data getBytes:sampleBuffer range:r]; 

             int samples = sizeof(sampleBuffer)/numChannels; 

             BPM->inputSamples(sampleBuffer, samples); // Send the samples to the BPM class 

            } 

            NSLog(@"Beats Per Minute = %f", BPM->getBpm()); 


           }]; 

die Fremdheit ist, dass die berechnete BMP ist immer der gleiche Wert:

2013-10-02 03:05:36.725 AppTestAudio[1464:1803] Beats Per Minute = 117.453835 

Nein Egal welche Spur war d. h. Anzahl der Frames oder die Puffergröße (hier habe ich 2K Puffergröße wie für das SoundTouch-Beispiel im Quellcode der Bibliothek verwendet).

0

Für Swift 3:

https://github.com/Luccifer/BPM-Analyser

Und es verwenden möchte:

guard let filePath = Bundle.main.path(forResource: "TestMusic", ofType: "m4a"), 
let url = URL(string: filePath) else {return "error occured, check fileURL"} 

BPMAnalyzer.core.getBpmFrom(url, completion: nil) 

Fühlen Sie sich frei zu äußern!