Ich habe ein Stück Code, der seit Jahren bis heute funktioniert. Nach dem Debugging wurde mir klar, dass das letzte Token nicht korrekt erfasst wurde. Ich denke, ist wegen seiner Länge (mehr als 10k Chars).Hat StringTokenizer eine maximale Länge auf Token?
Code:
StringTokenizer tokens = new StringTokenizer(myString,"&&&&&&&");
(...)
String s=tokens.nextToken();
//Do something with s
s=tokens.nextToken();
//Do something with s
s=tokens.nextToken();
//Do something with s
//Now it's time of last and biggest token
s=tokens.nextToken(); // --> s does not contain entire string
Ich habe versucht, ich nehme ein Token der Länge 20000 aus einem 'StringTokenizer' ohne es zu verkürzen. Da muss etwas mehr los sein. –