So, ich habe mir das jetzt nur in der Commit Mail angesehen und komme zu dem Schluss, dass mir das was komisch vorkommt ^^cloidnerux hat geschrieben:Mhmm, is mir nicht aufgefallen, hauptsächlich weil ich kein 20Gb Dateien gehasht habe^^So, ich habe heute die aktuelle Branch Version in den Trunk integriert, vielen Dank an cloidnerux für die neue Funktion um die FileStreams verarbeiten zu können. Hat zwar drei Monate gedauert, aber ich habe jetzt auch mal ein bisschen rumgetestet und habe gleich eine Bug für unseren Hashexperten: http://www.bugs.proggen.org/show_bug.cgi?id=9
Wird alsbald abgearbeitet^^
p.s: Problem gelöst und das mit nur 8 Zeilen Änderung.
Anscheinend hat aber niemand den Code wirklich validiert oder ich weiß grad selber nicht mehr was ich da geschrieben habe, auf jeden fall waren da ein paar merkwürdige sachen dabei...
p.p.s: Ist nun hochgeladen, bisher aber noch im Falschen Ordner weil mir AnkhSVN ieinen Streich spielen wollte.
Korrigiere ich gleich.
Womit hast du das Kompiliert? So wie der Code da drinnen steht, wird sich mein Kompiler beschweren, oder kompiliert deiner for schleifen, bei denen die Bedingungen mit Komma statt Semikolon getrennt sind? Ich werde trotzdem mal versuchen das ganze in Trunk zu integrieren, aber da sind so ziemlich die selben Fehler enthalten, die mich gestern eine Stunde Suche gekostet haben, damit der Code überhaupt kompiliert hat. Entweder ist der aktuelle GCC extrem lästig, oder dein Kompiler erlaubt Dinge, die nicht erlaubt sind
Ich hege nebenbei die Idee, die Datei jeweils in Blocks einzulesen. Die Blockgröße würde ich folgendermaßen gestalten: 1/3 des vorhanden Arbeitsspeichers geteilt durch die Anzahl der Threads, die für jeden Block den Hash berechnen. Anschließend die Teilhashs zusammenfügen und ausgeben. Das sollte auf einem Mulitcore die Geschwindigkeit bei großen Dateien doch sehr erhöhen. Hab ich was übersehen?