Fehler sind an sich nicht zu vermeiden.
Jemand der so ein Projekt angeht, setzt sich Prioritaeten.
Das ist nun mal nicht einfach, weil der Autor am Anfang auch kein Meister ist.
Aber langsam lernt er hinzu und baut sein System auf.
Es kommt auch auf die Umgebung an, wo ein Projekt seine Anfaenge hat.
Was war eigentlich schon da um die Zeit der Commodore C64 Computer Aera?
http://de.wikipedia.org/wiki/Commodore_64
1985 glaub ich, hatte ich meinen ersten. Der hat damals schon 500 Euro gekostet. (ich hab den Preis von damals auf heute umgerechnet). Das war eine Stange Geld fuer einen 8Bit Prozessor.
Damals hat ein PC, Windows 1.0 exitiert.
http://de.wikipedia.org/wiki/Microsoft_Windows_1.0
Ein Windows 3.11 konnte noch keine Kanji.
Ein solcher kostete damals 7500 Euro. Das war fuer eine Privatperson, nicht mal erschwinglich.
Als der Amiga 500 kam, der zu seiner Zeit schon viel mehr konnte als der kleine C64, kostete zu Anfang 500 Euro.
Der C64 dagegen war dann nur noch in etwa 125 Euro Wert.
Aber der Amiga, konnte auch keine Kanji.
Von daher hab ich zB., seit 1985 mit Romaji begonnen eine Datenbank aufzubauen. Der Texteditor hiess Vizawrite64. Er hatte eine Leistung von ca. 38.000 Buchstaben. Das ist nichts im Vergleich zu heute.
Ulrich Apel begann mit seinem Projekt, im Jahre 1994.
http://www.wadoku.de/wiki/display/WAD/Wadoku+Projekt
Das erste Kanji-Verarbeitende Programm war ein NJstar. Es lief unter Windows 3.11 und seine Kodierung war so kompliziert dass es fast unmoeglich war, damit zu arbeiten.
Ja es stimmt, wer am Anfang kein richtiges Werkzeug hatte, und sich nur mit Text abgab, konnte schwerlich dieses Manko spaeter wieder gutmachen. Ich hab es nicht geschafft. Ich blieb deshalb bei der Textversion.
Kanji kamen bei mir viel spaeter hinzu. DBase III+ und auch Clipper Sommer87 konnten keine Kanji darstellen. Ich programmierte deshalb alles mit einem Feld mit 192 Zeichen. Und Splittete diese in 12 Zeilen zu 16 Buchstaben. Der Inhalt waren Grafikzeichen ueber den asc(128) Wert. Es war ein Unding an Arbeit aber es war machbar. (Wer einen PC hat, kann diese Werte mit der ALT-Taste und den Ziffern 128 bis 255 sich mal ansehen).
Als Einfachheit, hier die Tabelle.
http://www.theasciicode.com.ar/extended-...e-180.html
Es war also Kreativitaet gefragt.
Spaeter, viel spaeter kamen die Unicode.
Jim Breen war mir eine grosse Hilfe, da er seine Daten dem Publikum zur Verfuegung stellte.
Unihan war die Datenbank, in welcher alles beisammen stand.
Unicode, Nelson und vieles mehr.
http://www.unicode.org/Public/UNIDATA/Unihan.zip
Ich wollte nur mal aufzaehlen, wie ich zu meiner Datenbank kam.
Wie ihr seht, habe ich nicht seit gestern damit angefangen.
Da ziehen viele Jahre ins Land. Aber es tut mir nicht leid um die Zeit und die Muehe.
Und wenn ich die Edict Datei noch drin habe, kann ich vielleicht etwas Neues beginnen. Es gibt noch viel zu tun.