layer 4.

hatte ich nicht hier irgendwann schon mal (meine begeisterung und) die aussicht auf verwendung von googels kostenloser und automatischer telephonauskunft zum ausdruck gebracht? die suche sagt nein. hier also nochmal die nachricht von der telefonauskunft goog-411.

es ist sicherlich noch eine ganzes stück von von projekt 25o1 entfernt, aber wenn ich mir überlege, woraus da algorithmen gemacht werden wird mir ganz schwummerig.
worum gehts?
youtube kann neuerdings automatisch videos untertiteln. vereinfacht geht das so: die spracherkennung läuft über den soundstream des videos und macht einen text mit zeitcodes daraus. man hat fertige untertitel. die können jetzt eingeblendet werden wie man es von normalen videos auch kennt. weil man jetzt einen simplen maschinenlesbaren text hat, kann man ihn auch gleich in die übersetzer-engine packen und die untertitel übersetzen lassen. (zur erinnerung rufe man sich die techdemo der intelligenten wave-rechtschreibkorrektur und des live translators wieder ins gedächtnis)

sicher ist das noch nicht perfekt und fehlerfrei. aber es ist ein anfang. und das system lernt.
ob es irgendwann mal praktikabel sein könnte aus den automatischen mitschnitten von voice verbindungen nachrichten zu generieren? wenn zum beispiel wenn hundert leute in new york zum telefon greifen und ihren gesprächspartnern von fallenden aktienkursen aufgrund schlechter quartalszahlen der firma XY sollte das eine ausreichend validierte quelle sein um daraus einen nachrichten stream zu erzeugen. dazu noch die analyse von twitterfeeds unter berücksichtigung der geodaten der funkzelle in der das sendende mobile gerät arbeitet.

momentan verknüpft man nur gesammelte daten. irgendwann macht man damit was “sinn”volles.