Message 08880 [Homepage] [Navigation]
Thread: oxdeT08880 Message: 1/1 L0 [In index]
[First in Thread] [Last in Thread] [Date Next] [Date Prev]
[Next in Thread] [Prev in Thread] [Next Thread] [Prev Thread]

[ox] fakten über daten, information und wissen



Für sowas wie daten, information und wissen gibt es zumindest mathematische konzepte, die
in den kontext passsen:

vorabbemerkung:
das meiste, was wir kommunizieren, liegt in sprache vor. die frage stellt sich, ob das, was in sprache formuliert ist, in sich konsistent sein kann und gleichzeitig alles beschreibt. das geht nicht, was aber auch nichts macht: man beschränkt sich auf konsistenz und fügt im falle eines falles neues hinzu. da kommunikationskanäle immer nur eine beschränkte kapazität haben, ist es eh nie möglich, immer alles mitzuteilen.

erstens: fakten (tatsachen):
tatsachen sind empirisch gegebene fakten - was auch immer. es wird angenommen, dass das universum aus fakten besteht, die irgendwie vorliegen. aus den fakten lässt sich durch messungen digitalisierte daten herstellen. bei dieser digitalisierung muss angenommen werden, dass dabei auch schon komprimiert wird. ziel ist es, möglichst genau (also unkomprimiert) zu messen, aber eine messung ohne komprimierung ist nie möglich.

zweitens: daten:
durch messungen von fakten erhält man digitale daten. daten können immer (auch im fall, dass sie analog vorliegen) als digitalisiert angenommen werden.

drittens: information:
durch mustererkennung von bekannten digitalen daten lassen sich diese daten komprimieren.
die information einer endlichen menge von daten ist die datenmenge, die bei maximaler komprimierung entsteht. dabei wird die redundanz entfernt. (vorsicht: manchmal sagen leute auch komprimierung zu einem vorgang, der nicht nur redundanz sondern auch information entfernt - siehe antialiasing oder mp3-codierung. in einem solchen fall kann man die "zuviel"-komprimierung in eine messung mit anschliessender richtiger komprimierung zerlegen)

viertens: der prozess der datenkomprimierung:
mustererkennung an daten und die dabei einhergehende komprimierung kann nicht nach einem vorher angegebenen algorithmus ablaufen. es muss eben ausprobiert werden: liegt ein datensatz vor, dann werden der reihe nach bestimmte programme ausprobiert, die den datensatz komprimieren könnten. wenn es ein programm schafft, den datensatz zu komprimieren, dann gilt es als die zur zeit gültige "theorie". und es wird weiterprobiert. aufgrund der tatsache, dass programme beliebig lange laufen können, ist ein solcher optimierungsprozess in den seltensten fällen abgeschlossen.

fünftens: wissen:
wissen besteht aus paaren (datensatz, zur zeit gültige theorie) und ist zeitlich variable.
natürlich kann bei dieser definition auch ein computer etwas wissen.


viel spass
ABach



________________________________
Web-Site: http://www.oekonux.de/
Organisation: projekt oekonux.de



[English translation]
Thread: oxdeT08880 Message: 1/1 L0 [In index]
Message 08880 [Homepage] [Navigation]