Stoniers Informationsbegriff           zurück


    http://www.madeasy.de/


Einleitung:

Stonier geht von Schrödingers Bemerkung aus :

Wenn D ein Maß für Unordnung ( Disorder )  ist , dann könne der reziproke Wert 1/ D als direktes Maß für Ordnung betrachtet werden.

Deswegen schreibt er Boltzmanns Formel um.

-(Entropie ) = k * log ( 1/D)

Die Entropie ist in Verbindung mit dem negativen Vorzeichen selbst ein Ordnungsmaß .

Daraus folgert Stonier                     Or = 1/D ,   S = k log W

Unordnung D = äquivalent der Wahrscheinlichkeitsfunktion W  = Omega

stimmt das ???

I = f ( Ordnung )

I = c ( Ordnung )

Ordnung = I / c

Unordnung D = 1/Ordnung = c/ I

S = k log (c / I)

I = c*e ^ ( -S/k)


Anhang A

Rechnungen aus Kapitel 2 : Die Natur der Information

Hartley (1928 , ) behauptete, daß die Informationsmenge H an Information, die in einer aus Zeichen eines Alphabets S gebildeten Nachricht N enthaltene "Menge an Information" als Logarithmus definiert werden könne, und zwar: (A.1)

H = N log S

( Quelle : RVL Hartley 1928 Transmission of Information , Bell Syst.Tech.J., vol 7 : S 535)

Diese Gleichung ähnelt derjenigen auffallend, die Boltzmann (1896, 1898) in seiner Entdeckung der statistischen Mechanik herleitete:

(A.2)

S = k log W

Wenngleich sich die beiden Gleichung ähnlich sahen, so differierte dennoch ihre Bedeutung. Dieses Misverständnis unter den traditionellen Informationstheoretikern hat zu einer erheblichen Verwirrung geführt.

Durch ausgiebiges Studium half Boltzmann dabei, Veränderungen in der Entropie mit Veränderungen in der Ordnung/Unordnung eines Systems in Verbindung zu bringen. Es war diese Gleichung, die Schrödinger (1944) dazu brachte, die Zusammenhänge von Entropie und Ordnung als lebenden Organismus zu betrachten.

Schrödinger' s Spekulationen ermöglichten die Betrachtung von Information unter einem völlig anderen theoretischen Standpunkt aus. Schrödinger modifizierte Boltzmann' s Gleichung wie folgt:

(A.3)

S = k log D

wobei S die Entropie des Systems, k die Boltzmann-Konstante und D den Status der Unordnung des Systems datstellt.

Obwohl Schrödinger es nicht als Gleichung formulierte, so geht es aus Schrödinger' sText (1944, S. 73) deutlich hervor, dass er "Ordnung" als das Inverse von "Unordnung" betrachtete, wobei aus seiner Schrift die Gleichung hervorgeht:

Or = 1 / D

(A.4)

-S = k log Or

wobei Or den Status der Ordnung des Systems darstellt.

Stonier (1986a, b; 1989; 1990a, b; 1996) schlug Information als grundlegende Eigenschaft des Universums vor. Genauer gesagt kann man von einem System behaupten, dass es Information enthalte, wenn dieses System Organisation aufweist. Daher kann man sagen, dass, so wie Masse die Reflektion eines Systems von Materie und Hitze die Reflektion eines Systems von Energie darstellt, Organisation die physikalische Manifestation eines Systems von Information darstellt. "Organisation" kann als Existenz eines nicht-zufälligen Musters von Partikeln oder Energiefeldern, oder allgemeiner, von Untereinheiten eines beliebigen Systems ( ?) verstanden werden.

Die Theorie nahm weiter an, dass der Grad der Organisation direkt linear proportional zur Menge der strukturellen Information ist. Diese Annahme hat sich sowohl als vernünftig als auch notwendig erwiesen. Notwendig insofern, als dass alternative Annahmen zu überflüssiger Komplexität und intellektuellen Sackgassen führen würden. Vernünftig insofern, da sie die Annahmen über die beiden anderen Parameter, die unser Universum bestimmen, parallel führt: es existiert eine direkte lineare Proportionalität zwischen der Menge von Masse und der Menge von Materie; desgleichen existiert eine direkte Proportionalität zwischen dem Grad an Organisation und der Menge von Information. Es ist überflüssig, zu erwähnen, dass der Nachweis dieser Annahme auf das Zusammentreffen von Theorie und physikalischer Realität warten muss.

Mit dieser Auffassung bedeutet die Annahme, dass es eine direkte lineare Proportionalität zwischen dem Grad der Organisation Or und der Informationsmenge I folgendes:

(A.5)

I = c(Or)

wobei c eine noch zu definierende Konstante darstellt.

Durch Substitution in Gleichung (A.4) kann man eine Beziehung zwischen Information und Entropie herleiten:

(A.6)

I = c* e^(-S/k) = c* e -S/k

Die Konstante c, welche noch zu überprüfen ist, hat sich gleich der Information eines Systems erwiesen, wenn dessen absolute Entropie gleich Null ist. Durch Modifikation von Gleichung (A.6) ergibt sich:

(A.7)

I = I0* e^(-S/k)

wobei I0 die Information ist, die das System für S = 0 enthält.

Gleichung (A.7) weist auf eine sehr unterschiedliche Beziehung zwischen Information und Entropie hin als wie sie von den Kommunikationsingenieuren verstanden wird. Statt einer direkten Porportionalität zwischen Information und Entropie (vorgeschlagen von Shannon und Weaver) oder einer negativen (modifiziert von Brillouin, 1956), behauptet Gleichung (A.7), dass Information und Entropie invers porportional sind. Um präziser zu sein ist Entropie das multiplikative Inverse von Information, nicht, wie allgemein angenommen, das additive Inverse.

Wenn diese Behauptungen richtig sind, sollte man in der Lage sein, eines Konversionsfaktor zu berechnen. Durch Untersuchung der Veränderungen der Entropie, die zwischen zwei verschiedenen Systemen auftreten - die Verdampfung eines Eiskristalls von 0 K auf 373 K und die Denaturierung des Proteins Trypsin - war es möglich, die Veränderungen in Informationszuständen exakt zu bestimmen und eine allgemeine Gleichung, die Entropieeinheiten mit Information verbindet, herzuleiten (Stonier, 1990). Genauer zeigten die Berechnungen, dass eine Entropieeinheit ungefähr 10^23 Bits/Mol entspricht, d.h.: (A.8)

1 J/K = 10^23 Bits = 10 23

Die Gleichung, die Masse mit Energie verbindet, zeigt, dass sehr kleine Mengen von Materie eine sehr große Menge Energie erzeugen können. In dieser Art legt Gleichung (A.8) nahe, dass relativ kleine Mengen an Energie theoretisch in sehr große Mengen von Information umgesetzt werden könnten.

Beispiele

siehe d:/vb/funkston.mak

Sub Befehl2_Click ()

End Sub

Fragen zum Thema

Wenn Stoniers Rechnung stimmen würde , dann gäbe es negative Entropie . Daran ist zu zweifeln

Negentropie

Empfehlenswerte Literatur

Internetseiten zum Begriff

Orginaltexte:

Tom Stonier

A man of computers and peace

Geoffrey Goodman

Monday June 28, 1999

Professor Tom Stonier, who has died aged 72, was frequently called the "professor of futurology". For more than four decades he examined the ingredients of technological and scientific change, pointing out how our social, economic and political environment was in the process of transformation. He was a humanist, scientist and poet-philosopher.

It was Stonier who, more than 25 years ago, began a campaign to transform our education system, linking it with the development of computers, which he saw as liberators of human talents. He recognized very early on that a combination of education and computers would unlock the door to the information society, and argued that education had to become the most important investment in the future of all societies.

Stonier was born in Hamburg to a German-Jewish father and a French mother. In 1939, when he was 12, the family fled to New York, where he read biology at Drew University before taking a PhD at Yale in 1955. He began his scientific career as a research associate at Rockefeller University before joining the biology faculty at Manhattan College, New York, in 1962. His first book, Nuclear Disaster, published in 1964, was based on his 1961 report to the New York Academy of Sciences which dealt with the biological and environmental effects of dropping a 20-megaton bomb on Manhattan. The book won world-wide attention and drew Stonier into the limelight as a pioneer proponent of peace studies. In 1973, he came to Britain and founded the school of peace studies at Bradford University.

In 1975 Stonier was appointed to the foundation chair in science and society at Bradford, where he specialized in the interaction of science, technology and society. His six books and countless monographs included

The Wealth Of Information: A Profile Of The Post- Industrial Economy (1983),

Information And The Internal Structure Of The Universe (1990),

Beyond Information: The Natural History Of Intelligence (1992), and

Information And Meaning; An Evolutionary Perspective (1997).

His most recent book,

No More War: The Hidden Evolution To Peace, will be published next year.

Consulted widely by governments throughout the world, Stonier lectured in Canada, Australia, China and south-east Asia. He was also consultant to some of the largest international companies, a member of the New York Academy of Sciences and a life fellow of the Royal Society of Arts.

Stonier reached the conclusion that computers were contributing to a biological change in the nature of human beings as well as human relationships: "The increase in computer power has been roughly 10-fold for every six or seven years over the last 30 or more years," he pointed out. "At this rate, early in the next century computer power will be about 1,000 times that of today's machines."

He is survived by his wife Judith, seven children and six grandchildren.

Tom 'Ted' Stonier, academic, born April 29, 1927; died June 15, 1999