Definition des Begriffes Zufall           zurück


Diese WWW-Seite stammt von R.Ho, rho54@gmx.de

www.madeasy.de


Zufall

Was ist Zufall ?

Man spricht von Zufall, wenn ein Ereignis nicht notwendig oder nicht beabsichtigt auftritt. Umgangssprachlich bezeichnet man ein Ereignis auch als zufällig, wenn es nicht absehbar, vorhersagbar oder berechenbar ist. Zufälligkeit und Unberechenbarkeit oder Unvorhersagbarkeit sind jedoch nicht dasselbe.

Als zufällig gelten Ereignisse wie eine Augenzahl beim Würfeln oder das Ergebnis eines Münzwurfs, jedenfalls wenn eine Manipulation ausgeschlossen wurde.

Zufall ist das unberechenbare Geschehen, das sich unserer Vernunft und Absicht entzieht. - Gebrüder Grimm (Deutsches Wörterbuch)



Einleitung:

Dieser Text ist rein zufällig entstanden.

Viel Energie wurde und wird in der Diskussion zum Thema Zufall damit vertan , daß auf der einen Seite der Zufall komplett geleugnet wird , auf der anderen Seite der Zufall die Ursache für alles sein soll.

Man muß statt dessen mit dem Zufall experimentieren. Dann merkt man sehr schnell, daß die Mischung aus zufälligen und gesetzmäßigen Ereignissen der Realität am besten gerecht wird.

Auch der reine Zufall zeigt Gesetzmäßigkeiten , nämlich zb das Gesetz der großen Zahl. Dieses Gesetz über den Zufall kann man heranziehen , um zu testen, ob echter Zufall vorliegt oder nicht.

Die Vorstellung vom Zufall tritt in Widerspruch mit dem Gedanken eines allmächtigen, allwissenden persönlichen Gottes , der alles voraussehen kann. Der Zufall würde demnach den hellseherischen Fähigkeiten Gottes widersprechen.

Auch die Diskussion um den freien Willen der Menschen dreht sich öfter um das Thema Zufall.

Es hat sehr lange gedauert , bis man gemerkt hat , daß dem Zufall neben seiner Anwendung im Glücksspiel auch sehr nützliche Seiten abzugewinnen sind. Die Brauchbarkeit des Zufalls als Gerechtigkeitsfaktor oder als Testverfahren für schwierige Entscheidungen wurde in der philosophischen-theoretischen Diskussion lange nicht erkannt, obwohl er sicher im Alltagsleben öfter schon dazu benutzt wurde. Beispielsweise muß aus einer Gruppe von Menschen einer ausgewählt werden, um eine sehr gefährliche Aufgabe durchzuführen . Keiner will es machen. Es wird per Los entschieden, wer es machen muß.

( Vergleich zum Beispiel Charly Chaplin : Der große Diktator : In einen Kuchen wird eine Geldmünze gebacken. Jeder aus der Gruppe erhält ein Stück Kuchen. Wer hat die Münze in seinem Stück ?)

Es ist erstaunlich , daß es in der realen Welt sehr einfache Modelle gibt , die sehr gute Zufallszahlen und Zufallsreihen liefern, daß es in der Mathematik aber keinen elementaren und trivialen Zufallsprozeß gibt. Man muß mühsam Pseudozufallszahlen konstruieren, um mit dem Zufall arbeiten zu können. Platon würde sich über den Zufall doch ein bißchen ärgern, denn beim Zufall scheint die Realität dem mathematischen Ideal überlegen zu sein .

Gleichzeitig beherrscht der Zufall viele wichtige Prozeße in der Physik, Chemie und Biologie . Außerdem hat er sich als wichtiger Gerechtigkeitsfaktor im sozialen Zusammenleben erwiesen.

Deswegen ist ein möglichst gutes Verständnis des Begriffes Zufall sehr wichtig.

Eine elementare Frage zum Thema lautet: Gibt es einen echten Zufall, oder bezeichnen wir etwas nur deshalb als zufällig, weil wir nicht über genügend Informationen für eine genaue Vorhersage verfügen ? Was ist echter Zufall und was ist unechter Zufall ?

Weitere Fragen zum Thema Zufall finden sich hier . Fragen zum Thema Zufall

Wenn man die drei Basisbegriffe der heutigen Naturwissenschaften Materie , Energie und Information betrachtet , kann man fragen, wie der Begriff Information in weitere Subkategorien untergliedert werden kann.

Basisbegriffe der Natur- und Strukturwissenschaften

Reiner gleichförmiger Zufall ist eher langweilig.

Eine Ordnung ohne jeden Zufall ist auch eher langweilig.

>> Interessant ist die Mischung aus Zufall und Ordnung.



Wenn man 1 Gramm Wasser betrachtet , dann ist eine Wassertropfen mit Zufallsstruktur der Wassermoleküle eher langweilig. Ein geordneter Einkristall des Wassers ist auch langweilig ( wenn es so etwas gibt). Interessant ist es zwischen drin: zb ein Schneekristall . Hier gibt es eine unendliche Vielfalt der Formen.

Siehe auch die Definition von Information:

http://www.madeasy.de/1/definfo.htm  


Wortfeld zum Thema Zufall

Zufall

chance; accident; toss-up; tough break; occurrence, event; coincidence; hazard ;by chance; casually; by a fluke; a lucky hit; misfortune, risk , probability

Geschichte:

Aus Johann H. Zedler, Großes vollständiges  Universallexicon ... 1732

Zufälle sind die Umstände des ausserordentlichen Glücks, oder daraus das ausserordentliche Glück bestehet, welches nichts anderes ist,  als eine Connexion natürlicher Umstände, die nicht von unserem Willen abhängen, mit dem Fortgange unserer Thaten, zu deren Verlauf sie unseren Absichten , entweder gemäß , oder zuwider , etwas beytragen.

Diese Umstände sind uns entweder von Anfange unserer Unternehmungen bekannt , daß wir uns danach richten können ; oder sie ereignen sich wider Wissen , oder Vermuthen , welche letztere man Glücks - und Unglücksfälle oder unversehene Zufälle, ( CASUS FORTUITOS ) nennet.

Beyde , nehmlich sowohl die vorherbekannten als unversehenen, entstehen entweder blos aus dem gemeinen Lauffe der Natur; oder sie werden , ob sie gleich natürlich sind , dennoch von Gott , als dem Erhalter der Natur durch seine besondere Vorsehung zu besonderen uns offtmahls ....

Meyers Konversationslexikon 1888:

Zufall (lat. Casus), im gewöhnlichen Leben alles, was uns nicht als notwendig oder beabsichtigt erscheint, oder für dessen Eintreten wir einen Grund nicht nachweisen können, oder was ebensogut in anderer Weise und zu andrer Zeit hätte geschehen können. Das Zufällige steht daher dem Notwendigen, dem Wesentlichen und dem Absichtlichen entgegen, und ebenso wird auch die Zufälligkeit bald der Notwendigkeit, bald der Wesentlichkeit, bald der Absichtlichkeit entgegengesetzt.

Das Zufällige kann selbst als ein Notwendiges vorgestellt werden, wenn uns die Bedingung desselben nicht bekannt ist. Deshalb sagt man auch:

zufällig ist, was unter gewissen Bedingungen sein oder nicht sein, so oder anders sein könnte.

Wenn wir uns auf den Zufall als etwas die Dinge Beherrschendes, Gestaltendes, Veränderndes, Zerstörendes berufen, so gestehen wir damit eigentlich nur unsre Unwissenheit in betreff des Zusammenhanges des Geschehens und der Gründe desselben ein. Wer den Zufall als die gänzliche Ursachlosigkeit alles Geschehens faßt, der verfällt in den Widerspruch, an welchem der Begriff des absoluten Werdens leidet (s. Ursache).

==> Es geschieht nichts ohne Ursache Und insofern auch nichts durch bloßen, blinden Zufall. (casus purus). Der Schein des Zufalls aber entsteht für uns aus der Mangelhaftigkeit unsrer Einsicht in die Gründe und Folgen der Begebenheiten. In juristischer Bedeutung nennt man Zufall ein Ereignis, das nicht in dem Willen und der Absicht des Handelnden liegt.

Vgl. Windelband, Die Lehren vom Zufall. (Berl. 1870);

Cantor, Das Gesetz im Zufall. (das. 1877).

Woher kommt das Wort Zufall?

Welche Bedeutung hatte das Wort Zufall früher ?

Welche anderen Wörter hat man anstatt des Wortes Zufall benutzt ?

Welchen Bedeutungswandel hat das Wort durchgemacht ?

Welche Worte gibt es in anderen Sprachen für den Begriff Zufall?

Englisch:

chance; accident; toss-up; tough break; occurrence, event; coincidence; hazard ;by chance; casually; by a fluke; a lucky hit; misfortune, random

casting of lots

odds

dice

ran·dom [rándm ] adjective  = zufällig

random-access memory = RAM

randomize

random number

random sample

random variable

random walk

MATHEMATICS model with independent successive steps: a model applicable to various processes such as diffusion in which the direction and sometimes the magnitude of successive steps are determined by chance

chance [chanss ] noun (plural chanc·es)

verb (past chanced, past participle chanced, present participle chanc·ing, 3rd person present singular chanc·es)

1. transitive verb do something risky: to do something knowing that it is risky

2. intransitive verb do something unplanned: to do something or happen without a cause or plan

[13th century. Via Anglo-Norman from, ultimately, late Latin cadentia "falling," from the present participle of Latin cadere "to fall."]

chance·less adjective

by any chance used to inquire if there is any possibility of something Is there a copy you could lend me, by any chance?

by chance unexpectedly or without plan

chance your arm U.K. to attempt something despite unfavorable odds

fat chance something that is highly unlikely (informal)

odds [odz ] plural noun

[Early 16th century. Plural of odd.]

at odds (with somebody) in disagreement with somebody

at odds (with something) in conflict with something

over the odds more than is usual or necessary

what's the odds? used to indicate that something is of no importance

odds·mak·er [ódz màykr ] (plural odds·mak·ers) noun somebody who calculates odds: somebody who officially calculates betting odds


Kurze Definitionen von Zufall

Zufall

Als Zufall bezeichnet man das Eintreten unvorhergesehener und unbeabsichtigter Ereignisse.

Das Eintreten von Ereignissen für die keine Ursache und keine Gesetzmäßigkeit erkennbar ist, bezeichnet man als zufällig.

Lexikon:

Zufall ist ein Begriff für alles, was nicht notwendig oder beabsichtigt geschieht; das Zusammentreffen von nicht absehbaren Ereignissen. Setzt man die absolute Gültigkeit des Kausalitätsprinzips voraus, d. h. einen Weltmechanismus, nach dem alle Geschehnisse vorausbestimmt sind, so wird das Zufällige zur bloßen Erscheinungsform des Notwendigen.

'Zu·fall   männlich

Man kann sehr viel über den Zufall lernen , wenn man mit einer Münze selber Zufallszahlen erzeugt.

Dabei ordnet man der einen Seite der Münze ( zb der Seite mit der Zahl ) die Zahl 0 zu , der anderen Seite ( die Seite mit dem Wappen ) die Zahl 1. So erhält man sehr einfache Folgen von 0 und 1 . In diesen Folgen steckt der elementarste Zufallsprozess , denn man sich denken kann.

Die Zufallsfolgen von 0 und 1 sind leicht statistisch untersuchbar . Die Zufallsfolgen sind mit nicht zufälligen 0 und 1 Folgen mischbar . So bekommt man ein recht gutes Verständnis für den Zufall und die Mischung von Zufälligem und Nichtzufälligem , wie es ja oft in der Realität anzutreffen ist.

So wird Zufall zunächst etwas Mathematisches und läßt sich ohne großen Aufwand untersuchen.

Stufen eines künstlichen Zufallsereignisses

1.Vor dem Ereignis:

2.Der Zufallsmechanismus läuft ab.

3.Aus den mindestens 2 möglichen Varianten wurde eine zufällig ausgewählt.

Eine elementares Zufallsereigniss beruht auf Gleichheit und Ungleichheit

( Münze : beide Seiten müssen mit derselben Wahrscheinlichkeit auftreten können , trotzdem müssen beide Seiten verschieden geprägt sein , sonst könnte man sie nicht unterscheiden.)


Einige wichtige Basisaussagen über den Zufall :

Zufall ist das unberechenbare Geschehen, das sich unserer Vernunft und Absicht entzieht.

( Gebrüder Grimm , Deutsches Wörterbuch)

Ein elementarer Zufallsprozeß ist der Münzwurf, denn er liefert eine zufällige Entscheidung zwischen 2 Alternativen .

Ordnung: Je geordneter ein System ist desto geringer ist der Anteil an Zufall.

Kompression: Eine echte Zufallsfolge von 0 und 1 lässt sich ohne Verlust kaum komprimieren.

Echten Zufall kann man sehr genau testen, wenn man das zugrundeliegende Verfahren beliebig wiederholen kann.

Zufall heißt nicht, das alles möglich ist. Ein zufälliger Münzwurf kann nur Kopf oder Zahl ergeben.

Wenn man der Meinung ist, die Zukunft sei völlig festgelegt und vorherbestimmt, dann gibt es keinen Zufall. ( deterministische Weltanschauung)

Die Mischung aus zufälligen und nichtzufälligen Ereignissen wird der Realität am besten gerecht.

Bevor man ein Ereignis als zufällig ansieht, sollte man sich eingehende Gedanken darüber machen, ob es wirklich rein zufällig ist. Manchmal ist der Zufall eine zu bequeme Erklärungsvariante.

Ein Maß für die Menge an Zufall die in einer Zahlenfolge oder einem physikalischen System steckt ist die Gesamtzufallsmenge oder Entropie.

Der Zufall hat kein Gedächtnis. (Vergleiche den Begriff Unabhängigkeit in der Stochastik)

Dieser Satz gilt nur für einige Zufallsereignisse wie den Münzwurf und das Roulettespiel.

Bei anderen Zufallsereignissen , wie dem Ziehen aus einer Urne ohne zurücklegen, wird jeder weitere Zug durch die vorhergehenden Züge beeinflußt und die Möglichkeiten werden eingeschränkt.




Wo steckt überall Zufall drin ?

Fangen wir mit der Erklärung des Begriffes Zufall zunächst mit leicht einsehbaren Aussagen aus dem heutigen Alltagsleben an.

Zufall im praktischen Alltag:   

der einfachste Zufallsapparat ist die Münze

Zufall steckt:

Beispiele für teilweise zufällige Ereignisse

Wie kann ich Zufall im Alltag ausprobieren ?

Beim Mittagessen : Ich habe 2 Suppen zu Auswahl . Eine Tomatensuppen und eine Pilzsuppe . Mit einer Münze entscheide ich mich welcher der beiden Suppen ich heute zubereite und essen werde.

Beim Wandern: Ich komme im Wald an eine Weggabel: Mit einer Münze Zufall bestimme ich ob ich den rechten oder den linken Weg wählen soll.

Ist das dann schon echter Zufall ?

Meist läßt man dem Zufall im eigenen Leben nur sehr ungern seinen Lauf. Nur bei unwichtigen Entscheidungen vertraut man der Münze.

Muß allerdings die gerechte Auswahl zwischen 2 oder mehreren Personen getroffen werden , so vertraut man dem Zufall als einer gerechten Entscheidungsinstanz .

Zufall als Mittel zur Erzeugung von Gerechtigkeit:

Vergabe knapper Studienplätze:  Es gibt in einer Uni 20 Studienplätze für das Fach Philosophie. Dafür gibt es erstaunlicherweise 200 Bewerber. Da aus den Zeugnissen keine Entscheidungshilfen zu erwarten sind, werden die 20 Studienplätze per Losverfahren verteilt.

Vergabe knapper Therapieplätze: Es gibt in einer Region 10 Behandlungsplätze zur künstlichen Blutwäsche . Es gibt aber in der Region 100 Patienten , die dringend der Behandlung bedürfen. Per Losverfahren unter notarieller Aufsicht werden die 10 Therapieplätze vergeben.

Randomisierte Studie: Um die Wirksamkeit einer Behandlungsmaßnahme ( Gabe von 3 * 5 mg Valium / tag über eine Woche ) beim Schlaganfall zu überprüfen , wird eine große Studie geplant. Bereits vor dem Beginn der Studie wird per Zufall eine Reihenfolge festgelegt, welcher Patient mit dem Wirkstoff und welcher mit der sonst üblichen Behandlung therapiert werden soll. Diese Reihenfolge wird in einer versiegelten Liste zentral verwahrt. Mehrere Krankenhäuser nehmen an der Untersuchung teil. Soll ein Patient in die Studie aufgenommen werden , ruft das Krankenhaus in der Studienzentrale an . Das Krankenhaus gibt einige Einschlußdaten durch und bekommt dafür eine Zahl genannt. Anhand dieser Zahl wird eine Studienmedikation ausgewählt, die entweder Wirkstoff oder Plazebo ( = unwirksame Zuckertablette ) enthält. Der behandelnde Arzt weiß nicht, ober er dem Patienten  Plazebo oder Wirkstoff verabreicht. Bei der Entlassung des Patienten aus dem Krankenhaus , wird der Studienzentrale mitgeteilt , ob er den Schlaganfall überlebt hat oder nicht. Sind genügend Patienten nach diesem Protokoll behandelt worden , wird ausgerechnet , ob ein Unterschied in der Überlebensrate zwischen der Valium und der Nichtvalium Gruppe feststellbar ist.

Die Entwicklung der Sprache ist vielen Zufällen unterworfen. Welches Wort , welche Silben sich in einem Wort sich im allgemeinen Gebrauch durchsetzen und welche Bedeutungswandel ein Wort erfährt sind oft schwer nachzuvollziehen und manchmal auch nur reiner Zufall. Andererseits kann man an Hand von Wortvergleichen Verwandschaftsbeziehungen zwischen Sprachen und den Völkern , die sie sprechen herausarbeiten.

Bei vielen großen Entdeckungen half der Zufall mit , sie zu finden : Röntgen bemerkte die Schwärzung einer Photoplatte durch Röntgenstrahlen. Fleming bemerkte an Hand einer zufälligen Verunreinigung seiner Petrischalen , daß Pilze das Wachstum von Bakterien hemmen können etc , etc.

Siehe zb Ernst Mach: Erkenntnis und Irrtum

In jedem individuellen Lebewesen steckt eine Menge an Zufall. Ein Merkmal der Individualität ist neben der Einmaligkeit auch die Zufälligkeit. In jedem Individuum steckt aber auch eine Menge Ordnung , nämlich die Ordnung seines artspezifischen Erbgutes und die artspezifische Ausprägung in den Körperstrukturen und Organen.


Welche Arten von Zufall gibt es ?

Welche weitere Arten von Zufällen gibt es ?

echter Zufall , Pseudozufall ,

50 / 50 Zufall (Münze), Lottozufall ( sehr seltenes Ereignis )

Zufall in der Natur

natürlicher Zufall ( Zufall in der Natur

anorganischer Zufall ( zb Radioaktivität )

biologischer Zufall ( zb Geschlecht männlich - weiblich)

Zufall in der Kultur = künstlicher Zufall ( durch Menschen bewußt herbeigeführt , zb Münze , zb Würfel )

elementarer Zufall ( Münzwurf ) 2 Möglichkeiten , 50 /50 Chance

Koinzidenzen

2 Ereignisse oder Ereignisketten sind zufällig irgendwie verbunden

zufällige gleichzeitige Ereignisse

zb ein Kind wird geboren gleichzeitig geht der Mond auf.

zufällige gleichörtliche Ereignisse

zb an einem Ort in der Wüste fällt ein Meteorit herunter, an derselben Stelle findet sich in 10 m Tiefe Wasser

zufällige gleichzeitige und gleichörtliche Ereignisse

Ein Mensch wird von einem Meteoriten getroffen.

Die Erde wird von einem Meteoriten getroffen



Bedeutung des Zufalls für den Einzelnen

Zufall der Vor- und Nachteile bietet

Glück und Pechzufall


Wo findet man offensichtlich keinen Zufall ?

Im Computer fällt es offensichtlich schwer echten Zufall zu erzeugen . Der digitale Computer ist zunächst einmal eine deterministische Maschine und bis ins letzte Bit berechenbar. Durch Pseudozufallszahlen versucht man den echten Zufall nachzuahmen.

In den Planetensystemen ist es offensichtlich relativ einfach über Jahrtausende korrekte Vorausberechnungen zu machen . Hier ist der Zufall durch riesige Massekonzentrationen weitgehend außer Kraft gesetzt worden.

In einer geordneten binären Zahlenreihe zb

steckt kein oder sehr wenig Zufall.

In jeder logisch geordneten Zahlenreihe steckt kein Zufall . zb

Im Schachspiel steckt kein Zufall . Außer ganz am Anfang , wenn verlost wird, wer anfangen darf. Man kann natürlich die Steine zufällig setzen , dann wird man aber schnell verlieren . Wenn man gut spielen will muß man möglichst deterministisch spielen und alle sich ergebenden Möglichkeiten so weit und so tief wie möglich vorausberechnen. Deswegen spielen Computer auch so gerne und so gut  Schach .

Steckt in einem Kristall Zufall ?

Die meisten menschlichen Handlungen sind kein Zufall sondern teilweise unterbewußtes Abwägen von Alternativen und Auswahl der zum gegebenen Zeitpunkt anscheinend vorteilhaftesten. ( Ökonomie des Alltagslebens )


Determinismus

Der Determinismus lehnt den Zufall komplett ab:

Determinismus (von lateinisch: determinare abgrenzen, bestimmen) ist eine philosophische Denkrichtung, die davon ausgeht, alle Ereignisse laufen nach vorher festgelegten Gesetzen ab.

Deterministen vertreten die Meinung, dass bei bekannten Naturgesetzen und bekanntem Anfangszustand der weitere Ablauf aller Ereignisse prinzipiell vorausberechenbar sei.

Es gibt verschiedene Varianten des Determinismus, die mehr oder minder streng die Vorausberechenbarkeit aller Ereignisse vertreten.

Eine wichtige Einteilung des Determinismus ist folgende Unterscheidung

allgemeiner Determinismus: Das ganze Weltgeschehen läuft deterministisch ab. Es gibt keinen echten Zufall.

persönlicher Determinismus: Der Mensch ist in seinem Willen durch äußere oder innere Ursachen vorherbestimmt und nicht frei. Es gibt keinen freien Willen.

Nicht mit dem Determinismus verwechselt werden sollte die Kausalität, welche besagt, dass gegenwärtige Ereignisse nur von vergangenen Ereignissen beeinflusst werden können. So ist z.B. die Quantenmechanik nach der üblichen Interpretation zwar kausal, aber nicht deterministisch (wegen des Zufallselements bei Messungen).

Auch in der Religion und Theologie spielt der Determinismus eine gewisse Rolle, da in der christlichen Vorstellung von Gott, dieser in seiner Allmacht alles vorherbestimmt, so dass es keinen echten freien Willen seiner Menschenkinder geben kann.

Siehe auch

Berechenbarkeit, Zufallsgenerator, Pseudozufallszahl, Indeterminismus, Deterministischer Algorithmus, Chaostheorie

Der Computer als deterministische Maschine

Das Planetensystem als deterministisches System

Das menschliche Gehirn als weitgehend deterministisches Informationsverarbeitungs- und speicherungssystem

Unterarten des Determinismus

Vertreter des Determinismus

Literatur zum Thema Determinismus

Pothast, Ulrich: Seminar: Freies Handeln und Determinismus. Frankfurt/M.: Suhrkamp, 1978.

Steinvorth, Ulrich: Freiheitstheorien in der Philosophie der Neuzeit. 2., Darmstadt: WBG, 1994.

Walter, Henrik: Neurophilosophie der Willensfreiheit. Von libertarischen Illusionen zum Konzept natürlicher Autonomie. Paderborn: Mentis, 1998.

Links zum Thema Determinismus

physikalischer Determinismus und seine Grenzen (http://theotp1.physik.uni-ulm.de/~schu/komplex/lec1.html )

philosophische Literatur zum Thema (http://beat.doebe.li/bibliothek/w00099.html )

Determinismus in der nichtlinearen Dynamik (http://nld.physik.uni-mainz.de/az_determinismus.htm )

http://www.uni-bielefeld.de/ZIF/AG/2002/07-11-Huettemann.html

http://members.aol.com/gewanne/determ.htm


Teilweise zufällig , teilweise geordnet

01 Beispiele

Mischung aus je einer Zufallszahl zb mit einer Münze erzeugt und einem geordneten Wechsel Wechsel aus 0 und 1. zb Chaitin A und B gemischt.

Chaitins Beispiel für 2 binäre Zahlen mit 20 Stellen

==> Gemischte Reihe: 1001110011011000110110011101110010001100

Steckt im Insulinmolekül Zufall ?

Steckt in der DNS Zufall ?

Steckt in einem Stein Zufall ?

Die meisten Spiele haben feste Regeln und gleichzeitig Zufallselemente, die das Spiel spannend und nicht komplett berechenbar machen. Siehe Spiele und Zufall


Zufall und Fehler  

Wie kann man echte systematische Fehler von Fehlern abgrenzen , die zufällig in ein geordnetes System hineingeraten sind ?

Zufall und Streuung von Meßergebnissen


Wo wird Zufall neu produziert ?

Vom Menschen geschaffene Zufallsgeneratoren

Zufallsgenerator: Münze

Zufallsgenerator Würfel:

Zufallsgenerator : Roulettekessel

Urnenmodell der Statistik , ( außerordentlich vielseitig und sehr lehrreich !)

Eine Urne ist so etwas wie eine Lostrommel zum hineingreifen.

Galtonbrett

Galton Links

http://www.bics.be.schule.de/cif/physik/software/bpgalton.htm

Ball mit oberer und unterer Hälfte

Kreisel mit markierten Rändern

Russisches Roulette : Trommelrevolver mit einer Patrone in der Trommel , restliche Trommel leer

( sehr böse )

Reißnagel : als Beispiel eines Zufallsgenerators mit ungleicher Zufallsverteilung

Echter Zufall in der Physik:

Echter Zufall in der Biologie:

Zufallskanone in Conways Life siehe life.htm

Die Zufallskoanone produzierte eine zufällige Serie von Gleitern.








Komplizierte Echte Zufallszahlengeneratoren

Bei echten Zufallszahlengeneratoren handelt es sich um mechanische oder elektrische Geräte, die Zufallszahlen aus der ihnen zugrunde liegenden Verteilung liefern. Ein Beispiel für mechanische Zufallszahlengeneratoren sind Würfel (6-seitige, 10-seitige, 20-seitige).

Ein Beispiel für einen elektrischen Zufallszahlengenerator ist der Generator ERNIE(Electronic Random Number Indicator Equipment). Die Erzeugung von Zufallszahlen basiert hier auf der Erzeugung von Geräuschimpulsen bei Neonröhren, welche innerhalb konstanter Intervalle mit Hilfe von Zähleinrichtungen in Zufallszahlen umgewandelt werden. Verwendung fand dieser Generator bei Ziehung der Gewinner der ,,premium bond savings lottery" in Großbritannien.

Der Vorteil von ,,echten" Zufallszahlengeneratoren ist, daß eine Prognose wie ein Zufallsexperiment ausgehen wird, nicht möglich ist. Soll allerdings ein Zufallsexperiment mit genau den gleichen Zufallszahlen ein zweites Mal durchgeführt werden so ist dies nicht möglich. Ein Grund für ein solches Vorgehen ist z.B. die Veränderung von Parametern der zugrunde liegenden Verteilung, um Veränderungen im Simulationsablauf vorher und nachher festzustellen. Ein weiterer Nachteil, der bei echten Zufallszahlengeneratoren auftreten kann, ist der, daß sich die zugrunde gelegte Verteilung aufgrund von Verschleiß der mechanischen Generatoren schleichend verändert. ,,Echte" Zufallszahlengeneratoren müssen daher immer daraufhin überprüft werden, ob die Zufallszahlen, die sie liefern immer noch der Verteilung entsprechen, die zugrunde gelegt ist.

http://www.fh-weingarten.de/iaf/projekte/is/zufall.htm

Welche Anforderungen sind an Zufallserzeuger zu stellen ?

http://www.hausarbeiten.de/rd/archiv/informatik/info-zufall-handout/info-zufall-handout.shtml ***

Sicherheit durch Zufallszahlen

Intel hat ein auf thermisches Rauschen basierenden Zufallszahlengenerator entwickelt, der "echte" Zufallszahlen erzeugt.

von Carol Levin

Wählen Sie eine Zahl, irgendeine ganz beliebige Zahl. Na, haben Sie's? Egal, welche Zahl Sie gewählt haben - wirklich zufällig ist sie nie, denn dabei spielen auch psychologische Faktoren eine Rolle. Weisen Sie einen Computer an, eine zufällige Zahl zu wählen, und Sie überfordern den Computer. Das Ergebnis mag zwar zufällig erscheinen, aber tatsächlich handelt es sich dabei um eine Pseudo-Zufallszahl, generiert durch eine Berechnung wie zum Beispiel dem Lewis-Goodman-Miller-Generator:

xn=16.807 * xn-1(mod 231 - 1)

Das bedeutet, daß sich im Lauf der Zeit in den Zahlen, die ein Computer wählt, ein Muster herauskristallisiert. Und das kann zu Problemen führen.

Zufallszahlen sind extrem wichtig für die Computersicherheit, denn sie werden verwendet, um Sicherheits-Codes zu erzeugen, durch die Betrüger daran gehindert werden, in Online-Bankkonten einzubrechen, Online-Transaktionen zu gefährden und in digital unterzeichneten Dokumenten herumzuschnüffeln. Wer genügend Zeit und Geld hat, dem ist es möglich, ein Muster festzustellen und einen Code-Schlüssel nachzumachen.

Um bei der Lösung dieses Problems zu helfen, haben Sicherheitsexperten bei Intel einen auf thermischem Rauschen basierenden Zufallszahlengenerator entwickelt. Eine so generierte Zufallszahl kann als Eingabe verwendet werden, um sichere Codes zu erzeugen. Thermisches Rauschen ist eines der wenigen Quellen natürlicher Ereignisse, die wirklich zufällige und unberechenbarer sind (weitere sind z. B. radioaktiver Zerfall, Fluoreszenz oder Elektronenspin). Es entsteht durch die Erwärmung eines Widerstands auf dem Chip während des Betriebes. Die Temperatur, die der Widerstand abstrahlt, variiert im Lauf der Zeit, da sie durch Variationen im Luftstrom beeinflußt wird.

Auf Hardware basierende Zufallszahlengeneratoren gibt es bereits, aber sie sind sperrig und teuer. Durch Intels Bemühungen ist zum ersten Mal ein auf Hardware basierende Zufallszahlengenerator entwickelt worden, der in Großserie auf einem Standard-Bauteil produziert wird. Intel plant, den Zufallszahlengenerator auf seinem 810-Chipsatz auszuliefern, der in den ganz normalen Desktops verwendet werden soll.

HotBits: Genuine random numbers, generated by radioactive decay

People working with computers often sloppily talk about their system's "random number generator" and the "random numbers" it produces. But numbers calculated by a computer through a deterministic process, cannot, by definition, be random. Given knowledge of the algorithm used to create the numbers and its internal state, you can predict all the numbers returned by subsequent calls to the algorithm, whereas with genuinely random numbers, knowledge of one number or an arbitrarily long sequence of numbers is of no use whatsoever in predicting the next number to be generated.

Computer-generated "random" numbers are more properly referred to as pseudorandom numbers, and pseudorandom sequences of such numbers. A variety of clever algorithms have been developed which generate sequences of numbers which pass every statistical test used to distinguish random sequences from those containing some pattern or internal order. A test program is available at this site which applies such tests to sequences of bytes and reports how random they appear to be, and if you run this program on data generated by a high-quality pseudorandom sequence generator, you'll find it generates data that are indistinguishable from a sequence of bytes chosen at random. Indistinguishable, but not genuinely random.

HotBits is an Internet resource that brings genuine random numbers, generated by a process fundamentally governed by the inherent uncertainty in the quantum mechanical laws of nature, directly to your computer in a variety of forms. HotBits are generated by timing successive pairs of radioactive decays detected by a Geiger-Müller tube interfaced to a computer. You order up your serving of HotBits by filling out a request form specifying how many random bytes you want and in which format you'd like them delivered. Your request is relayed to the HotBits server, which flashes the random bytes back to you over the Web. Since the HotBits generation hardware produces data at a modest rate (about 30 bytes per second), requests are usually filled from an "inventory" of pre-built HotBits. Once the random bytes are delivered to you, they are immediately discarded--the same data will never be sent to any other user and no records are kept of the data at this or any other site. (Of course, if you're using the random data for cryptography or other security-related applications, you can't be certain I'm not squirreling away a copy. But I'm not, really.)

An alternative to downloading HotBits for later use is provided by the randomX package for Java. A program developed with randomX can select from a variety of pseudorandom sequence generators or genuine random data from HotBits, obtained on demand across the Internet.


Wie kann man Zufall künstlich erzeugen ? Zufallsgenerator



===Zufallszahlengenerator===



Als Zufallszahlengenerator, gelegentlich auch Zufallsgenerator oder schlicht Generator, bezeichnet man eine Prozedur, die eine Folge von Zufallszahlen erzeugt.



Das Simulationslemma besagt: Mit Hilfe von Standard-Zufallszahlengeneratoren kann man prinzipiell Zufallsvariablen (bzw. unabhängige, identisch verteilte Folge von Zufallsvariablen) zu jeder anderen Verteilung F über R simulieren (Inversionsmethode).



====Arten von Zufallszahlengeneratoren====

Man unterscheidet unter anderem folgende Arten von Zufallszahlengeneratoren (Auswahl):

physikalischer Zufallszahlengenerator (z. B. Ausnutzung radioaktiver Zerfallsvorgänge oder elektronischer Impulsschwankungen)

arithmetischer Zufallszahlengenerator (basieren auf der Arithmetik)

rekursiver arithmetischer Zufallszahlengenerator (Verwendung rationaler Zahlen)

Kongruenzgenerator

linearer Kongruenzgenerator

multiplikativer Kongruenzgenerator

gemischter linearer Kongruenzgenerator

Fibonacci-Generator

inverser Kongruenzgenerator

Schieberegister mit Rückkopplung

lineares Schieberegister

nichtlineares Schieberegister

Auszählreime in Kinderspielen stellen eine Art analoge Version von Zufallsgeneratoren da.



Rekursive arithmetische Zufallszahlengeneratoren gehören zu den Pseudozufallszahlengeneratoren, da sie bestimmte Eigenschaften von Zufallszahlen verletzen und man nur von Pseudozufallszahlen sprechen kann.



====Beispiele====

Münze, Würfel, Roulette, Urne



=====Münze:=====



http://upload.wikimedia.org/wikipedia/de/4/43/MÃŒnzmerkmale.bmp



=====Würfel:=====

http://upload.wikimedia.org/wikipedia/de/5/5c/Wuerfel_rot.jpg

Drei Spielwürfel

Ein Spielwürfel ist ein als Zufallsgenerator verwendeter Gegenstand, der auf mehrere, voneinander unterscheidbare Arten stabil auf der Ebene zu liegen kommen kann. Die meisten Würfel sind heute aus Holz oder Kunststoff und haben einen Durchmesser von etwa eineinhalb Zentimetern. Spielwürfel werden vor allem in den nach ihnen benannten Würfelspielen und in Glücksspielen, gelegentlich auch in Brettspielen verwendet.



Zum Bestimmen des Zufallsergebnisses wird der Würfel auf eine ebene Fläche geworfen. Sind mehrere Würfel gleichzeitig zu werfen oder soll das Ergebnis nicht allen Spielern einsichtig sein, so ist es zweckmäßig einen Würfelbecher zu benutzen. Nachdem der Würfel zur Ruhe gekommen ist, kann das Ergebnis an seiner Lage abgelesen werden.



Weitere in Spielen gebräuchliche Zufallsgeneratoren sind Spielkarten, das Glücksrad und das Knobeln.

Formen



Die am meisten verwendete, klassische Form ist die eines geometrischen Würfels, worauf auch der Begriff Spielwürfel zurückgeht. Um seine Rolleigenschaft zu verbessern, sind die Ecken heute häufig abgerundet. Die Flächen sind meistens mit ein bis sechs Punkten versehen, die auch als Augen bezeichnet werden, wobei die Augensumme sich gegenüberliegendener Seiten in der Regel sieben ergibt. Die Orientierung der gegenüberliegenden Paare (1,6), (2,5), (3,4) ist im westlichen Kulturkreis so festgelegt, dass die Ziffern 1, 2 und 3 im Gegenuhrzeigersinn gesehen werden, während sie im Fernen Osten im Uhrzeigersinn ausgerichtet sind.

In der Antike und im Mittelalter wurden Sprunggelenkknöchelchen von Paarhufern wie Schafen oder Ziegen zum Würfeln verwendet. Im Mittelalter waren sie unter dem Namen Buckelhörner bekannt; der lateinische Name lautet astragali. Durch deren kantige Form sind vier verschiedene Ruhepositionen möglich. Die Wahrscheinlichkeit für diese Ergebnisse ist unterschiedlich hoch, eine Tatsache, die auch in den Regeln des beliebten römischen Würfelspiels Astragaloi berücksichtigt wird.

Im Sinne dieses Artikels ist auch ein Münzwurf als Würfel anzusehen. Münzen wurden wohl seit ihrer Erfindung auch für Zufallsentscheidungen benutzt.



http://upload.wikimedia.org/wikipedia/de/9/97/20-sided_dice_250.jpg

20-seitiger Spielwürfel

Vor allem im Papier-und-Bleistift-Rollenspiel kommen auch vom Würfel verschiedene Polyederformen zum Einsatz. Dabei wünscht man, dass die einzelnen Ergebnisse mit jeweils gleicher Wahrscheinlichkeit auftreten und die Ruhepositionen eine gewisse Stabilität in ihrer Lage aufweisen. Diese Eigenschaften sind für die fünf platonischen Körper erfüllt, die nicht zuletzt auch deshalb gerne benutzt werden, da ihnen aufgrund ihrer zahlreichen Symmetrien ein hoher ästhetischer Reiz zugesprochen wird. Weil der klassische Würfel selbst auch ein platonischer Körper ist, ergeben sich als neue Formen vier-, acht-, zwölf- und 20-seitige Spielwürfel.

http://upload.wikimedia.org/wikipedia/de/1/19/4-sided_dice_250.jpg

4-seitiger Spielwürfel

Das vierseitige Tetraeder weist dabei die Besonderheit auf, dass in den Ruhepositionen keine Fläche, sondern eine Ecke des Körpers nach oben weist, und sich deshalb die Ergebnisse nicht auf die gewohnte Weise von den Seiten ablesen lassen. Deshalb sind hier häufig die nach oben ragende Ecke oder, wie auf dem Foto zu sehen, die Kanten der untenliegenden Seite an den sichtbaren, angrenzenden Seiten markiert.

Ebenfalls gebräuchliche zehn- und 100-seitige Würfel weisen im Verhältnis zu ihrer Flächenanzahl weniger Symmetrien auf als die platonischen Körper. Sie werden aber gerne benutzt, um beispielsweise in unserem Dezimalsystem zufällige Prozentzahlen zu erzeugen.



Einen Spielwürfel, bei dem jedes mögliche Ergebnis mit exakt gleicher Wahrscheinlichkeit auftritt, nennt man einen idealen Würfel. Für die meisten Würfel wird die Form eines idealen Würfels gewählt, wobei physikalisch bedingt immer gewisse Abweichungen bei der Fertigung auftreten. Bei einem guten Würfel ist diese Abweichung sehr gering. Gelegentlich wird die Wahrscheinlichkeitsverteilung bewusst zugunsten bestimmter Ergebnisse manipuliert, möglichst ohne den Würfel optisch zu verändern, um sich im Spiel einen Vorteil zu verschaffen. In diesem Fall spricht man von einem gezinkten Würfel. Die Möglichkeiten beinhalten das Verändern der Gewichtsverteilung, unterschiedlich stark abgerundete Kanten bzw. Ecken sowie das Verziehen von manchen Flächen. Zu stark gezinkte Würfel verraten sich durch eine torkelnde Rollbewegung, was beim Einsatz eines Würfelbechers aber nicht auffällt. Eine weitere Manipulationsmöglichkeit ist es, im Inneren des Würfels einen Dauermagneten zu platzieren um den Würfelwurf bei Bedarf durch einen zweiten, beispielsweise unter die Tischplatte gehaltenen, Magneten zu beeinflussen. Um das Zinken zu erschweren, werden im Kasino transparente Würfel eingesetzt.



====Urne====

*Ohne zurücklegen

*Mit zurücklegen



Eine Urne ist ein Behälter in dem meist feststoffliche Dinge temporär oder dauerhauft aufbewahrt werden.



Lotterieurnen



Bei Lotterien und verwandten Spielen werden Lose oder Kugeln in eine Urne gesteckt und anschließend verdeckt gezogen, um ein Zufallsereignis zu erzeugen. Urnen haben sich dabei als universelle Werkzeuge der Stochastik erwiesen, da man mit Ihnen fast alle Arten von Zufall und Wahrscheinlichkeit simulieren kann. Wichtig ist der Unterschied der Ziehung mit Zurücklegen und ohne Zurücklegen.



Siehe auch http://de.wikipedia.org/wiki/Lotterie



====Roulette====



Roulette ist ein Glücksspiel, bei dem üblicherweise in einer Spielbank mit Hilfe einer Kugel in einem rotierenden liegenden Rad (genannt: Kessel) eine Zufallszahl gezogen wird. Die Spieler wetten auf die Zahl oder auf Zahlengruppen (so genannte Chancen), indem sie ihren Einsatz mit Hilfe von Spielmarken (Jetons) auf die entsprechenden Felder des Spieltisches legen. Wird die Zahl gezogen oder ist in der entsprechenden Zahlengruppe, wird ein Vielfaches des Einsatzes als Gewinn ausgezahlt und der Einsatz zurückgegeben. Wird die Zahl nicht gezogen, fällt der Einsatz an die Spielbank.



Die Erfindung des Roulettespiel wird dem französischen Mathematiker Blaise Pascal zugeschrieben. Er soll es zur Berechnung von Wahrscheinlichkeiten entworfen haben. Es wird mit den Zahlen 0 bis 36 gespielt. In manchen Spielbanken, so in Belgien, gibt es auch, zum Vorteil der Spielbank, die Doppelnull. In den USA wird auf einem vereinfachten Tableau mit Doppelnull gespielt.



Standardtypen der Wetten



Im Roulettespiel gibt es Standards bei den Wetten. Gewettet werden kann



*auf eine einzelne Zahl, z.B. 1, genannt: Plein, Gewinnwahrscheinlichkeit 1/37, bei Gewinn gibt es das 35-fache des Einsatzes und den Einsatz zurück.

*auf zwei auf dem Spielplan nebeneinanderliegende Zahlen, z.B. 1 und 2 oder 1 und 4, genannt: Cheval, Gewinnwahrscheinlichkeit 2/37, bei Gewinn gibt es das 17-fache des Einsatzes und den Einsatz zurück.

*auf drei auf dem Spielplan nebeneinanderliegende Zahlen, z.B. 1, 2 und 3, genannt: Transversale Plein, Gewinnwahrscheinlichkeit 3/37, bei Gewinn gibt es das 11-fache des Einsatzes und den Einsatz zurück.

*auf vier Zahlen, die auf dem Spielplan ein Quadrat bilden, z.B. 1, 2, 4 und 5, genannt: Carre; oder auf die ersten vier Zahlen 0, 1, 2 und 3, genannt: Die ersten Vier. Die Gewinnwahrscheinlichkeit ist 4/37, bei Gewinn gibt es das Achtfache des Einsatzes und den Einsatz zurück.

*auf sechs auf dem Spielplan nebeneinanderliegende Zahlen, z.B. 1 bis 6, genannt: Transversale Simple, Gewinnwahrscheinlichkeit 6/37, bei Gewinn gibt es das Fünffache des Einsatzes und den Einsatz zurück.

*auf 12 auf dem Spielplan nebeneinanderliegende Zahlen, z.B. 1 bis 12, genannt: Dutzende; oder 12 untereinanderliegende Zahlen, z.B. 1, 4, 7, ..., 34, genannt: Kolonnen. Die Gewinnwahrscheinlichkeit ist 12/37, bei Gewinn gibt es das Zweifache des Einsatzes und den Einsatz zurück.

*auf 18 Zahlen, die einer Gruppe angehören, die so genannten "einfachen Chancen". Dabei werden drei unterschiedliche Gruppen gebildet, nämlich die Zahlen 1 bis 18, genannt: Manque, und 19 bis 36, genannt: Passe; die geraden Zahlen 2, 4, 6, ..., 36 genannt: Pair, und die ungeraden Zahlen 1, 3, 5, ..., 35 genannt: Impair; sowie die so genannten roten Zahlen 1, 3, 5, 7, 9, 12, 14, ..., 36, genannt: Rouge; und die so genannten schwarzen Zahlen 2, 4, 6, 8, 10, 11, ..., 35, genannt: Noir. Die Gewinnwahrscheinlichkeit beträgt 18/37, bei Gewinn gibt es den einfachen Einsatz und den Einsatz zurück.

*auf Zahlen, die im Kessel nebeneinander angeordnet sind. Dabei werden im Standard drei Gruppen unterschiedlicher Größe gebildet, welche die Namen "Große Serie 0/2/3", "Serie 5/8" und "Orphelins" tragen.

Generell gilt: '''Je höher die Gewinnwahrscheinlichkeit, umso geringer die Gewinnausschüttung, und umgekehrt.''' Die Standardwetten erlauben es den Spielern, mit dem geforderten Minimaleinsatz auf mehr als eine Zahl zu wetten. Darüber hinaus steht es jedem Spieler frei, pro Durchgang seine eigenen Zahlenkombinationen zu bilden, für die er im Allgemeinen dann jedoch mehr als den Minimaleinsatz aufwenden muss.



Die '''Chance''' beim Roulette-Spiel bedeutet die Art und Höhe eines Einsatzes gemäß den Spielregeln.



Konventionelle Satzmöglichkeiten sind:



*Plein = 1 Nummer

*Cheval = 2 Nummern

*Transversale Simple = 3 Nummern

*Erste Drei = 3 Nummern (<u>1</u>, <u>2</u>, <u>3</u>)

*Carré = 4 Nummern

*Erste Vier = 4 Nummern (<u>0</u>, <u>1</u>, <u>2</u>, <u>3</u>)

*Transversale Simple = 6 Nummern

*Dutzend = 12 Nummern (auch doppelte Chance genannt)

*Kolonne = 12 Nummern (auch doppelte Chance genannt)

*Einfache Chance = 18 Nummern



Daneben spricht man von "objektiven" und "subjektiven" Chancen, um die Möglichkeit des Gewinns zu verdeutlichen. Die "subjektive" Chance ist das Setzen auf eine "Glückszahl" (wie Geburtstag oder Hochzeitstag) ohne Beachtung der Permanenz (der bisher gefallenen Nummern) oder statistischer Verteilungen. Im Gegensatz dazu nutzt die "objektive" Chance bestimmte Ausprägungen der Permanenz aus und setzt z.B. auf die 3 letzten noch nicht gefallenen Nummern oder auf den Wechsel einer Farbe nach Zero. Die Wahrscheinlichkeitsrechnung entlarvt solche "Strategien" jedoch als keineswegs "objektiv", sondern als bloßen Wahn -- eine lange nicht mehr gefallene Zahl oder Farbe hat keineswegs eine höhere Chance als eine soeben gefallene. Personen, die allzu fest an solche mathematisch nicht haltbaren Konstrukte wie "objektice Chance" glauben, sind vermutlicht Spielsucht-gefährdet.



Man spricht von Chancengröße ''m'', um die Anzahl der gesetzten Nummern eines Satzes anzugeben. Bei einfachen Chancen (Rot oder Schwarz) ist m = 18, beim Carré ist m = 4.

Zufallsgenerator für Pseudozufallszahlen

Pseudozufallszahlengeneratoren

Bei Pseudozufallszahlen handelt es sich um ,,Zufallszahlen" die mit Hilfe eines mathematischen Algorithmus erzeugt werden. Streng genommen sind diese Zahlen nicht zufällig, denn mit Kenntnis des erzeugenden Algorithmus ist jede Person in der Lage, genau die gleiche Folge von Zufallszahlen zu reproduzieren, beziehungsweise die nachfolgenden ,,Zufallszahlen" vorauszusagen.

Vorteil der Pseudozufallszahlengeneratoren ist, daß verschiedene Experimente mit den gleichen Zufallszahlen durchgeführt werden können, bei gleichzeitiger Änderung der zugrunde liegenden Parameter. Die Simulationsergebnisse lassen sich so miteinander vergleichen.

Der große Nachteil der Pseudozufallszahlengeneratoren ist jedoch, daß durch Kenntnis des Algorithmus erzeugte Zufallszahlen nicht mehr zufällig, sondern berechenbar sind.

Ein Computer kann bisher nur bedingt als Zufallserzeuger dienen, denn er liefert bisher nur errechnete Pseudozufallszahlen.

http://www.educeth.ethz.ch/informatik/werkstatt/multiplik/zufallszahlen/

http://www.educeth.ethz.ch/informatik/werkstatt/multiplik/zufgen/

http://www.elf.org/etc/randomnumbers.html

http://home.t-online.de/home/poisoner/krypto/prngs.htm***

http://www.uni-ulm.de/~cschmid/v2000s/webprob/sb1/sb1_2.htm***

Literatur zu Pseudozufallszahlen

Motwani, R., Raghavan, P.: Randomized Algorithms. Cambridge University Press 1995

Hromkovic, J.: Algorithmics for Hard Problems. Introduction to Combinatorial Optimization,

Randomization, Approximation, and Heuristics. Springer-Verlag 2001.

Hromkovic, J.: Communication Protocols – an Exemplary Study of the Power of Randomness.

In: Pardalos, P., Rajasekaran, S., Reif, J., Rolim, J. (Eds.): Handbook of Randomized

Computing. Kluwer Publ. 2001.

Generator vom Rechenfehler-Typ

Er erzeugt Pseudozufallszahlen im Intervall (0;1). Zu einer (vorgegebenen) Anfangsvariable x wird z.B. 3,1415... addiert, die Zahl wird mit 8 potenziert und vom Ergebnis der Nachkommateil als neue Pseudozufallszahl ausgegeben. Hier werden also Fehler, die wegen der begrenzten Rechengenauigkeit auftreten, als Pseudozufallsziffern benützt.

Rechenfehler-Typ 2

Eine andere Möglichkeit besteht z.B. in der Berechnung von irrationalen Logarithmen logba mit 1< a < b. Wegen der Rechenfehler werden die Nachkommastellen schnell pseudozufällig. Hier ein möglicher Quellcode (a=2, b=10):

Linearer Kongruenz Algorithmus

Eine Startzahl S ("Seed") wird mit der Zahl A multipliziert, die Zahl B wird addiert. Das Ergebnis wird modulo M genommen, das ergibt die neue Zahl S. S/M ist eine Pseudozufallszahl zwischen 0 und 1.

Hier der Quellcode des Generators.

function rnd()

S=(A*S+B)%M;

return S/M;

Im vorliegenden Fall gilt als Initialisierung:

var A=11113,B=1,M=524288,S=1123;

Hier können Sie eine andere Initialisierungsvariable eingeben:

Günstige bzw. ungünstige Wahlen:

Nach Knuth erhält man für M=2n die maximale Periodenlänge, wenn B ungerade und A mod 4 = 1 gilt. Da die Modulo-Arithmetik bei Integer-Typen "automatisch" durch Überlauf eingebaut ist, wird man meist M als Zweierpotenz wählen.

(In JavaScript hat man dabei jedoch Probleme: Es wird auf Gleitkomma-Arithmetik umgeschaltet. Im vorliegenden Fall n=19, A=11113, B=1 tritt noch keine Umschaltung ein)

Allgemeiner erhält man maximale Periodenlänge, wenn ggT(B;M)=1 und A-1 ein Vielfaches jedes Primfaktors von M und - falls M ein Vielfaches von 4 auch A-1 ein Vielfaches von 4 ist.

Literatur

http://www.eduvinet.de/gebhardt/stochastik/zufallsg.html


Wo geht Zufall verloren ?

Wasser gefriert zu Eiskristallen , Salz kristallisiert aus

Eine gleichmäßige Verteilung wird ungleichmäßig

Viele zufällige Mikrozustände werden zu einem gleichmäßigen Makrozustand

( zb interstellarer Staub verdichtet sich zu einem Stern

Viele Wasserteilchen werden zu einer Wolke )

Bei einem Mikadospiel wird aus dem zufälligen Haufen an Mikadostäben im Laufe des Spiels ein geordneter Haufen vor jedem Spieler.

Aus dem ungeordneten Kartenfolgen bei Solitaire oder Gaps werden im Lauf des Spiels wieder geordnete Folgen.

Ein Zimmer wird aufgeräumt.


Zufallsvermehrung

Mischen von Spielkarten die vorher geordnet waren

Erwärmen und Schmelzen von Kristallen

Erwärmen und Verdampfen von Flüssigkeiten


Was kann man mit Zufall alles machen ?

Ganz egal ob man an den echten Zufall glaubt oder nicht, im praktischen Alltag ist der Zufall längst nicht mehr wegzudenken, denn man kann einige schöne ( und unschöne ) Dinge damit machen.

Gerechtigkeit produzieren

zB Knappe Studienplätze vergeben. Organempfänger auslosen.

Spiele spannend machen

In den meisten Spielen ist ein Zufallsfaktor eingebaut. zb Lotto , Klassenlotterie etc Kartenspiele

Randomisation

Randomisierte Versuche zum Wirksamkeitsnachweis durchführen. Die Wirksamkeit von Medikamenten nachweisen.

Unter dem Begriff Randomisation versteht man die zufallsmässige Aufteilung einer größeren Anzahl von Versuchspersonen oder Versuchstieren in 2 oder mehrere Gruppen. Umgangssprachlich kann man den Begriff Randomisation auch mit Auslosen übersetzen.

Durch eine Randomisation kann man nicht gewollte, systematische Einflüsse auf Versuchsergebnisse verkleinern. Man braucht die Randomisation bei der Durchführung von statistischen Testverfahren.

Die Wirksamkeit von medizinischen Maßnahmen wird oft mittels Randomisation in eine Gruppe von behandelten und in eine Gruppe von nichtbehandelten Versuchspersonen überprüft.

Manche bringen ethische Bedenken bei der Forderung nach einer Randomisation vor. Diese sind aber meist nicht zutreffend, da die Randomisation die statistische Aussagekraft erhöht und damit gewährleistet, dass möglichst wenige Personen mit der unwirksamen Alternative behandelt werden.

Kryptographie

Echte Zufallszahlen sind wichtig für die Kryptographie z.B. für die Erzeugung von geheimen Schlüsseln sowie in der Simulation zufälliger Prozesse!

Stochastik

Die Wissenschaft vom Zufall.

Statistik

Echte Unterschiede in 2 sonst gut vergleichbaren Gruppen herausarbeiten. Die Echtheit von Meßdaten überprüfen.

Neue Lösungen suchen

Ausprobieren von zufälligen Möglichkeiten beim Problemlösen und behalten von brauchbaren Möglichkeiten.

Zufall und Geld

Geld verdienen kann der Staat mit Lotto , Toto , Klassenlotterie , Spielcasinos Geld gewinnen kann der einzelne Mitspieler, wenn er viel Glück hat.

Unregelmäßige Flächen berechnen

http://www.informatik.hu-berlin.de/Institut/struktur/algorithmen/lehre/lvws0102/rand_alg.shtml

Die Grundidee beim Entwurf randomisierter Algorithmen besteht darin, dass man durch Einsatz von Zufall oft auf elegante Art die Strategie eines bösartigen Gegenspielers vereiteln kann. In der Vorlesung wird dieses Prinzip unter anderem auf Graphenalgorithmen, Online-Algorithmen (wo Entscheidungen auf der Basis von unvollständigen Informationen gefällt werden müssen) und Monte-Carlo Verfahren angewandt.

Empfohlene Literatur

Geld erwirtschaften

Geld gewinnen , wenn man viel Glück hat

und noch vieles mehr


Was soll man unter einer Folge von Zufallszahlen verstehen?

Der österreichische Mathematiker Richard von Mises versuchte es in der ersten Hälfte des 20. Jahrhunderts mit fehlender Vorhersehbarkeit: Eine 0-1-Sequenz sollte als zufällig gelten, wenn es keine Regel gibt, die an irgendeiner Stelle das nächste Glied aus den vorhergehenden mit einer Wahrscheinlichkeit größer als 50 Prozent prognostiziert. Für den Münzwurf bedeutet das: Systeme, die dem Spieler einen Vorteil versprechen, existieren nicht.

Erst in den sechziger Jahren fanden der Russe Andrej Nikolajewitsch Kolmogorow und der Amerikaner Gregory Chaitin unabhängig voneinander mit einer speziellen Komplexitätstheorie einen Ausweg: Eine Zahlenfolge ist ihrer Meinung nach zufällig, wenn sie sich nicht mit einer kürzeren Zeichensequenz beschreiben lässt. Die Folge 11111 ... etwa kann man knapp ausdrücken mithilfe des mit Nullen und Einsen geschriebenen Computerbefehls für "Schreibe lauter Einsen!", 01010101 ... mit einem entsprechenden "wiederhole 01!". Bei Zufallsfolgen darf es keine solche Umschreibung in Kurzform geben.

Chaitin , ein bekannter Zufallsforscher, gab in einem Aufsatz folgende Eins-Null Sequenz an

Lit chaitin G.J. 1975 scientific American 232 S 47 -52

Eine echte Zufallsfolge von 0 und 1 ist kaum oder nicht komprimierbar.


Zufallsvariable

Als Zufallsvariable bezeichnet man in der mathematischen Wahrscheinlichkeitstheorie das numerische Ergebnis eines nicht-deterministischen (zufälligen) Prozesses oder Experimentes. Beispielsweise liefert der Wurf eines Würfels eine Zufallsvariable aus der Menge der Zahlen {1, 2, 3, 4, 5, 6}.

Die Häufigkeiten der unterschiedlichen Werte einer Zufallsvariable lassen sich mit einer Verteilungsfunktion angeben. Wählt man beispielsweise das Alter einer zufälligen Person als Zufallsvariable, so ist nicht zu erwarten, dass alle Altersangaben gleich häufig vorkommen.

Je nachdem, ob eine Zufallsvariable aus diskreten Einzelereignissen (Beispiel Würfel) oder aus einer kontinuierlichen Menge von reellen Werten ermittelt wird (Beispiel beliebig genau messbare Weite eines Wurfes), lassen sich diskrete und kontinuierliche Zufallsvariablen unterscheiden.


Zufallsmathematik

Es ist erstaunlich , daß es in der realen Welt sehr einfache Modelle gibt , die sehr gute Zufallszahlen und Zufallsreihen liefern, daß es in der Mathematik aber keinen elementaren und trivialen Zufallsprozeß gibt. Man muß etwas mühsam Pseudozufallszahlen konstruieren, um mit dem Zufall arbeiten zu können.

Der Zufall ist also ein Beispiel dafür , das Platon nicht immer recht haben muß. Manchmal kann die Realität treffender sein als die schwer und kompliziert verstehbare Idealvorstellung einer Sache.

Vielleicht kann man aus der Not eine Tugend machen und einfach einen binären idealen Zufallsgenerator ( wie es eine Münze darstellt ) , als Basisobjekt einer Zufallsmathematik heranziehen.

Einen einfacheren Zufall als das elementare Zufallsereignis mit 2 Alternativen gibt es nicht.

Dabei endet man natürlich zu einem großen Teil bei schon bekannten Gesetzen der Wahrscheinlichkeitsrechnung , aber vielleicht kommen bei so einem Vorgang auch ein paar neue Dinge heraus , die über die üblichen Erkenntnisse der Wahrscheinlichkeitsrechnung und Statistik hinausgehen.  

Bei der Wahrscheinlichkeitsrechnung wird die Wahrscheinlichkeit in Form von Brüchen angegeben. Die Wahrscheinlichkeit als numerischer Wert kann nur zwischen 0 und 1 liegen. Je unwahrscheinlicher ein Ereignis ist , desto näher liegt seine Wahrscheinlichkeit bei 0. Ein sicheres Ereignis hat die Wahrscheinlichkeit 1. Ziel der Wahrscheinlichkeitsrechnung ist es zufällige Ereignisse oder Vorgänge berechnen und damit vielleicht auch besser erklären zu können.

Ein erstes simples Ziel ist es beliebige 0 und 1 Folgen aus Zufallsprozeßen zu formalisieren und mathematisch mit ihnen umzugehen.

Die Frage ist, ob es ausreicht, einen einzigen Zufallsmechanismus heranzuziehen und daraus alle anderen Zufallsmechanismen abzuleiten.

( Wie kann man aus der Wiederholung der Münze zb einen Würfel ableiten ?)

Mögliche Definitionen:

1.Gegeben Zufallszahl 1 = zz , entspricht einer Münze

2.Diese Zufallszahl zz kann beliebig wiederholt werden , ihre Länge soll definiert werden: zz(3) = Achterwürfel = Zufallsbinärzahl mit 3 Stellen

( zb Ergebnisraum = 000,001,010,100,011,110,101,111)

3.Aus dem Ergebnisraum müssen vorher festgelegte Lösungen streichbar sein . Werden Sie zufällig getroffen wird zz wiederholt

zz(3; -111,-000) heißt dann 3 mal Münze , falls Ergebnis 111 oder 000

wiederhole zz bis Ergebnis ungleich 111 oder 000.

So kann man dann aus einem Achterwürfel durch Streichen der Möglichkeiten 111 und 000 und Wiederholung des Zufallsvorganges bei solchen verbotenen Lösungen einen Sechserwürfel konstruieren , ohne denn Zufallscharakter des Vorganges echt zu verletzen.

4. Abgeschwächter Zufall oder windschiefer Zufall:

Was passiert wenn man auf einem Würfel 5 Seiten mit 0 beschreibt und eine Seite mit 1 ? Man erhält eine Zufallsfolge . Diese zeigt aber natürlich 5mal sooft eine 0 als eine 1. Die Paare 00 , 01 , 10 sind viel häufiger als das Paar 11. Wie kann man so einen schiefen Würfel mit den Z Zahlen beschreiben ?

Kann man das leicht programmieren ?

zz(3 ; zn1 = 000 = 0 , zn2 = Rest = 1)

Man definiert also eine Funktion mit neuen Zufallszahlen zn und gibt explizit die Vorschrift an , mit der sie aus zz erzeugt werden.

zn = f(zz(3;  wobei zn = 0 if zz(3) = 000 ; zn = 1 if zz(3) ungleich 000))

Etwas umständlich aber die Möglichkeiten werden dadurch natürlich größer.



Die Stochastik ist die Teildisziplin der Mathematik, die sich mit dem Zufall beschäftigt. Erstaunlicherweise taucht der Begriff Zufall in den meisten Büchern der Stochastik nur relativ spärlich auf. Meist wird die Stochastik auf den Basisbegriffen Wahrscheinlichkeit, Häufigkeit und Erwartungswert aufgebaut.





Vergleiche beispielsweise : http://de.wikipedia.org/wiki/Stochastik





Der Begriff Zufall kommt dann meistens etwas später als Zufallsexperiment oder Zufallsvariable in die Diskussion. Eine grundlegende Klärung, was den Zufall eigentlich ist und wie man ihn messen kann erfolgt selten ( zumindest nicht in den Stochastikschulbüchern ). Auch die Verbindung zwischen so zentralen Begriffen wie Zufall, Entropie, Ordnung und Information wird selten hergestellt.





Man muß 3 Begriffe trennen:



Zahl der Möglichkeiten ( Ereignisraum eines Zufallsexperimentes)

Gesamtzufallsmenge = Entropie in der Mathematik

Wahrscheinlichkeit



Für den idealen einmaligen Münzwurf gilt dann beispielsweise:



Zahl der Möglichkeiten : 2

Gesamtzufallsmenge = Log2(2) = 1 bit

Wahrscheinlichkeit jeder Möglichkeit 0,5



Wiederholt man den Münzwurf 2 mal , dann gilt:



Zahl der Möglichkeiten : 4

Gesamtzufallsmenge = Log2(4) = 2 bit

Wahrscheinlichkeit jeder Möglichkeit 0,25









Zufall quantitativ





In der formalen Welt der Mathematik lassen sich abstrakte Strukturen definieren, die aus der menschlichen Vorstellung beziehungsweise Erwartung von Zufall motiviert sind. Glücksspiele motivierten die ersten mathematischen Wahrscheinlichkeitstheorien und werden auch heute noch oft zu ihrer Illustration eingesetzt.





Die folgenden Begriffe sind zentral zur formalen Beschreibung des Zufalls:



(Zufalls)experiment: Die durchgeführten und/oder beobachteten Vorgänge (beispielsweise zweimaliges Werfen eines Würfels).

Ergebnis oder Elementar-Ereignis: Beobachtung (beispielsweise erster Wurf '3', zweiter Wurf '5').

Ereignis: Aus Elementarereignissen zusammengesetze Menge (das Ereignis "gerade Zahl gewürfelt" ist aus den Elementarereignissen "2,4 oder 6 gewürfelt" zusammengesetzt).

Wahrscheinlichkeit: Jedem Elementarereignis wird ein Zahlenwert zwischen 0 (tritt nie ein) und 1 (tritt immer ein) zugeordnet (beispielsweise Gleichverteilung: Die Wahrscheinlichkeit für jede Zahl auf dem Würfel ist gleichgroß, nämlich 1/6). Bei einem Kontinuum möglicher Ergebnisse spricht man von einer Wahrscheinlichkeitsverteilung.



Offensichtlich sind nur solche Zufallsexperimente interessant, die mehr als ein mögliches Ergebnis haben.





Die Statistik versucht, zu einem gegebenen Zufallsexperiment die zugrundeliegende Wahrscheinlichkeitsverteilung zu ermitteln.











Zufallsexperiment





In der Wahrscheinlichkeitstheorie bezeichnet ein Zufallsexperiment eine Serie von gleichwertigen und voneinander unabhängigen Versuchen. Als Versuch versteht man hier einen Vorgang, der ein nicht vorhersagbares, erfassbares Ergebnis zur Folge hat, zum Beispiel das Werfen einer Münze oder eines Spielwürfels.





Obwohl das Ergebnis jedes einzelnen Versuchs zufällig ist, lassen sich bei hinreichend häufiger Wiederholung Gesetzmäßigkeiten erkennen. Die interessierenden Größen eines Zufallsexperimentes nennt man Zufallsvariablen.











Beispiel eines Zufallsexperimentes





Die Stufen eines Zufallsexperiments sind



Vor dem Experiment: Mindestens 2 Ergebnisse sind möglich, es ist aber noch nichts entschieden.

Das Zufallsexperiment wird durchgeführt.

Aus den mindestens 2 möglichen Ergebnissen wurde eines zufällig ausgewählt.



Das einfachste Zufallsexperiment hat zwei mögliche Ergebnisse, die die gleiche Wahrscheinlichkeit besitzen.





Man kann mit einer Münze diese Art von Zufallsexperiment durchführen und selber Zufallszahlen erzeugen. Dabei ordnet man der einen Seite der Münze die Zahl 0, der anderen die Zahl 1 zu. Durch Notieren vieler Wurfergebnisse erhält man eine Folge von 0 und 1. Eine solche Folge ist das Ergebnis eines sehr einfachen Zufallsprozesses.





Die so erhaltenen Zufallsfolgen von 0 und 1 sind leicht statistisch untersuchbar. Dabei kann man Eigenschaften dieser Zufallsfolgen feststellen, die bei nicht-zufälligen Folgen (also Folgen, die deterministisch nach irgendeinem Gesetz ermittelt werden) nicht auftreten. Auf diese Weise kann man Zahlenfolgen auf echte Zufälligkeit prüfen.





Auffällige statistische Abweichungen von reinen Zufallsfolgen können zum Beispiel verwendet werden, um wissenschaftliche Fälschungen zu enttarnen, da Messungen stets auch einen zufälligen Messfehler beinhalten, während erfundene Zufallsfehler oft gerade durch den Versuch, sie möglichst zufällig erscheinen zu lassen, deutliche Abweichungen vom Zufallsergebnis enthalten.





Je länger eine Zahlenfolge ist, desto klarer kann unterschieden werden, ob es sich um eine zufällige oder nicht zufällige Folge handelt. Theoretisch kann auch ein Zufallsexperiment eine Folge von hundert Nullen hintereinander liefern, nur ist das so unwahrscheinlich, dass man in diesem Fall mit gutem Recht von einer Regelmäßigkeit ausgehen darf. Auf der anderen Seite gibt es deterministische Algorithmen, deren Ergebnisse sehr ähnlich denen eines Zufallsexperiments sind, so genannte Pseudozufallsgeneratoren. Bei guten Pseudozufallsgeneratoren braucht man eine sehr lange Zahlenreihe, um den Unterschied zum echten Zufall erkennen zu können. In der Informatik werden gelegentlich Zufallszahlen benötigt. Der Versuch, sie mit dem Computer zu berechnen, ist ein Widerspruch in sich.





Eine Folge, die die Realität abbildet, ist nicht immer rein deterministisch oder rein zufällig, sondern es liegt häufig eine Mischung aus beidem vor. Ein einfaches Beispiel wäre, wenn man beispielsweise stets eine Ziffer per Münzwurf bestimmt, die nächste als den Unterschied zwischen den beiden vorhergehenden Ziffern, dann wieder Münzwurf, und so fort. Durch Untersuchung solcher Folgen bekommt man ein recht gutes Verständnis für den Zufall und die Mischung von Zufälligem und Nichtzufälligem, wie es ja oft in der Realität anzutreffen ist.





Ein elementares Zufallsereignis beruht auf Gleichheit und Ungleichheit



Die zwei möglichen Varianten müssen gleich sein (das heißt gleichwahrscheinlich).

Trotzdem müssen sie irgendwie ungleich, nämlich unterscheidbar sein.



(Münze: beide Seiten müssen mit derselben Wahrscheinlichkeit auftreten können, trotzdem müssen beide Seiten verschieden geprägt (beziehungsweise gefärbt etc.) sein, sonst könnte man sie nicht unterscheiden.)





Siehe auch Abbildungen unter http://www.madeasy.de/2/zufall.htm#5











Zufallsvariable, Zufallsgröße





Als Zufallsvariable oder Zufallsgröße bezeichnet man eine mathematische Variable, die je nach dem Ergebnis einer als zufällig aufgefassten Prozedur verschiedene Werte annehmen kann. Die Prozedur kann eine Auslosung sein, die Berechnung einer Pseudozufallszahl oder die Messung einer statistisch verteilten und/oder mit Messfehler behafteten Größe.





Beispielsweise ist die Augenzahl eines Würfels eine Zufallsvariable, die die Werte 1, 2, 3, 4, 5 oder 6 annehmen kann.





Wenn die Menge der möglichen Werte einer Zufallsvariablen endlich (wie beim Würfel) oder abzählbar unendlich ist, nennt man die Zufallsvariable diskret. Wenn die Wertemenge überabzählbar ist, typischerweise also aus reellen Zahlen besteht (wie bei der idealisierten Messung einer physikalischen Größe), heißt die Zufallsvariable stetig (kontinuierlich).





Die Wahrscheinlichkeiten der möglichen Werte einer diskreten Zufallsvariable bilden eine Wahrscheinlichkeitsverteilung. Die Wahrscheinlichkeit, beim Würfeln mit zwei Würfeln die Gesamtaugenzahl Z zu erreichen, folgt zum Beispiel der Wahrscheinlichkeitsverteilung P(Z)=(6-|7-Z|)/36.





Den möglichen Wert einer kontinuierlichen Zufallsvariablen kann man dagegen keine endliche Wahrscheinlichkeit zuordnen; man muss hier mit Wahrscheinlichkeitsdichten und/oder kumulativen Wahrscheinlichkeitsverteilungen arbeiten.





In einer abstrakteren Formulierung der Wahrscheinlichkeitstheorie bezeichnet man als Zufallsvariable eine messbare Funktion von einem Wahrscheinlichkeitsraum in einen Maßraum. Normalerweise wählt man als Bildraum die Menge der |reellen Zahlen, ausgestattet mit der Borelschen σ-Algebra.











Zufallszahlen





In der Statistik bezeichnet man mit Zufallszahl den Wert einer Zufallsvariable bei einem Zufallsexperiment. Das Ergebnis des Experiments ist von früheren Ergebnissen unabhängig.





Zufallszahlen werden bei verschiedenen Methoden der Statistik benötigt, z.B. bei der Auswahl einer repräsentativen Stichprobe aus einer Grundgesamtheit, bei der Verteilung von Versuchstieren auf verschiedene Versuchsgruppen (Randomisierung), bei der Monte-Carlo-Simulation u.a.





Zur Erzeugung von Zufallszahlen gibt es verschiedene Verfahren. Echte Zufallszahlen werden mit Hilfe physikalischer Phänomene erzeugt: Münzwurf, Würfel, Roulette, Rauschen (Physik) elektronischer Bauelemente, radioaktive Zerfallsprozesse. Diese Verfahren sind jedoch recht zeitaufwändig. In der realen Anwendung genügt meist eine Folge von Pseudozufallszahlen, d.h. scheinbar zufällige Zahlen, die nach einem festen, reproduzierbaren Verfahren erzeugt werden. Sie sind also nicht wirklich zufällig, haben aber ähnliche statistische Eigenschaften (gleichmäßige Häufigkeitsverteilung, geringe Korrelation) wie echte Zufallszahlenfolgen.





Siehe auch http://de.wikipedia.org/wiki/Verteilung_von_Zufallszahlen











Pseudozufallszahlen





Als Pseudozufallszahlen bezeichnet man Zahlenfolgen, die durch einen deterministischen Algorithmus (Pseudozufallszahlengenerator) berechnet werden (und somit nicht zufällig sind), aber (für hinreichend kurze Sequenzen) zufällig aussehen. Bei jedem Start der Zufallszahlenberechnung mit gleichem Startwert wird die gleiche Zahlenfolge erzeugt (weswegen diese Zahlen weit davon entfernt sind, wirklich zufällig zu sein). Pseudozufallszahlen erzeugt man mit Pseudozufallszahlengeneratoren.





Die Zufälligkeit wird durch statistische Eigenschaften der Zahlenfolge bestimmt, wie Gleichwahrscheinlichkeit der einzelnen Zahlen und statistische Unabhängigkeit verschiedener Zahlen der Folge. Wie gut diese statistischen Forderungen erfüllt sind, bestimmt die Güte eines Pseudozufallszahlengenerators.





Eine Folge von Pseudozufallszahlen wird mittels deterministischer Algorithmen ausgehend von einem echt zufällig gewählten Startwert berechnet. Ein solcher Startwert kann z.B. die Systemzeit des Computers in Millisekunden im Moment des letzten Einschaltens sein. Diese Folge besitzt die Eigenschaft, dass es schwer ist, anhand einiger Zahlen die nächsten Zahlen der Folge vorherzusagen. Eine Folge von Pseudozufallszahlen "sieht zufällig aus".











Eigenschaften von Pseudozufallszahlalgorithmen





Einige Zufallszahlenalgorithmen sind periodisch. Auch wenn es meist besser wäre nicht-periodische Algorithmen zu verwenden, sind die periodischen oft deutlich schneller. Durch geschickte Wahl der Parameter kann man die Periode beliebig groß machen, weshalb sie in der Praxis den nicht-periodischen oft deutlich überlegen sind. Einige Pseudozufallszahlengeneratoren sind auch nur endlich, d.h. man kann mit ihnen nicht beliebig viele Zahlen erzeugen (von daher sind sie in gewissem Sinne verwandt mit den periodischen).

Drei Beispiele für Pseudozufallszahlengeneratoren

  1. endlicher Generator

Um eine Folge von N Zahlen zwischen 0 und m zu erzeugen, wähle man ein k größer als m2, ein p größer als (k + N)2 und nicht durch kleine Primzahlen teilbar (wobei klein hier bedeutet: kleiner als m).

an = ( p mod (k + n) ) mod m

2.periodischer Generator

Man nehme Startzahlen a0, p, b und m, wobei m die größte dieser Zahlen ist.

an = (An-1p + b) mod m

Ein weiteres Beispiel stellt der Mersenne Twister dar.

3.nicht-periodischer/unendlicher Generator

Man nehme die Nachkommastellen einer Wurzel einer ganzen Zahl als Zufallszahlen

Verwendung von Pseudozufallszahlen

Pseudozufallszahlen werden u.a. in der Rechnersimulation angewandt, bei der statistische Prozesse mit Hilfe von Software simuliert werden. Pseudozufallszahlen können auch bei der Fehlersuche in Computerprogrammen nützlich sein. Andererseits macht diese Eigenschaft Pseudozufallszahlen für bestimmte Anwendungen unbrauchbar (so muss man beispielsweise in der Kryptographie aufpassen, dass man Pseudozufahlszahlen nicht an den falschen Stellen verwendet). Anwendung finden Pseudozufallszahlen auch in Rauschgeneratoren.

Ein weiterer Vorteil der Pseudozufallszahlen ist, dass sie auf jedem Rechner ohne Rückgriff auf externe Daten erzeugt werden können (was sie für bestimmte Bereiche der Kryptographie trotz oben genannter Nachteile wieder interessant macht). Zur Erzeugung echter Zufallszahlen braucht man entweder einen echten Zufallsgenerator (z.B. durch Digitalisieren von Rauschen oder durch Ausnutzen von Quanteneffekten) oder zumindest eine Quelle quasizufälliger (normalerweise nicht vorhersagbarer) Ereignisse wie Zeiten von Benutzereingaben oder Netzwerkaktivität.

Siehe auch: http://www.educeth.ch/informatik/werkstatt/multiplik/zufgen/


Interessante Folgerungen

1.Streichen beim Zufallselementarprozeß :

zz(1;-1)  liefert sicher die 0

zz(1;- 0)  liefert sicher die 1

2.Mischen von Zufallszahlen mit festen Zahlen

Wenn man Zufallszahlen kombinierbar macht mit festen anderen Zahlen , kann man gemischte Zahlen teils zufällig , teils nicht zufällig erhalten

Beispiel:

for x = 1 to 10

next x

print e

Das Beispiel in Visual Basic

Dies liefert eine zehnstellige Binärzahl die halb zufällig , zur anderen Hälfte aus 0 besteht.   Z0Z0Z0Z0Z0

3.Testen von Würfelbinärzahlen auf ihre 0,1 Verteilung

Bleibt ein 6er Würfel binärzufällig ?

Man reiht das Ergebnis von zz(3; -111,-000) beliebig lang hintereinander und testet dann auf binären Zufall .

Interessante Zufallsdatei

Erste Ziffer : 01 Zufall

2.Ziffer : Gegenteil der ersten Ziffer  ( oder dasselbe wie die erste

Ziffer )

zb Chaitinszufallsfolge 01101100110111100010

daraus wird dann Chaitin + Gegenteil  

0110100110100101101001101010100101011001

oder Chaitin doppelt

0011110011110000111100111111110000001100

Der Zufallsgehalt wird geringer !

Obwohl auf den ersten Blick ohne Kenntnis der Entstehung vielleicht sogar mehr Zufall zu erwarten ist, kann man nach einer Zufallstestung erkennen ( zb an der ungleichen Paarverteilung ) , daß der Zufall weniger geworden ist.

Siehe Visual Basic Programm prg01st.htm

2*Chaitin

0110110011011110001001101100110111100010

Nur an der zu geringen Zahl an 00000 oder 11111 Sequenzen kann man erkennen , daß hier nicht völliger Zufall im Spiel ist.


Zufall testen

Also der Zufall auch, der scheinbar zügelbefreite, treu und gehorsam stets feste Gesetze befolgt!

[Boethius: Die Tröstungen der Philosophie, S. 181. Digitale Bibliothek Band 2: Philosophie, S. 8474 (vgl. Boethius-Trost, S. 134)]

Zufall testen

Siehe Visual Basic Programm prg01st.htm

Screenshot aus diesem Programm:

Literatur:

P. Martin-Lof, The definition of random sequences, Inform. Contr., 9(1966), 602-619.

P. Martin-Lof, Complexity oscillations in infinite binary sequences, Zeitschrift fur Wahrscheinlichkeitstheory und Verwandte Gebiete 19 (1971), pp. 225--230.

http://www.mathematik.ch/anwendungenmath/wkeit/hypotest/hypotest.php


Gesetz der großen Zahl

Das Gesetz der großen Zahlen besagt, daß sich die relative Häufigkeit eines Zufallsergebnisses immer weiter an einen Mittelwert der Wahrscheinlichkeit für dieses Ergebnis annähert, je häufiger das Zufallsexperiment durchgeführt wird.

Beispiel: wiederholter Münzwurf

Anzahl der Würfe

davon Kopf


Verhältnis


absoluter Abstand

relativer Abstand


theoretisch

beobachtet

theoretisch

beobachtet



100

50

48

0,5

0,48

2

0,02

1000

500

491

0,5

0,4910

9

0,0090

10000

5000

4970

0,5

0,49700

30

0,0030










Die Wahrscheinlichkeit, dass eine Münze beim Werfen Kopf zeigt, beträgt 0,5. Je häufiger die Münze geworfen wird, desto näher wird der Anteil der Würfe, bei denen Kopf erscheint, beim theoretischen Wert 0,5 liegen. Trotzdem kann der absolute Abstand zwischen dem theoretischen und dem tatsächlich beobachteten Ergebnis immer weiter anwachsen. Man kann also aus dem Gesetz der großen Zahlen nicht die Schlussfolgerung ziehen, wenn ein Ereignis bislang nicht so häufig eintrat wie erwartet, muss es diesen Rückstand ausgleichen und folglich in Zukunft häufiger vorkommen.

Der Zufall hat hier kein Gedächtnis !

==Zufallsfolge - Zufallssequenz==



Eine Zufallssequenz oder Zufallsfolge entsteht durch die wiederholte Anwendung eines statistischen Experiments. Eine Zufallssequenz ist im Allgemeinen eine Abfolge von Realisationen einer Zufallsvariablen. Der Begriff wird meistens im Sinne einer Abfolge von zufällig aus einem bestimmten Alphabet oder Zahlenvorrat ausgewählten Zeichen gebraucht.



Die einfachste Zufallssequenz gewinnt man durch einen wiederholten Münzwurf, wenn man einer Seite der Münze die 0 und der anderen die 1 zuordnet. Man kann andere Zufallssequenzen so in eine einfache 0-1-Sequenz umcodieren (dichotomisieren), ohne dass der Zufallscharakter verloren geht.



Beispiel:

1011011010101001110010110011100000011110010100001111010100010011011110110000100010 1010001110111001010111011111110000010011010000110111011110101011000001000111011000 1000000100111110000011111010010001101111001010100000101101000011000110100011001111 0111110001101110010011000000111110010000001100001000000110101010000011000101100001 1100111100100001101111111100100101010011111001000100100001001001000010001010011100 1111011000001010011111110010111110111011000111011010110000011101100111101011001110



Diese Folge wurde durch wiederholten Münzwurf gewonnen. Auffällig ist, wie oft längere zusammenhängende Sequenzen von 0 oder 1 zu finden sind.

Zufallsfolge – Zufallssequenz

Eine Zufallssequenz ist durch eine verschwindende serielle Korrelation oder auch Autokorrelation gekennzeichnet, d.h. der Korrelationskoeffizient zwischen aufeinander folgenden Werten in der Sequenz ist nicht signifikant von Null verschieden.

Viele natürlich vorkommenden zeit- bzw. ortsdiskreten Signale (z.B. DNA, siehe auch DNA-Sequenzanalyse) werden statistisch analysiert, indem man zunächst die Nullhypothese eines zugrunde liegenden Zufallsprozesses postuliert. Kann man diese Hypothese widerlegen, liegen also Korrelationen in der Sequenz vor, weisen diese unter Umständen auf in der Sequenz verborgene Nutzinformation hin. Speziell bei dichtomen Folgen kann man die Sequenzen mit Hilfe des Run-Tests auf Zufälligkeit überprüfen, wobei mit "Run" eine Folge gleicher Ausprägungen in der Sequenz bezeichnet wird. Der Test führt zur Ablehnung, wenn zu wenig, aber auch zu viel Runs in einer Sequenz sind.

Run-Test auf Zufälligkeit einer Sequenz

Der '''Run'''- oder '''Runs-Test''' (auch '''[[Abraham Wald|Wald]]-[[Jacob Wolfowitz|Wolfowitz]]-Test''' oder '''Iterationstest''') ist ein [[nichtparametrischer Test]] auf Zufälligkeit einer Folge. Konzeptionell wird von einer dichotomen Grundgesamtheit, also einem Urnenmodell mit zwei Sorten Kugeln, ausgegangen. Es sind n viele Kugeln entnommen worden. Es soll die Hypothese geprüft werden, dass die Entnahme zufällig erfogt ist.

Vorgehensweise

Es wurden einer dichotomen Grundgesamtheit n Kugeln entnommen. Die Ergebnisse liegen in ihrer chronologischen Abfolge vor. Es werden nun alle benachbarten Ergebnisse gleicher Ausprägung zu einem Lauf oder Run zusammengefasst. Wenn die Folge tatsächlich zufällig ist, sollten nicht zu wenig Runs vorliegen, aber auch nicht zu viele.

Es wird die Hypothese aufgestellt: '''Die Entnahme erfolgte zufällig'''.

Für die Festlegung der Zahl der Runs, bei der die Hypothese abgelehnt wird, wird die Verteilung der Runs benötigt: Es seien n<sub>1</sub> die Zahl der Kugeln erster Sorte und n<sub>2</sub> = n - n<sub>1</sub> der zweiten Sorte; es sei r die Zahl der Runs. Nach dem Symmetrieprinzip ist die Wahrscheinlichkeit für jede beliebige Folge der Kugeln bei zufälliger Entnahme gleich groß. Es gibt insgesamt

<math>\frac{(n_1 + n_2)!}{n_1 \cdot n_2}</math>

Möglichkeiten der Entnahme.

Bezüglich der Verteilung der Zahl der Runs unterscheidet man die Fälle:

1. Die Zahl der Runs r ist geradzahlig:

:Es liegen <math>q= \frac {r}{2}</math> Runs der Kugeln der ersten Sorte und <math>q= \frac {r}{2}</math> Runs der Kugeln der zweiten Sorte vor. Die Wahrscheinlichkeit, dass genau r Runs eingetreten sind, ist dann

::<math> P(R=2q) = \frac { 2 {{n_1-1} \choose {q-1}} {{n_2-1} \choose {q-1}}} {{{n_1+n_2} \choose n_1}} </math>

2. Die Zahl der Runs r ist ungeradzahlig:

:Es liegen <math> q = \frac {r+1}{2}</math> Runs der Kugeln der ersten Sorte und <math> q = \frac {r-1}{2}</math> Runs der Kugeln der zweiten Sorte vor oder der umgekehrte Fall. Die Wahrscheinlichkeit, dass genau r Runs eingetreten sind, berechnet sich dann als Summe aus diesen beiden Möglichkeiten

::<math> P(R=2q+1)= \frac { {n_1-1 \choose q} {n_2-1 \choose q-1 } + {n_1-1 \choose q-1} {n_2-1 \choose q }} {{n_1+n_2 \choose n_1}} </math>

Ist r zu klein oder zu groß, führt das zur Ablehnung der Nullhypothese. Bei einem Signifikanzniveau von alpha wird H<sub>0</sub> abgelehnt, wenn für die Prüfgröße r gilt:

<math>r \le r(\frac {\alpha}{2})</math> oder <math>r \ge r(1 - \frac {\alpha}{2})</math>

mit r(p)als [[Quantil]] der Verteilung von R an der Stelle p, wobei hier das Prinzip des konservativen Testens angewendet wird. Da die Berechnung der kritischen Werte von r für die Ablehnung der Hypothese umständlich ist, bedient man sich häufig einer Tabelle.

=== Einfaches Beispiel ===

Für eine Podiumsdiskussion mit zwei politischen Parteien wurde die Reihenfolge der Sprecher angeblich zufällig ermittelt. Es waren von der Partei Supi 4 Vertreter anwesend und von der Partei Toll 5 Vertreter. Die Reihenfolge der Sprecher war folgendermaßen vorgegeben:

S S T S T T T S T

Ein Vertreter von Toll beschwerte sich, dass S vorgezogen würde. Es wurde ein Runtest vorgenommen:

Es ist n<sub>1</sub> = 4 und n<sub>2</sub> = 5. Man erhielt r = 6 Runs.

Nach der Tabelle des Runstests wird H<sub>0</sub> abgelehnt, wenn r &le; 2 oder r &ge; 9 ist. Also liegt die Prüfgröße r = 6 im Nichtablehnungsbereich; man kann davon ausgehen, dass die Reihenfolge der Sprecher zufällig ist.

== Ergänzungen ===

==== Parameter der Verteilung von R ====

Der Erwartungswert von R ist

:<math>

ER = \frac{2 n_1 n_2}{n} + 1

</math>



und die Varianz

:<math>

varR = \frac{2 n_1 n_2 (2 n_1 n_2 - n)}{n^2(n_1 + n_2 - 1)}

</math>.

==== Grundgesamtheit mit mehr als zwei Ausprägungen des Merkmals ====

Liegt eine Folge reeller Zahlen xi eines metrischen Merkmals vor, wird die Folge dichotomisiert: Man bestimmt den Median z der Stichprobe. Werte x < z werden als Kugeln 1. Sorte, Werte x > z als Kugeln 2. Sorte interpretiert. Diese dichotome Folge kann dann wieder auf Zufälligkeit getestet werden.

Liegt eine nichtnumerische Symbolsequenz mit mehr als zwei Ausprägungen vor, muss zunächst eine numerische Reihe erzeugt werden, wobei hier das Problem bestehen kann, dass die Symbole nicht geordnet werden können.

==== Normalapproximation ====

Für [[Stichprobe]]numfänge n<sub>1</sub>,n<sub>2</sub> > 20 ist die Zahl der Runs R annähernd [[Normalverteilung|normalverteilt]] mit [[Erwartungswert]] und Varianz wie oben. Man erhält die standardisierte Prüfgröße

:<math>z = \frac{r - (\frac{2 n_1 n_2}{n} + 1 )}{\sqrt{\frac{2 n_1 n_2 (2 n_1 n_2 - n)}{n^2(n_1 + n_2 - 1)}}}</math>

Die Hypothese wird abgelehnt, wenn

:<math>z < -z(1 - \frac {\alpha}{2})</math> oder <math>z > z(1 - \frac {\alpha}{2})</math>

mit <math>z(1 - \frac {\alpha}{2})</math> als Quantil der Standardnormalverteilung für die Wahrscheinlichkeit <math>1 - \frac {\alpha}{2}</math> .

=== Anwendungen ===

Der Runtest kann angewendet werden, um [[Stationarität]] bzw. Nicht-[[Korrelation]] in einer [[Zeitreihe]] oder anderen [[Folge (Mathematik)|Sequenz]] zu überprüfen, vor allem wenn die Verteilung des Merkmals unbekannt ist. Die [[Nullhypothese]] ist hier, dass aufeinanderfolgende Werte unkorreliert sind.

Der Run-Test ist nicht so mächtig wie der [[Kolmogorov-Test]] oder der [[Chi-Quadrat-Test]], kann aber mit letzterem kombiniert werden, da beide Prüfgrößen asymptotisch unabhängig voneinander sind.

=== Beispiel für ein metrisches Merkmal ===

Es liegt die Folge

13 3 14 14 1 14 3 8 14 17 9 14 13 2 16 1 3 12 13 14

vor. Sie wird mit dem Median z = 13 dichotomisiert. Für die erste Ausprägung wird + gesetzt, für die zweite Ausprägung -.

0 -10 1 1 -12 1 -10 -5 1 4 -4 1 0 -11 3 -12 -10 -1 0 1

+ - + + - + - - + + - + + - + - - - + +

Man erhält bei n<sub>1</sub> = 11 (+) und n<sub>2</sub> = 9 (-) r = 13 Runs. R ist annähernd normalverteilt mit dem Erwartungswert

:<math>ER = \frac{(2\cdot11\cdot9)}{20} + 1 = 10,9</math>

und der Varianz

:<math>varR= \frac{2 \cdot 11 \cdot 9 \cdot (2 \cdot 11 \cdot 9 - 20)}{20^2 \cdot 19} 4,6</math>.

Die Prüfgröße z errechnet sich dann als

:<math>\frac{13 - 10,9}{\sqrt{4,6}}= 1.0 </math>

Bei einem Signifikanzniveau von 0,05 wird H<sub>0</sub> abgelehnt, wenn |z| > 1,96. Dies ist nicht der Fall.

'''Entscheidung:''' Die Hypothese wird nicht abgelehnt. Die Elemente der Stichprobe sind vermutlich zufällig entnommen worden.


Folgender Text stammt aus dem Internet:

Surrogatdaten-Methode

Die Methode der Surrogatdaten dient in der Nichtlinearen Dynamik dazu, eine Datenreihe darauf zu testen, ob das System, das diese Daten erzeugt hat, sich gesetzmäßig (d. h. deterministisch) bewegt oder ob seine Entwicklung rein zufällig erfolgt.

Das Verfahren geht so vor, daß es die Originaldaten mit anderen Datensätzen, den sog. Surrogatdaten, vergleicht, die dem Originaldatensatz zwar ähnlich sehen, aber doch durch einen Zufallsprozeß erzeugt wurden. Dabei reicht es nicht aus, mit einem einzigen zufällig erzeugten Datensatz zu vergleichen, denn dieser könnte ja - ebenfalls rein zufällig - in allen untersuchten Punkten dem Originaldatensatz praktisch gleich sein. Man erzeugt daher eine ganze Reihe von Vergleichsdatensätzen und prüft mit statistischen Methoden, ob der Originaldatensatz ebenso entstanden sein könnte, wie die Surrogatdaten.

Bei diesem Verfahren müssen zwei Entscheidungen gefällt werden:

Was soll unter "ganz ähnlichen Zufallsdaten" verstanden werden?

Welcher Kennwert, den man aus den Daten gewinnen kann, soll für den Vergleich herangezogen werden?

Erzeugung der Surrogatdaten/Wahl der Null-Hypothese

Auch zufällig erzeugte Daten können Regelmäßigkeiten zeigen. So kann unregelmäßiges Rauschen einen Resonanzkörper so anregen, daß das Rauschen wie ein mehr oder weniger unsauberer Ton klingt. Wenn nun die Originaldaten - allgemein gesprochen - bestimmte Töne enthalten, dann sollten diese Töne auch genau so in den Surrogatdaten vorkommen, denn es könnte ja z. B. sein, daß sie durch einen zufälligen Prozeß mit nachgeschaltetem resonanzfähigen Strukturen erzeugt worden sind. Man erzeugt daher die Surrogatdaten mit einem mathematischen Verfahren, das dem entspricht, daß in den Surrogatdaten die Leistung auf die verschiedenen Frequenzen (d. h. akustisch gesprochen: auf die Töne) genau so verteilt ist, wie in den Originaldaten. Man kann nun zeigen, daß dies dem entspricht, daß die Daten mit einem ganz allgemeinen, jedoch linearen Verfahren aus Rauschen erzeugt wurden. Bei dieser Art der Surrogatdatenerzeugung steckt die Zufallskomponente in den Details, wie die verschiedenen Frequenzanteile zusammengeführt werden.

Datenvergleich mit Kennwerten (Teststatistik)

Die Surrogatdaten werden anschließend mit den Originaldaten verglichen. Dabei geht man so vor, daß man aus den Originaldaten und aus den verschiedenen Surrogatdatensätzen jeweils den Wert einer Kenngröße, der sog. Teststatistik ausrechnet, die für Systeme mit nichtlinearer Dynamik charakteristisch ist und von der man erwartet, daß sie in einem System mit gesetzmäßigem Chaos andere Werte hat als in einem System, dessen Entwicklung der Zufall bestimmt. Häufig verwendete nichtlineare Kenngrößen sind die sog. Korrelationsdimension und der mittlere Vorhersagefehler.

Nur in den seltensten Fällen kann man mathematisch vorherberechnen, mit welchen Wahrscheinlichkeiten die verschiedenen möglichen Werte der Kennwerte auftreten, die man als Teststatistik benutzt. Daher geht man in der Regel so vor, daß man eine ganze Reihe (z. B. 20 - 50) Surrogatdatensätze erzeugt und für diese jeweils den Kennwert ausrechnet. Mit Hilfe der so gewonnen Häufigkeiten kann man abschätzen, wie wahrscheinlich es ist, daß der Kennwert des Originaldatensatzes durch den gleichen Prozeß wie die Surrogatdaten erzeugt wurde.


Quantitative Beschäftigung mit dem Begriff Zufall

Wie kann man den Anteil von Zufall in einer Zufallszahl festlegen ? Wie kann man den Zufall quantifizieren ?

1.Möglichkeit: Ich habe eine festgelegte Folge von Zahlen oder Buchstaben und will wissen , wie groß die Wahrscheinlichkeit ist, daß es sich um eine Zufallsfolge handelt.

==> Analytischer Zufall

2.Möglichkeit:  Ich habe eine Sequenz von Zufallsentscheidungen, die noch nicht erfolgt sind , evt gemischt mit festgelegten Zahlen. Wieviel Zufall steckt in der Sequenz ?

Wenn man die Informationsmenge einer Zufallssequenz in Bit oder Byte angibt , dann ist das genauso sinnvoll , wie die Angabe der Informationsmenge einer geordneten Sequenz in Bit und Byte . Vielleicht sollte man die Zufallsbit anders nennen als die normalen Bits um den Unterschied klar zu machen .    Bit   <=>  zBit

Man muß also aufpassen , daß man beides nicht durcheinanderbringt:

Was passiert mit dem 6er Würfel ?


Es wird 10 mal eine Münze geworfen

Man erhält 3  mal Zahl (1) und 7 mal Wappen (0). Ist dieser Unterschied signifikant bei einer Irrtumswahrscheinlichkeit < 5 % ?

Urnenmodell mit zurücklegen mit Beachtung der Reihenfolge

Möglichkeiten :

1111111111    1*

1111111110

1111111101

1111111011

1111110111 etc  insgesamt  10 *

1111111100

1111111010

1111110110

1111101110

Wahrscheinlichkeit


Redundanz und Kompression  siehe auch Kompression

Echter Zufall enthält praktisch keine Redundanz und läßt sich verlustfrei kaum komprimieren.

Die Abbildung zeigt die Komprimierbarkeit von geordneten 01 Folgen zb der Chaitin A Folge und die Nichtkomprimierbarkeit von reinen Zufallsfolgen , zb der Chaitin B Folge.  

Genaugenommen ist hier die verlustfreie Komprimierbarkeit gemeint.

Auch eine Zufallsfolge läßt sich problemlos komprimieren , wenn es auf die genaue Abfolge von 01 nicht ankommt , sondern nur die Länge an Zufall ausgedrückt werden soll . Dies ist dann eine nichtverlustfreie Komprimierung .

Aus einer Zufallszahl wie 01101100110111100010 wird dann zz(20) .

Ziehe auch Zufallsmathematik:


Beispiel Zufall :

Chaitins Beispiel für 2 binäre Zahlen mit 20 Stellen

Beispielzeile Zufall

gleichförmige Unordnung: zufällige Anordnung der Buchstaben des Alphabets

     xbeowhgttgsyäcxjpülgjwrqxyshfogjkudrwuepzjfcmwsmgqzqpqvbtiwpaüa

Zweimal das kleine Alphabet = gleichförmige Ordnung:

      abcdefghijklmnopqrstuvwxyzäöüßabcdefghijklmnopqrstuvwxyzäöüß

Beispiel einer Zufallsverteilung von Punkten

Die Verteilung ist mit folgendem Visual Basic Code programmiert worden:

Sub Form_Click ()

Do

Loop

End Sub

Der Zufall ( besser der Pseudozufall) ist hier gleich 3 * in Form der Random Funktion der Programmiersprache Visual Basic eingebaut worden:

Beispiel einer echten 01 Zufallszahl

Diese Zahl wurde durch wiederholten Münzwurf gewonnen. Beachten Sie wie oft längere zusammenhängende Sequenzen von 0   oder  1  zu finden sind. Hätte man diese Folge aus dem Kopf erzeugt wären einem solch lange zusammenhängende Sequenzen als nicht zufällig vorgekommen.

10110110101010011100101100111000000111100101000011110101

00010011011110110000100010101000111011100101011101111111

00000100110100001101110111101010110000010001110110001000

00010011111000001111101001000110111100101010000010110100

00110001101000110011110111110001101110010011000000111110

01000000110000100000011010101000001100010110000111001111

00100001101111111100100101010011111001000100100001001001

00001000101001110011110110000010100111111100101111101110

11000111011010110000011101100111101011001110

Fragen zur Zufallsfolge

Wie kann man so eine Zufallszahl untersuchen ?


Beispiele mit verschiedenem Zufallsgehalt

Völlige Unordnung von 32 Steinen, allerdings liegen sie noch auf einem Haufen.

Zufallsfolge


Zufall in Spielen

In den meisten Spielen ist ein Zufallsfaktor eingebaut.

zb Lotto , Klassenlotterie etc

Kartenspiele erzeugen den Zufall durch Mischen der Karten

Ein Spiel ohne Zufall ist das Schachspiel.

Im Computer gibt es Patiencen . Sie fangen mit einer Zufallsverteilung der Spielkarten an und enden mit einer geordneten Reihe.

http://www.uni-klu.ac.at/stochastik.schule/frames.htm

STOCHASTIK IN DER SCHULE erscheint als Organ des Vereins zur Förderung des schulischen Statistikunterrichts e.V. in Dortmund und zugleich in der Didaktischen Reihe des Fachbereichs Statistik der Universität Dortmund.

Jg. 19(1999) Heft 1

Ronald D. Fricker

(übersetzt von Ingeborg Strauß)

Ein Blick auf den Zufallsprozess in Microsoft Windows Spiel Solitaire

oder

Wie benützt man elektronische Glücks-Spiele für statistische Projekte ? Das populäre Computer-Spiel Solitaire wird als Vehikel für die Untersuchung eines Zufallszahlen-Generators eingesetzt. Die Erforschung seiner Eigenschaften ist eine geeignete Basis für ein schulbezogenes Projekt.

Jean Melrose

(übersetzt von Anke Strauß)

Schlangen und Leitern - ein Wahrscheinlichkeitsspiel Durch Reduzierung der Felder-Anzahl des bekannten Spiels "Schlangen und Leitern", durch Verwendung anders geformter oder beschrifteter Würfel, Veränderung der Spielregeln, andere Anordnung der Schlangen und Leitern werden Fragen aufgeworfen, die Schüler zum Ende der Sekundarstufe 1  interessieren und bewältigen können.


Gesamtzufallsmenge:  siehe   Gesamtzufallsmenge

( = Menge an Zufall , Zufälligkeit , statistische Entropie, Überraschungswert, Unsicherheitswert, Randomness )

Die Gesamtzufallsmenge soll aussagen, wieviel Zufall in einem oder mehreren Ereignissen enthalten ist . Sie entspricht der Entropie in der Informationstheorie.

Zufall und Entropie  siehe  Gesamtzufallsmenge

Je mehr Zufall in einem System steckt , desto höher ist die Entropie

Je geordneter ein System ist desto geringer ist die Entropie und desto geringer war der Zufall bei der Entstehung im Spiel

Entropie = Null , Zufall = 0 :     zb 00000000000000000000    

Entropie maximal , Zufall maximal ( 20 * Zufall )   zb 10110110101010011100

Entropie = Null : sauberer Einkristall bei minus 273 Grad

Entropie maximal : völlig gleichverteilte Materie im Weltraum ohne Temperaturunterschiede ohne Bewegungsunterschiede.

Gibt es dann negative Entropie ? Meines Erachtens nein

Wie groß war die Entropie im Urknall  ? Null ?

Kann man die Entropie auf den Zufall zurückführen oder muß man umgekehrt den Zufall als Folgerung der Entropie definieren ?

Was ist die Entropie in der Mathematik ? Der Anteil an Zufall an einer Zahl oder Zahlenfolge

Chaitin , ein bekannter Zufallsforscher, gab in einem Aufsatz folgende Eins-Null Sequenz an

A = 01010101010101010101 als Beispiel für eine nichtzufällige Folge

B = 01101100110111100010 als Beispiel für eine Zufallsfolge

Wenn man mit einem Computerprogramm alle Möglichkeiten einer 20 stelligen binär Zahl auflistet, erstaunt man zunächst einmal wieviele Möglichkeiten es schon bei so einer kurzen Zahl gibt.

Wieviele ?

Auch wenn man vereinfachend annimmt , daß die Anzahl der Nullen und die Anzahl der Einsen gleich sein soll, bleibt immer noch eine lange Liste übrig.

Wieviele ?

Von diesen vielen Möglichkeiten genügen nun einige den Kriterien einer Zufallsfolgen , andere nicht .

Wieviele ?

Dabei sind die statistischen Grenzen zwischen Zufall und nicht Zufall nicht klar zu ziehen , sondern man muß , wie üblich bei statistischen Tests eine Irrtumswahrscheinlichkeit von zb 5 % vorher festlegen.

Je weiter weg man von dieser unsicheren Grenze Zufall - Nichtzufall ist , desto klarer wird allerdings der Unterschied. Herr Chaitin hat nun schlauer Weise 2 Beispiele gewählt die sehr klar einer der beiden Kategorien zufällig - nichtzufällig zuzuordnen sind.

Interessant wäre es , wenn man jeder dieser Folgen einen Zufallswert wie zb die approximative Entropie bzw den Kompressionsfaktor zuordnen kann . Dann müßte man eine gewiße Struktur der Zufälligkeit erkennen , die vielleicht ähnlich der Primzahlstruktur der natürlichen Zahlen ist.

So eine Betrachtung wirft m.E. dann auch ein schiefes Licht auf die direkte oder indirekte Verknüpfung von Entropie und Information.

Nur die Gesamtzahl der Möglichkeiten einer bestimmten Zahl von 01 Entscheidungen entspricht dann der kompletten Informationsmenge gemessen in Bit.

Die zufälligen Anordnungen von 0 und 1 bei einer gegebenen Länge sind dann nur ein Teil dieser Informationsmenge , der andere Teil entspricht mehr oder mindert geordneten Folgen, die den Zufallskriterien nicht mehr genügen.

Geschätzt sind bei einer gegebenen Länge einer 01 Folge bei Durchprobieren aller Möglichkeiten , je nach Strenge der Zufallsdefinition

70 - 90 % der 01 Folgen Zufall      ,   10 - 30 % nicht zufällige Folgen

Je größer die Gesamtlänge der 01 Folge , desto größer der Anteil der Zufälligen Varianten, desto größer aber auch der Anteil der nichtzufälligen Varianten.

Für manche Folgen kann man zeigen

und vielleicht doch nicht zufällig sind.

Bei endlichen Folgen gibt es analytische Zufallsfolgen , hinter der sich doch logische Reihen verbergen.

Interessant sind die Fragen:

Gibt es das , oder steckt in den beiden analytischen Hauptzufallsparametern Redundanz ?

Zufall in der Physik

Die Naturwissenschaften versuchen herauszufinden, ob unsere Welt im innersten deterministisch oder zufällig ist. Man will wissen, ob ein Ereignis zufällig ist, weil der Beobachter nicht genügend Daten hatte, um eine exakte Vorhersage zu machen, oder ob das beobachtete System in sich zufällig ist. Beide Arten von Systemen lassen sich mathematisch modellieren.

Die erste Art von Systemen sind solche, in denen angenommen wird, dass das Ergebnis eines Experiments bei festen Bedingungen immer gleich sein muss, und dass die auftretenden Variationen des Ergebnisses auftreten, weil der Beobachter das System nicht genau genug kontrolliert hat. Solche Systeme werden als deterministisch angesehen.

Es ist heute bekannt, dass (theoretisch exakt) deterministische Systeme unvorhersagbares Verhalten zeigen können. Solche Systeme werden in der Chaostheorie untersucht.

Die Quantenphysik hat eine neue Diskussion darüber ausgelöst, ob die Welt fundamental deterministischen oder fundamental zufälligen Prinzipien gehorcht. Die akzeptierte Interpretation der Quantentheorie sagt, dass identische Experimente unterschiedliche Ergebnisse haben können. Das beste Beispiel hierfür ist der radioaktive Zerfall. Es ist keine Möglichkeit bekannt, den Zerfallszeitpunkt eines instabilen Atomkernes vorherzusagen. Über eine große Anzahl von Atomkernen dagegen lassen sich statistische Vorhersagen treffen.

Es gibt Wissenschaftler, die Alternativen (etwa verborgene Variablen) vorschlagen, um doch noch eine deterministische Welt zu beschreiben.

Daneben gibt es die Möglichkeit, aus mikroskopischen Theorien, die zufällig erscheinen, makroskopische Theorien aufzubauen, die (quasi)deterministisch sind.

Ein promineneter Physiker, der sich immer gegen den Einfluß des Zufalls in der Physik gewehrt hat, war Albert Einstein. Von ihm stammt der Satz: Gott würfelt nicht !.

Laplacescher Dämon

Der Laplacesche Dämon ist eine Metapher für das deterministische Weltbild, wie es zum Teil aus der Klassischen Mechanik abgeleitet wurde.

Pierre Simon Laplace beschreibt im Vorwort seines Essai philosophique sur les probabilités von 1814 ein intelligentes, rechnendes Wesen - der besagte Dämon - dem zu einem beliebigen Zeitpunkt alle im Kosmos wirkenden Kräfte sowie die Lage aller Teile zueinander (heute würde man sagen: deren Anfangszustand) bekannt sind. Dann wäre es nach den Gesetzen der Mechanik für diesen möglich, die Entwicklung des Weltalls sowohl in die Zukunft voraus - als auch in die Vergangenheit zurückzuberechnen.

In einer Welt, in der ein solches Wesen existiern kann, wäre weder Platz für das Wirken eines Gottes noch für menschliche Willensfreiheit, die Geschichte wäre vollständig determiniert und berechenbar.

Es ist dabei nebensächlich, ob ein solches Wesen tatsächlich existiert, oder je existieren wird, denn schon seine potentielle Existenz führt ja zu dem Schluss, das alles vorherbestimmt ist/war.

Was den Laplaceschen Dämon aber auch auf dieser Ebene unmöglich macht, ist die Tatsache, das es nicht nur aus subjektivem, technischem Unvermögen heraus nicht möglich ist, unendlich genau zu messen, sondern auch ganz objektiv, also grundsätzlich, jedem und zu jeder Zeit. Dieses Phänomen beschreibt die Unschärferelation.

Es gibt also in der Welt der Quanten eine Unschärfe, Unbestimmtheit, also sozusagen ein absolutes Fehlen von Information. Weder das Teilchen selbst, noch Gott (oder der Laplacesche Dämon, oder ein anderes, über uns stehende Wesen) weiß (kann wissen), wie es um den Impuls eines Teilchens steht, wenn sein Ort bekannt ist, oder wie es um seinen Ort steht, wenn der Impuls bekannt ist. Der so entstehende absolute Zufall schließt einen Laplaceschen Dämon aus.

Unschärferelation (Physik)

Stichworte

Brownsche Molekularbewegung

radioaktiver Zerfall

Fehlerrechnung

Quantenphysik

Unschärferelation

Thermodynamik

Die Entropie als Maß für den Zufall in der Physik

Zufall in der Chemie



Zufall in der Biologie

Stichworte

Entstehung des Lebens ein Zufall ?

Mutationen

Rekombination

Geschlechtswahl

Die Evolution als Mischprozess von Zufall und Ordnung.

Über die Evolution wird sehr heftig gestritten, da manche meinen es wäre ein reiner Zufallsprozess. Das stimmt nicht. Ein schönes, immer noch sehr lesenswertes Büchlein hat dazu Jaques Monod geschrieben: Zufall und Notwendigkeit.

Monod, Jacques

Zufall und Notwendigkeit

Philosophische Fragen der modernen Biologie

dtv Tb 1069

Zufall in der Philosophie

Der Zufall bezeichnet in der Philosophie

1. etwas, das durch den Verlauf äußerer Umstände bedingt ist, im Unterschied zur Notwendigkeit, die durch die innere Natur der Dinge bedingt ist.

2. etwas, das sein, aber auch nicht sein kann, im Unterschied zur Notwendigkeit, die etwas ist, das obligatorisch vor sich gehen muss.

Zum Zufall in der Beziehung zum Gesetz und den Zusammenhängen in der objektiven Realität

Der Zufall existiert als objektive Beziehung zwischen verschiedenen Ereignissen, die ihren Grund nicht in den wesentlichen inneren Bedingungen der Ereignisse hat. Der Zufall muss in seiner dialektischen Beziehung zum Gesetz untersucht werden. Als objektive Beziehung ist er im objektiven Zusammenhang begründet.

Zu seiner Erklärung brauchen keine übernatürlichen Ursachen herangezogen werden. Der objektive Zusammenhang ist unendlich kompliziert. Es existieren jedoch objektiv allgemeine, notwendige und wesentliche Beziehungen, die von der Wissenschaft erkannt und in Theorien als Widerspiegelungen objektiver Gesetze enthalten sind. Zufälle unterscheiden sich gerade dadurch von anderen Formen des objektiven Zusammenhangs, dass sie nicht allgemein-notwendig, das heißt reproduzierbar sind.

Die Negation des Zufalls im Dogma des mittelalterlichen metaphysischen Determinismus

Sie sind Erscheinungsformen der Gesetze (dazu Einzelheiten weiter unten). In der Auseinandersetzung mit Idealismus und Wunderglauben vertraten die Materialisten des Mittelalters meist einen metaphysischen Determinismus, der die materiellen Prozesse alle als notwendig erklärte, den Zufall aus der Betrachtung ausschloss und damit letztlich zum Fatalismus führte. Die antiken Atomisten waren ebenso wie später zum Beispiel B. Spinoza und P.H.D. Holbach Verfechter des metaphysischen Determinismus.

Während allerdings Demokrit die Notwendigkeit des Atomverhaltens betonte, schrieb Lukrez bei seiner Darstellung der Auffassung Epikurs in seinem Lehrgedicht "Über die Natur der Dinge", dass die Körper durch ihr Gewicht zu ungewisser Zeit an unbestimmtem Ort etwas von ihrer Bahn abwichen; nur dadurch könne Wechselwirkung entstehen(Atomistik).

Zur Rolle des Zufalls bei Hegel und Engels

Von den Dialektikern hat sich vor allem G.W.Hegel mit dem Verhältnis von Notwendigkeit und Zufall befasst. In der Auseinandersetzung mit dem Idealismus Hegels und dem metaphysischen Materialismus entwickelte Friedrich Engels den dialektischen Determinismus. Er zeigte die Objektivität des Zufalls, wies begründet den Indeterminismus zurück und fasste den Zufall als Erscheinungsform der Notwendigkeit.

Besondere Bedeutung für die Entwicklung der philosophischen Auffassungen vom Zufall hatte die dialektisch-materialistische Deutung der Ergebnisse der Quantenmechanik, die für die Physik die objektive Existenz des Zufalls nachwiesen. Aus der philosophischen Analyse der statistischen Gesetzeskonzeption ergibt sich, dass der Zufall als zufällige Verwirklichung von Möglichkeiten eines aus dem Gesetz sich ergebenden Möglichkeitsfeldes auftreten kann; für diese Verwirklichung existiert eine Wahrscheinlichkeitsverteilung.



Zur Unterscheidung der Arten des Zufalls

Damit hat die Dialektik von Notwendigkeit und Zufall auch für die Struktur des statistischen Gesetzes Bedeutung. Betrachtet man die Dialektik von Gesetz und Zufall, so kann man Arten des Zufalls unterscheiden:

1.) systeminnere und systemäußere Zufälle, die für das Verhalten des Systems entweder wesentlich oder unwesentlich sein können. Wesentlich sind solche Zufälle, die das System entscheidend verändern oder es in seiner Existenz gefährden. Unwesentlich sind die Zufälle, die in das Verhalten des Systems integriert werden können, ohne seine Makrostruktur und seine Funktion zu beeinflussen;

2.) systeminterne Zufälle sind wiederum zu differenzieren. Es gibt solche, die als zufällige Verwirklichungen von Möglichkeiten mit einer bestimmten Wahrscheinlichkeit im Gesetz enthalten sind, und solche, die als Erscheinungsformen der Gesetze in den zufälligen Beziehungen zwischen verschiedenen Ereignissen auftreten;

3.) es gibt erkannte und unerkannte Zufälle; die unerkannten müssen darauf analysiert werden, ob sie systeminnere oder systemäußere, wesentliche oder unwesentliche Zufälle sind, ob sie in der Struktur von Gesetzen enthalten oder konkrete Erscheinungsformen der Gesetze sind.

Zur Interpretation des Zufalls als Schnittpunkt von Kausalketten

Manchmal wird der Zufall noch als Schnittpunkt von Kausalketten oder von Notwendigkeiten betrachtet. Wenn damit nur die Objektivität des zufälligen Zusammenhangs betont und die Dialektik von Notwendigekit und Zufall berücksichtigt werden soll, ergeben sich keine Einwände gegen diese Interpretation.

Nur bringt sie ungenügend die Spezifik des Zufalls zum Ausdruck, als Beziehung zwischen Ereignissen nicht durch die wesentlichen inneren Beziehungen jedes Ereignisses begründet zu werden. Der Tod eines Menschen bei einem Verkehrsunfall ist tatsächlich das Zusammentreffen verschiedener Ereignisse und damit auch verschiedener Notwendigkeiten und Kausalketten.

Aber aus den inneren wesentlichen Bedingungen dieser Ereignisse, Notwendigkeiten und Kausalketten folgt nicht ihre zufällige objektive Beziehung, die im Tod eines bestimmten Menschen besteht. Man kennt zwar die Wahrscheinlichkeit von Ereignissen des Unfalltods bei Unfällen, die Wahrscheinlichkeit von Todesursachen der verschiedensten Art, die Bedeutung von Verletzungen für das Funktionieren des menschlichen Organismus und so weiter, aber alles, was man an Gesetzen kennt, liefert keine unmittelbare Begründung für das bestimmte Zusammentreffen im Verkehrsunfall.



Zur eigentlichen Spezifik des Zufalls innerhalb einer Systembetrachtung

Der Zufall steht also nicht außerhalb des objektiven Zusammenhangs. Denn würde diese Schlussfolgerung nicht zutreffen, so müsste es einen absoluten Zufall im Sinne eines ursachelosen Ereignisses geben (was allgemein unter "Wunder" zu verstehen ist). Aber auch das Ereignis des Zufalls wird durch eine Ursache eingeleitet. Die Spezifik des Zufalls besteht darin, kein Gesetz, kein allgemein-notwendiger und wesentlicher Zusammenhang zu sein. Wesentlich kann er nur bezogen auf die Verhaltensweisen eines Systems sein, die er entscheidend verändert. Wesentlich ist er nicht in dem Sinne, aus den wesentlichen inneren Bedingungen eines Ereignisses begründet zu sein.

Widerspricht ein Zufallsereignis dem Kausalitätsprinzip ?

Dazu betrachte man folgendes praktisches Beispiel:

Man würfelt und erhält eine 3 .

1.Ursache : der Mensch der würfelt.

2.Ursache : Bewegungsenergie wird einem Körper mitgegeben der auf 6 verschiedene Arten wieder in ein stabiles Gleichgewicht kommen kann.

3.Ursache: Die Bewegungsenergie des Würfels wird durch Luftreibung und durch Kontakt zb mit einer Tischfläche in Reibungsenergie verwandelt.

4.Ursache: Der Würfel hat 6 gleichberechtigte Möglichkeiten zur Ruhe zu kommen.

Wirkung : Er kommt zu Ruhe und nimmt eine dieser Möglichkeiten ein. Welche er einnimmt, war nicht voraussehbar , jedenfalls praktisch nicht berechenbar.

Die 3 oben ist die Wirkung . Der würfelnde Mensch ist die Ursache .

>>> Es ergibt sich keine Verletzung des Kausalitätsprinzips.

Wenn man Probleme mit der physikalischen Berechenbarkeit des Würfelfluges hat , kann man auch das Urnenmodel heranziehen.

Da werden zb 6 mit den Nummern 1 - 6 versehene sonst gleiche Kugeln in eine undurchsichtige Urne gefüllt. Kräftig geschüttelt. Dann greift man in die Urne und zieht eine Kugel heraus. Da ist auch prinzipiell nichts mehr berechenbar. Trotzdem bleibt das Kausalitätsprinzip erhalten.

>>> Eine Ursache kann eben mehrere gleichberechtigte Folgen haben.

Das umgekehrte gilt natürlich auch : Viele verschiedene Ursachen können ein und diesselbe Wirkung haben.

Beispiel: Eine Leberzirrhose kann durch eine Alkoholkrankheit, eine Hepatitis B, eine Hepatitis C oder auch durch eine Kupferspeicherkrankheit hervorgerufen werden.

Zufall in der Theologie

Stichworte:

Gott würfelt nicht ( Albert Einstein )

Wenn man sich Gott allwissend vorstellt, kann er dann zufälliges voraussehen.

Zufallsentscheidungen wurden in der Bibel und bis ins Mittelalter als Gottesentscheidungen angesehen. Nur Gott konnte den Zufall voraussehen.



Zufall in der Geschichte

Die Geschichtsphilosophie

Die Geschichtsphilosophie ist der Versuch, Geschehenes in einen systematischen Vermittlungszusammenhang zu stellen. Die geschichtlichen Daten selbst sind subjektiv und objektiv unvollständig und ergeben wie Puzzlestücke von selbst keinen sinnvollen Zusammenhang; der wird vielmehr erst in der philosophischen Schau oder Theorie hergestellt. Das Ergebnis sind die verschiedenen Geschichtsbilder.

Die Geschichtsphilosophie gibt Antwort auf folgende Fragen:

Wer oder was spielt die Hauptrolle im historischen Prozess? Die so genannten welthistorischen Persönlichkeiten? Oder ein Kollektiv wie die Stadt oder der Staat? Die Kultur oder die ganze Menschheit?

Welche Gestalt hat die Menschheitsgeschichte? Gibt es nachweisbare Entwicklungslinien? Zum Beispiel Beweise für Fortschritte? Oder für die ewige Wiederkehr des Immergleichen? Oder lässt sich nur ein sinnloses Durcheinander feststellen?

Wenn eine bestimmte Richtung angenommen wird: Was treibt die Geschichte in diese Richtung?

Welche Gesetzmäßigkeiten zeigen sich eventuell? Haben etwa vergleichbare Situationen aus vergleichbarer Notwendigkeit zu vergleichbaren Lösungen geführt?

Welchen Einfluß hat der Zufall im historischen Geschehen ?

Vier bekannte Beispiele:

I. Condorcet

Bezeichnend für das Geschichtsbild der Aufklärer ist Condorcets "Entwurf einer historischen Darstellung der Fortschritte des menschlichen Geistes" (1795). Im Bewusstsein der unleugbaren Beschleunigung der Wissensmehrung in der damals überschaubaren Geschichte sind die Erwartungen an die Zukunft hoch. Die Grenzen des Menschenmöglichen erscheinen nicht absehbar. Das Vertrauen in die positiven Fähigkeiten des Menschen und in den auf Fortschritt programmierten historischen Prozess sind das Credo des Aufklärers.

II: Hegel

Der Berliner Staatsphilosoph wird oft zitiert mit dem Prinzip des dialektischen Geschichtsverlaufs. Inhaltlich bedeutet seine "Philosophie der Geschichte" (1837) eine Antithese zum Geist und Buchstaben der Aufklärung. Nicht der Mensch sei das Subjekt der Geschichte, heißt es da, sondern der "Weltgeist", der seine "Geschäftsführer" fernsteuere. Wes Geistes Kind Hegel ist, verrät er, wenn er konkret wird. Seine angeblichen "Geschäftsführer des Weltgeistes" heißen Alexander der Große, Cäsar und Napoleon. Er verherrlicht die Gewalt im Staat ("Der Staat ist die göttliche Idee, wie sie auf Erden vorhanden ist.") und im Krieg.

III: Marx



Aus dem "kommunistischen Manifest" (1848) ist der Satz geläufig: "Alle bisherige Geschichte ist eine Geschichte von Klassenkämpfen." Von der Sklavenhaltergesellschaft bis zum Kapitalismus tritt das Kollektiv geschichtsmächtig auf. Die Masse der Unterdrückten und Ausgebeuteten bestimmt danach den Gang der Geschichte maßgeblich. Vor dem Klassenkampf habe es den Kommunismus der Urgesellschaft gegeben. Der Sieg des Proletariats werde zum Kommunismus der klassenlosen Gesellschaft führen. Diese These wird deshalb kritisiert, weil sie benutzt wurde, um ein anderes System der Unterdrückung unter dem Namen "Diktatur des Proletariats" zu rechtfertigen.

IV: Spengler

Seine "Morphologie der Weltgeschichte" (1918) steht im Gegensatz zu allen drei genannten Ansätzen, weil sie keinen Fortschritt mehr kennt. Vielmehr wird die Geschichte vorgestellt als ein ländlicher Jahrmarkt mit acht Karussells als "Kulturen". Die Kulturkarussells drehen sich nicht gleichzeitig und mit gleichem Tempo, haben aber alle die gleiche Laufzeit von ungefähr 1000 Jahren. Grundlage von Spenglers Geschichtsbild ist die Vorstellung, dass es vergleichbare Phasen der Entwicklung in verschiedenen Regionen und Zeitaltern gibt. So war z. B. schon lange vor Spengler die griechische Sophistik mit der westeuropäischen Aufklärung verglichen worden oder die Antike mit der deutschen Klassik. Das Durchbuchstabieren dieser Erkenntnis zum biologistischen Schema der Weltgeschichte und der Behauptung, Geschichte erstmalig vorhersagen zu können, begründet zum einen den gewaltigen Verkaufserfolg, zum anderen auch die Attraktivität, die Spenglers Vorstellung immer noch hat.

Beispiele von geschichtlichem Zufall

Der Einfluß von Naturkatastrophen auf die Geschichte



Zufall in der Soziologie

Stichpunkte

Sinn der Soziologie ist es, nicht an den Zufall in der Gesellschaft zu glauben. WOLF LEPENIES, Süddeutsche Zeitung, 25/01/02.

Was ist Soziologie? http://www.soziologie.uni-freiburg.de/fachschaft/wasistsoz.php

Zufall, Pech und die Grenzen des Sozialstaats Vortrag gehalten am Philosophischen Kolloquium Leipzig am 10.05.2000 http://www.phil-fak.uni-duesseldorf.de/sowi/lsi/vortraeg/sozialstaat.html

Die wissenschaftliche Zweckerfüllung und das Losverfahren http://www.marcelmbaumann.de/Seiten/helgepeukert1.html

Zur Soziologie des Spiels http://www.uni-giessen.de/~g51039/vorlesungV.htm

Zufall in der Psychologie

Die meisten menschlichen Handlungen sind kein Zufall sondern teilweise unterbewußtes Abwägen von Alternativen und Auswahl der zum gegebenen Zeitpunkt anscheinend vorteilhaftesten. ( Ökonomie des Alltagslebens )

Es ist bis heute in der Psychologie und Neurophysiologie umstritten, ob es im menschlichen Gehirn einen Zufallsgenerator gibt oder nicht.

In Situationen in denen man sich ganz schnell zwischen zwei Alternativen entscheiden muß, wäre so ein Zufallsgenartor vielleicht hilfreich. Eine Situation, die in der Evolution sicher sehr häufig aufgetreten ist, war die Frage Kampf oder Flucht, wenn einem ein feindliches Tier plötzlich gegenüberstand.



Der freie Wille

Zwischen den Begriffen Zufall und freier Wille existiert ein enger Zusammenhang. Man kann argumentieren, dass eine freie Entscheidung eine Entscheidung ist, die zumindest teilweise nicht von anderen Einflüssen (innerer und äußerer Art) bestimmt wird. Sie ist also nicht determiniert. Dies kann aber gerade auch als Definition von Zufall angesehen werden. Nach dieser Auffassung kann es in einem Universum ohne Zufall keinen freien Willen geben, da jede Entscheidung bei Kenntnis aller Einflussgrößen vorhergesagt werden könnte.

Es ist nun eine Aufgabe der Philosophie, Gemeinsamkeiten und Unterschiede beider Begriffe genauer herauszuarbeiten. Der englische Begriff random number (wörtlich: freie Zahl) für Zufallszahl weist auf diesen Zusammenhang hin.



Zufall im Leben jedes einzelnen

Es ist Zufall ob man männlich oder weiblich geboren wird. ( In Indien und anderswo versucht man dies zu manipulieren )

Es ist Zufall in welche Familie man hinein geboren wird.

Es ist Zufall in welchem Land und in welcher Zeit man auf die Welt kommt.

Vieles was man als Schicksal bezeichnet, kann man auch als Einfluß des Zufalls ansehen.

Es ist oft Zufall, welche Krankheiten man bekommt und an welcher Krankheit man stirbt .

Zufall in der Literatur und Kunst

Der beste Romanschreiber aller Zeiten ist der Zufall. Um fruchtbar zu sein muss man ihn studieren. Honoré de Balzac




Fragen zum Thema Zufall:

Gibt es einen echten Zufall, oder bezeichnen wir etwas nur deshalb als zufällig, weil wir nicht über genügend Informationen für eine genaue Vorhersage verfügen?

Darüber kann man lange trefflich streiten . Aus praktischen Erwägungen ist die Frage ziemlich uninteressant, da man auch ohne eine Antwort auf diese Frage sehr gut mit dem Zufall arbeiten kann.

Widerspricht ein Zufallsereignis dem Kausalitätsprinzip ?

In Praxis:

Man würfelt und erhält eine 3 .

Wirkung : Er kommt zu Ruhe und nimmt eine dieser Möglichkeiten ein. Welche er einnimmt, war nicht voraussehbar , jedenfalls praktisch nicht berechenbar.

Die 3 oben ist die Wirkung .

Der würfelnde Mensch ist die Ursache .

==> Ich sehe da keine Verletzung des Kausalitätsprinzips.

Wenn man Probleme mit der physikalischen Berechenbarkeit des Würfelfluges hat , kann man auch das Urnenmodel heranziehen.

Da werden zb 6 mit den Nummern 1 - 6 versehene sonst gleiche Kugeln in eine undurchsichtige Urne gefüllt. Kräftig geschüttelt.

Dann greift man in die Urne und zieht eine Kugel heraus.

Da ist auch prinzipiell nichts mehr berechenbar.

Trotzdem bleibt das Kausalitätsprinzip erhalten.

==> Eine Ursache kann eben mehrere gleichberechtigte Folgen haben.

Das umgekehrte gilt auch : Viele verschiedene Ursachen können ein und diesselbe Wirkung haben.

Dortessa schrieb am 26.7. 2000 um 04:03:43 Uhr über Zufall

Klaus E. Anders    KEA2099@compuserve.de schrieb 19.1.2002 zum Thema schließt das Kausalitätsprinzip den Zufall aus ?

Ihren Text über den Zufall kann ich durchaus so akzeptieren. Zwar scheinen Sie eine Definition des Zufalls zu bevorzugen, weil er sich im allgemeinen Zusammenleben als praktikabel eingeführt hat, aber sie geben auch alternative Definitionen an.

"Das Eintreten von Ereignissen für die keine Ursache und keine Gesetzmäßigkeit erkennbar ist, bezeichnet man als zufällig.

Lexikon: Zufall ist ein Begriff für alles, was nicht notwendig oder beabsichtigt geschieht; das Zusammentreffen von nicht absehbaren Ereignissen. Setzt man die absolute Gültigkeit des Kausalitätsprinzips voraus, d. h. einen Weltmechanismus, nach dem alle Geschehnisse vorausbestimmt sind, so wird das Zufällige zur bloßen Erscheinungsform des Notwendigen"

Im allgemeinen werden Zufälle als solche hingenommen und nicht mehr kritisch hinterfragt. Das stört mich manchmal massiv, denn auch ein gezinkter Würfel oder eine ebensolche Rouletteanlage produziert für die Unwissenden Zufälle. Ich bemühe mich zu den Wissenden zu gehören, aber es gelingt mir sicherlich nicht immer!!! Eher selten. Die Anerkenntnis von Zufällen ist eine pragmatische Art mit der Umwelt umzugehen. Sie drückt somit auch wieder eine ganz persönliche Einstellung oder Sichtweise aus. Ob Determinismus oder Konstruktivismus: Zufall ist dabei weniger eine Herausforderung, sondern eine vorkomende Sichtweise, die einbezogen ist. Wenn sie Vorteile für den Alltag bringt, warum nicht. Eine Definitionshoheit über Zufälle scheint mir allerdings nicht zulässig zu sein. Ich sehe aber auch Ihren Beitrag weniger als Definition sondern als Diskussion über die verschiedenen Phänomene, die als zufällig angesehen werden. Sind Sie der Überzeugung, dass das Kausalitätsprinzip unzutreffend ist?

Prof. Dr. Michael Esfeld: Philosophische Fakultät Uni Köln

Hauptseminar "Kausalitaet"

Einfuehrung in philosophische Kausalitaetstheorien

Vortrag von Prof. Dr. Gerd Grasshoff, Die Regularitaetstheorie der Kausalitaet

Begriffsanalyse von Kausalitaet : Beziehungen zwischen einzelnen Ereignissen (Lewis, Causation, in David Lewis, Philosophical Papers. Volume 2. Oxford: Oxford University Press 1986; deutsch in Poesch, Gunter (ed.) (1981): Kausalitaet. Neue Texte. Stuttgart: Reclam)

Empirische Realisation von Kausalitaet: Transfer einer Erhaltungsgroesse? (Max Kistler in Spohn, Wolfgang, Ledwig, Marion & Esfeld, Michael (eds.) (2001): Current Issues in Causation. Paderborn: Mentis)

Philosophische Deduktion der Kausalitaet in der Relativitaetstheorie (Kapitel 10 bis 12 in Mellor, D. Hugh (1998): Real Time II. London: Routledge)

Kausalitaet in der klassischen Mechanik und Quantenmechanik

(Mittelstaedt, klassische Mechanik, QM-Lehrbuch)

Kausalitaet in der Relativitaetstheorie (Hawking & Ellis; Finkelstein; Zemann)

Kosmologien ohne vollstaendige Kausalitaet (Goedel, de Sitter)

Nicht-kausale Korrelationen in der Quantentheorie I: EPR-common cause (Kapitel 10 in van Fraassen, Bas C. (1991): Quantum Mechanics: An Empiricist View. Oxford: Oxford University Press; Mittelstaedt)

Nicht-kausale Korrelationen in der Quantentheorie II: EPR versus Lewis (Butterfield, Jeremy N. (1992): "David Lewis meets John Bell". Philosophy of Science 59, S. 26-43; Michael Esfeld in Spohn, Wolfgang, Ledwig, Marion &

Esfeld, Michael (eds.) (2001): Current Issues in Causation. Paderborn: Mentis)

(Als pdf-file zum Download)

Kausalitaet ohne Prognostizierbarkeit (Thomas Breuer in in Spohn, Wolfgang, Ledwig, Marion & Esfeld, Michael (eds.) (2001): Current Issues in Causation. Paderborn: Mentis; Chaos-Literatur)



Diskussion in Wikibooks

>Der Zufall hat kein Gedächtnis. (Vergleiche den Begriff Unabhängigkeit in der Stochastik)





Das ist so einfach Unfug. Es gibt Zufallsexperimente ohne Gedächtnis, das ist aber keineswegs gottgegeben. Als Gegenbeispiel sei hier die Brownsche Molekularbewegung angeführt, die sich ihre momentane Position der Teilchen sehr gut merlken kann.



"Ziehen aus einer Urne ohne zurücklegen" oder "Abheben der jeweils obersten Karte aus einem gut durchmischten Kartenstapel" sind einfachere Beispiele fuer Prozesse mit Gedaechtnis: Wenn das Herz As gefallen ist, kommt es nicht mehr, die verbliebenen Karten sind trotzdem zufällig. (HZ, 5. Okt 2004)



>Eine echte Zufallsfolge von 0 und 1 lässt sich ohne Verlust kaum komprimieren.





"gleichverteilt" ist hier das richtige Stichwort. Der Begriff "echter Zufall" der hier konstruiert wird, ist IMHO nicht zielführend. Nicht gleichverteilte 0-1-Folgen lassen sich z.T. sehr gut komprimieren.





Was mir sonst noch so aufgefallen ist: Erst eine große philisophische Diskussion anfangen und dann den Zufall einfach so zu postulieren, wirkt auf mich befremdlich. Zufall ist ein Model zur Erklärung der Welt, d.h. um Voraussagen (i.d.R. für die Zukunft) zu machen. Interesannterweise spielt es dabei eigentlich keine Rolle, ob es Zufall im Sinne der philisophischen/theologischen Disskusion wirklich gibt.



Ich denke alle würden sich sehr freuen wenn du den Artikel mit deinem Wissen überarbeiten würdest. :)

Gruss --Moolsan 09:51, 28. Sep 2004 (UTC)

So, wie der Artikel momentan ist, müsste er eher neu geschrieben als überarbeitet werden. (HZ, 5. Okt 2004)

Dann schreib ihn doch neu. Über konstruktive Beiträge freut sich hier jeder. -- Daniel B 09:14, 5. Okt 2004 (UTC)

Ich habe leider nicht die Zeit fuer einen kompletten Artikel, kann aber gerne ein paar Gedankenanstöße geben, die meiner Meinung nach hinein geoeren:

Zuerst gehoert geklärt, ob ma ndie Frage nach dem Zufall philosophisch oder naturwissenschaftlich angehen will.

Philosophisch kann man beliebig lang diskutieren, ob es echten Zufall gibt oder nicht. Im Artikel steht "Die Vorstellung vom Zufall tritt in Widerspruch mit dem Gedanken eines allmächtigen, allwissenden persönlichen Gottes, der alles voraussehen kann". Dazu kenne ich ein anderes Zitat (von wem?) "Zufall ist nur ein Spitzname Gottes, wenn er anonym bleiben will".

Naturwissenschaftlich ist mir kein Experiment bekannt, mit dem man "echten" Zufall von einer deterministischen, aber unbekannten Ursache unterscheiden kann.

Mathematisch macht es keinen Unterschied, ob etwas echt zufällig, oder lediglich deterministisch und unbekannt ist. Beispiel: Ich mische Spielkarten, lege sie verdeckt auf den Tisch und verlasse den Raum. Dann geht jemand anderer in den Raum und sieht sich die oberste Karte an und verlässt ihn wieder, ohne mit mir Kontakt aufzunehmen. Danach gehe ich wieder in den Raum. Wie hoch ist die Chance, dass die oberste Karte das Herz As ist? Tatsaechlich ist die oberste Karte bereits längst bestimmt; für mich aber weiterhin "zufaellig"

Zur Frage nach dem "Gedächtnis" des Zufalls ist u.B. die Markov (Markow?) Eigenschaft zu erwaehnen: http://en.wikipedia.org/wiki/Markov_process Bei zufälligen Prozessen mit dieser Eigenschaft ist die gesamte Information über die Vergangenheit (also das "Gedächtnis") ist im gegenwärtigen Zustand enthalten.

Zur Erzeugung von Zufallszahlen findet man Information in TAOCP, http://de.wikipedia.org/wiki/The_Art_of_Computer_Programming Vol 2, Chapter 3. Dort ist auch eine ausführliche Diskussion zm Thema "What is a random sequence"

Mathematisch laesst sich der Zufall auch benutzen, um deterministische Dinge zu berechnen http://en.wikipedia.org/wiki/Monte_Carlo_method Vgl. auch Buffonsches Nadelproblem, http://en.wikipedia.org/wiki/Buffon%27s_needle

Viel Spass beim Artikel Schreiben ;-) (HZ, 6. Okt 2004)







Da sich anscheinend niemand findet, der den Artikel ueberarbeitet und er aus urheberrechtlich unklarer Quelle stammt, waere es wohl besser, ihn zu löschen. (HZ, 15. Okt 2004)


Falsche und kontroverse Ansichten über den Zufall

Interessant ist , daß viele Menschen glauben , es gäbe keinen echten Zufall . Andere wiederum meinen alles sei nur Zufall . Mit viel Vehemenz werden beide Standpunkte vertreten. Beide Gruppen haben unrecht , denn die Wirklichkeit zeigt eine gute Mischung von Zufallsereignissen und gesetzmäßig ablaufenden Ereignissen. Aus Zufall kann wieder Ordnung entstehen und Ordnung kann durch zufällige Fehler wieder verloren gehen.

Albert Einstein hatte große Probleme dem Zufall in seinem Weltbild einen Platz einzuräumen: "Gott würfelt nicht !" Meines Erachtens hat er unrecht mit dieser Bemerkung , denn in den Naturgesetzen hat der Zufall einen wichtigen Platz.

“ Man giebt allgemein zu, dass nichts da ist ohne Ursache für sein Dasein, und dass Zufall im strengen Sinne nur eine Verneinung ist und keine wirkliche Kraft bezeichnet, die irgend ein Dasein in der Natur hätte.“

[Hume: Untersuchung in Betreff des menschlichen Verstandes, S. 134. Digitale Bibliothek Band 2: Philosophie, S. 15317 (vgl. Hume-Unters., S. 88)]

Chandowar schrieb am 1.8. 2001 um 11:36:09 Uhr über Zufall

Es gibt keinen Zufall. Alles hat eine Ursache, auch wenn wir es nicht erkennen können oder vergessen haben.

Claudia schrieb am 11.9. 2000 um 11:23:19 Uhr über Zufall

Zufall gibt es nicht

Daniel schrieb am 24.5. 2001 um 23:33:07 Uhr über Zufall

Ich glaube nicht an Zufall! Zufall gibt es nicht! Es gibt nur KA oder Karma! und wir alle die die meinen Text lesen gehören zu einem KA-TET denn wir haben uns beeinflusst ihr mich dass ich diesen Text geschrieben habe und ich euch dass ihr euch die Zeit genommen habt ihn zu lesen! Es ist kein Zufall!!!

Felix schrieb am 10.2. 2000 um 13:48:19 Uhr über Zufall

Zufall ist ein Unwort, daß aus dem Wortschatz gestrichen werden sollte.

Es gibt keine Zufälle. Es gibt nur unvollkommene Einsicht des Menschen, mangelndes Verstehen und mangelndes Erklärungsvermögen.   Alles ist miteinander verbunden und steht in ewiger Wechselwirkung. Alles bedingt und beeinflusst sich gegenseitig.

Xanroth schrieb am 6.12. 2000 um 17:26:28 Uhr über Zufall

Gott ist Zufall!


Wer hat zum Zufallsbegriff beigetragen ?

Die Natur : denn sie würfelt doch .

Die Evolution bei der zufälligen Variation von DNSSequenzen und bei Mutationen

Der erste Mensch der das Los erfand .

Der Erfinder des Würfels .

Der Erfinder der Münze als Zufallswette.

Der Erfinder der Lostrommel.

Der Erfinder des Roulettespiels.

Aristoteles hat sich in seinem Buch Physik als erster ausführlich mit dem Thema Zufall auseinandergesetzt. ( Zweites Buch , Capitel 4 und 5  )

Epikur hat die Atome zufällig etwas schräg fallen lassen

Die Bibel hat den armen ??? aus dem Boot geworfen. Ihn hatte das Los getroffen und damals war ein Los ein Gottes Urteil , denn nur Gott konnte den Ausgang des Losverfahrens geahnt haben.

Hume schrieb eine Abhandlung über die Wahrscheinlichkeit und das Würfeln.

[Hume: Untersuchung in Betreff des menschlichen Verstandes, S. 79. Digitale Bibliothek Band 2: Philosophie, S. 15262 (vgl. Hume-Unters., S. 53-54)]

Viele Bernoullis

Blaise Pascal

Fisher   http://psy.ed.asu.edu/~classics/Fisher/Methods/index.htm

Boltzmann

Kolmogorow : Andrej Nikolajewitsch Kolmogorow

Gregory Chaitin   http://www.cs.auckland.ac.nz/CDMTCS/chaitin/index.html

und viele mehr


Zitate

Zufall ist das unberechenbare Geschehen, das sich unserer Vernunft und Absicht entzieht.

( Gebrüder Grimm , Deutsches Wörterbuch)

Gott würfelt nicht ( Albert Einstein )

Zufall ist vielleicht das Pseudonym Gottes, wenn er nicht selbst unterschreiben will ( Anatole France )

"Nun noch zu einem weiteren Kennzeichen der Biologie, dem Zufall. In den physikalischen Wissenschaften führen die Naturgesetze normalerweise zu stark deterministischen Ergebnissen. Weder die natürliche noch die geschlechtliche Selektion gewährleisten einen solchen Determinismus. Tatsächlich ist das Ergebnis eines evolutionären Prozesses gewöhnlich die Folge von Wechselwirkungen zahlreicher Zufallsfaktoren. Blinder Zufall produziert auch die Variation. Er herrscht sowohl beim crossing-over wie bei der Verteilung, der Chromosomen in der Reduktionsteilung. Gerade wegen dieses Zufallsaspektes wurde die Theorie der natürlichen Selektion am häufigsten kritisiert. Doch ist es gerade diese Unabhängigkeit vom Determinismus, die der natürlichen Selektion ihre große Flexibilität gibt. Es ist keineswegs wahr, wie von Darwins Zeitgenossen, zum Beispiel dem Geologen Sedgwick behauptet wurde, dass es unwissenschaftlich sei, sich auf den Zufall zu berufen, Es ist gerade die Zufälligkeit der Variation, die so charakteristisch für die Darwin'sche Evolution ist. Dennoch ist die relative Bedeutung des Zufalls im Evolutionsprozess auch heute noch sehr umstritten. Natürlich hat die eigentliche Selektion immer das letzte Wort." (Ernst Mayr)

"Bei dem Gedanken an den gewaltigen Weg, den die Evolution ... zurückgelegt hat, an die ungeheure Vielfalt der Strukturen, die durch sie geschaffen wurden und an die wunderbare Leistungsfähigkeit von Lebewesen - angefangen vom Bakterium bis zum Menschen - können einem leicht Zweifel aufkommen, ob das alles Ergebnis einer riesigen Lotterie sein kann, bei der eine blinde Selektion nur wenige Gewinner ausersehen hat." (Monod, J.: Zufall und Notwendigkeit, dtv, 3. Aufl. 1977)

"Zufall ist ein Wort ohne Sinn, nichts kann ohne Ursache existieren." (Voltaire)

"Die Welt, in der wir leben, läßt sich als das Ergebnis von Wirrwarr und Zufall verstehen; wenn sie jedoch das Ergebnis einer Absicht ist, muß es die Absicht eines Teufels gewesen sein. Ich halte den Zufall für eine weniger peinliche und zugleich plausiblere Erklärung." Russell



Albert Einstein (1897 - 1955): ..Zufall ist nicht möglich: "Gott würfelt nicht."

Andreas Bauch, Leiter der PTB-Arbeitsgruppe "Zeiteinheit": .Zufall ist immer im Spiel. Ganz bestimmt dann, wenn ich verliere.

Werner Heisenberg (1901 - 1976): "Kann das Mögliche, nämlich das zu erreichende Ziel, den kausalen Ablauf beeinflussen? Damit ist man aber schon fast wieder im Rahmen der Quantentheorie. Denn die Wellenfunktion der Quantentheorie stellt ja das Mögliche und nicht das Faktische dar. In anderen Worten: vielleicht ist der Zufall, der in der Darwinschen Theorie eine so wichtige Rolle spielt, gerade deshalb, weil er sich den Gesetzen der Quantenmechanik einordnet, etwas viel Subtileres, als wir uns zunächst vorstellen."

Reinhard Scherm, zum Zeitpunkt des Interviews Leiter des PTB-Fachbereichs "Physikalische Grundlagen": Toni macht Praktikum: Eine schwach radioaktive Quelle erzeugt Krächzer in einem Lautsprecher. Toni soll die Ankunftszeit von 200 Ereignissen protokollieren und dann zu Hause Verteilungen zur Poisson-Statistik malen.

A -16:30 Erstes Pip. Um 17.03 hat Toni seine 200 Pipser fertig, packt ein und geht in die Kneipe zum Skat bis Mitternacht.

B - Wiederholen wir das Experiment!

16:30 Erstes Pip. Um 17.05 hat Toni seine 200 Pipser fertig, packt ein, da kommt eine Studentin, die ihren Taschenrechner verloren hat. Sie suchen ihn, finden ihn schließlich.... Der Abend endete ganz anders.

Uwe Keyser, zum Zeitpunkt des Interviews Leiter des PTB-Fachbereichs "Experimentelle Forschungsschwerpunkte": Zufall ist.die Beschreibung eines Sachverhalts den wir noch nicht erklären können; frei mit H. v. Kleist kann man sagen: ... "ich grüße jenen großen Geist in 500 Jahren"

Hermann von Helmholtz (1821 - 1894): "Zufall ist in Wirklichkeit nur der Ausdruck für die Mangelhaftigkeit unseres Wissens und die Schwerfälligkeit unseres Combinationsvermögen. Ein Geist, der die genaue Kenntnis der Thatsachen hätte und dessen Denkoperationen schnell und präcis genug vollzogen würden, um den Ereignissen vorauszueilen, würde in der wildesten Launenhaftigkeit des Wetters nicht weniger, als im Gange der Gestirne, das harmonische Walten ewiger Gesetze anschauen, das wir nur voraussetzen und ahnen.

Ernst O. Göbel, Präsident der PTB: Zufall ist die Manifestierung der Gesetze der Statistik

Annette Paul, PTB-Arbeitsgruppe "Umweltradioaktivität": Zufall ist ein unvorhersagbares und nicht reproduzierbares Ereignis.

Gesine Grosche, PTB-Arbeitsgruppe "Längeneinheit": Zufall ist nötig.

Zitate





Zufällig im reinen Sinne der Kategorie ist das, dessen kontradiktorisches Gegenteil möglich ist.Immanuel Kant (Kritik der reinen Vernunft, B 487)





Der Zufall im statistischen Sinne ist die zusammengefasste Wirkung aller Faktoren, welche ständig tätig, nicht klar erkennbar, nicht zuschreibbar und nicht kontrollierbar sind, und deren Effekte wir im Einzelfall nicht vorhersagen können. Herbert Immich





Der Zufall ist allgegenwärtig. Herbert Immich





Est autem fortuna; rerum igitur fortuitarum nulla praesensio est. Es gibt aber einen Zufall , und deshalb kann man die kommenden Dinge nicht vorauswissen. Cicero





Und was / Ist Zufall anders als der rohe Stein, / Der Leben annimmt unter Bildners Hand? / Den Zufall gibt die Vorsehung - Zum Zwecke / Muss ihn der Mensch gestalten. - Friedrich Schiller (Don Carlos)





Zufall ist das unberechenbare Geschehen, das sich unserer Vernunft und Absicht entzieht. - Gebrüder Grimm (Deutsches Wörterbuch)





Zufall ist vielleicht das Pseudonym Gottes, wenn er nicht selbst unterschreiben will. - Anatole France





Der liebe Gott würfelt nicht ! Albert Einstein





Das, wobei unsere Berechnungen versagen, nennen wir Zufall. Albert Einstein





Also der Zufall auch, der scheinbar zügelbefreite, treu und gehorsam stets feste Gesetze befolgt! Boethius: Die Tröstungen der Philosophie





Nun noch zu einem weiteren Kennzeichen der Biologie, dem Zufall. In den physikalischen Wissenschaften führen die Naturgesetze normalerweise zu stark deterministischen Ergebnissen. Weder die natürliche noch die geschlechtliche Selektion gewährleisten einen solchen Determinismus. Tatsächlich ist das Ergebnis eines evolutionären Prozesses gewöhnlich die Folge von Wechselwirkungen zahlreicher Zufallsfaktoren. Blinder Zufall produziert auch die Variation. Er herrscht sowohl beim crossing-over wie bei der Verteilung, der Chromosomen in der Reduktionsteilung. Gerade wegen dieses Zufallsaspektes wurde die Theorie der natürlichen Selektion am häufigsten kritisiert. Doch ist es gerade diese Unabhängigkeit vom Determinismus, die der natürlichen Selektion ihre große Flexibilität gibt. Es ist keineswegs wahr, wie von Darwins Zeitgenossen, zum Beispiel dem Geologen Sedgwick behauptet wurde, dass es unwissenschaftlich sei, sich auf den Zufall zu berufen, Es ist gerade die Zufälligkeit der Variation, die so charakteristisch für die Darwin'sche Evolution ist. Dennoch ist die relative Bedeutung des Zufalls im Evolutionsprozess auch heute noch sehr umstritten. Natürlich hat die eigentliche Selektion immer das letzte Wort. - Ernst Mayr





Stochastik ist die Lehre der Häufigkeit und Wahrscheinlichkeit. Sie ist ein sehr junger Teilbereich der Mathematik, zu dem im weiteren Sinne auch die Kombinatorik, die Wahrscheinlichkeitstheorie sowie die beurteilende Statistik gehören. deutsche Wikipedia 10/2004





Zufall ist ein Wort ohne Sinn, nichts kann ohne Ursache existieren. - Voltaire





Die Welt, in der wir leben, lässt sich als das Ergebnis von Wirrwarr und Zufall verstehen; wenn sie jedoch das Ergebnis einer Absicht ist, muss es die Absicht eines Teufels gewesen sein. Ich halte den Zufall für eine weniger peinliche und zugleich plausiblere Erklärung. - Bertrand Russell





Die zwei größten Tyrannen der Erde: der Zufall und die Zeit. Johann Gottfried von Herder





Der Zufall ist ein Rätsel, welches das Schicksal dem Menschen aufgibt. Friedrich Hebbel





Der Zufall ist die in Schleier gehüllte Notwendigkeit. Marie von Ebner-Eschenbach





Spielen ist Experimentieren mit dem Zufall. Novalis





Der Zufall lehrt uns Achtsamkeit. Hierin liegt der größte Gewinn, das er uns beschert. Überraschungen machen uns empfänglich für die Gegenwart - und ist das Jetzt nicht alles, was wir haben? Sich dem Zufall öffnen heißt lebendig sein. Stefan Klein , http://www.alles-zufall.de





No risk, no fun Autor unbekannt



Heutige Zufallsexperten

alle Mathematiker die sich mit der Statistik und der Wahrscheinlichkeitsrechnung befassen

Stochastiker

Statistiker

Chaosforscher

Gregory Chaitin

Pincus und Kalman

http://lslwww.epfl.ch/~aperez/rlbj.html

Kalman, Rudolf E.

http://www.mathematik.uni-muenchen.de/~duerr/

http://www.math.uni-frankfurt.de/~stoch/lang/

PD Dr. Reinhard Lang

http://www.mi.informatik.uni-frankfurt.de/ag7.1/people/kauffmann/

Prof. Dr. Juraj Hromkovic

Projekt  Algorithmen, Struktur, Zufall

Arbeitsgruppe Grötschel

Prof. Dr. Martin Grötschel

Die Projekte Stabile Mengen und spezielle Graphenklassen und Kombinatorische Online-Planung sind in die Abteilung Optimierung des Konrad-Zuse-Zentrums für Informationstechnik Berlin (ZIB) eingebettet. Eine Gruppe von etwa zwanzig Mitarbeiterinnen und Mitarbeitern ermöglicht einen regen Austausch in beinahe allen Gebieten der kombinatorischen Optimierung (ganzzahlige / gemischt-ganzzahlige Optimierung, stochastische Programmierung, semidefinite Optimierung u.ä.).

Das Projekt Stabile Mengen und spezielle Graphenklassen wird bearbeitet von

Das Projekt Kombinatorische Online-Planung wird bearbeitet von

Arbeitsgruppe Möhring

Prof. Dr. Rolf Möhring

Die Arbeitsgruppe Kombinatorische Optimierung und Graphenalgorithmen von Prof. Möhring ist Teil des Fachbereichs Mathematik der Technischen Universität Berlin. Die Forschungsschwerpunkte der insgesamt 14 Mitglieder liegen in der Kombinatorischen Optimierung (insbesondere Graphen- und Netzwerkalgorithmen), im Scheduling und in der Kombinatorik geordneter Mengen.

Das Projekt wird bearbeitet von

Arbeitsgruppe Prömel

Prof. Dr. Hans Jürgen Prömel

Der Lehrstuhl Algorithmen und Komplexität von Prof. Prömel gehört zur Theoretischen Informatik des Instituts für Informatik der Humboldt-Universität zu Berlin. Acht Mitarbeiter verfolgen derzeit im wesentlichen zwei Forschungsrichtungen. Ein Teil beschäftigt sich mit zufälligen Strukturen, der andere mit Approximationsalgorithmen und Nichtapproximierbarkeit. 

Am Projekt Evolution und Phasenübergänge beteiligen sich

Am Projekt Entwurf und Analyse von Graphenalgorithmen beteiligen sich

Arbeitsgruppe Ziegler

Die Arbeitsgruppe Diskrete Geometrie von Prof. Ziegler ist Teil des Fachbereichs Mathematik der Technischen Universität Berlin. Die Arbeit an den Projekten wird insbesondere von folgenden Mitarbeitern unterstützt:

und viele mehr

http://www.wer-weiss-was.de/content/start.shtml

Chance in Physics: conference in Naples in Dec 1999

Programme

Monday: Foundations of Statistical Mechanics and Philosophy of probability.

09:30-10:15 The rise of statistical mechanics. Carlo Cercignani

10:15-11:00 Boltzmann's approach to statistical mechanics. Sheldon Goldstein

11:30-12:15 Information and entropy. Christopher Fuchs

12:15-13:00 Non commutative probability. Enrico Beltrametti

15:00-16:30 Round table on Philosophy of probability I. Organizer: Tim Maudlin (with Lawrence Sklar, Frank Arntzenius, Simon Saunders)

17:00-18:30 Round table on Philosophy of probability II. Organizer: Maria Carla Galavotti (with Richard Jeffrey, Peter Clark, Patrick Suppes, Jeremy Butterfield)

Tuesday: Foundations of Quantum Mechanics.

09:00-09:45 Orthodox Quantum mechanics. Stephen Adler

09:45-10:30 Bohmian Mechanics. Detlef Dürr

11:00-11:45 The theory of spontaneous localisation. Alberto Rimini

11:45-12:30 The theory of decoherent histories. Roland Omnès

15:00-16:30 Round table on the foundations of Quantum Mechanics. Organizers: GianCarlo Ghirardi, Adrian Kent, Peter Holland (with Paolo Grigolini, Francesco Petruccione, Chris Dewdney and others)

Wednesday: Chaos.

09:00-09:45 Classical Chaos. James Yorke

09:45-10:30 Quantum Chaos. Giulio Casati

11:00-11:45 Quantum Chaos. Andreas Knauf

11:45-12:30 Singular perturbations in classical and quantum mechanics: the case of constrained systems. Gianfausto Dell'Antonio

15:00-15:30 Probability and nonlocality in quantum mechanics. Augusto Garuccio

15:30-16:00 Relaxation times to statistical equilibrium.Stefano Ruffo

16:30-17:00 Quantum-like aspects of classical dynamical systems. Luigi Galgani

17:00-17:30 Entropic Analysis for Chaotic Systems. Angelo Vulpiani

Thursday: Chaos and probability.

09:00-09:45 The Boltzmann equation and irreversibility. Herbert Spohn

09:45-10:30 On the relevance of chaos for the foundations of statistical mechanics. Jean Bricmont

11:00-11:45 Direction of Time. Oliver Penrose

11:45-12:30 Title to be announced. Giovanni Jona-Lasinio

15:00-15:45 Thermodynamic Arrow of Time. David Albert

15:45-16:30 Stochastic mechanics. Francesco Guerra

17:00-19:00 Round table on Probability in Physics. Organizer: Nino Zanghì

Friday: Relativity.

09:00-09:45 On relativity. Michael Kiessling

09:45-10:30 Relativity and spontaneous localisation. Heinz-Peter Breuer

11:00-13:00 General Discussion. Chairman: Edward Nelson

Chance in Physics: conference in Naples in Dec 1999

List of participants


Empfehlenswerte Literatur zum Thema Zufall:

Alles Zufall Die Kraft, die unser Leben bestimmt

Stefan Klein

EUR 19,90 ROWOHLT, REINBEK

Erscheinungstermin: 07.2004 Seiten: 376

ISBN: 3-498-03519-3 http://www.alles-zufall.de/links.html




siehe http://www.zeit.de/2004/43/SM-Klein

Wie der Zufall will? : Vom Wesen der Wahrscheinlichkeit

von Tarassow, Lew W.

Preis: 20,00 DM

Spektrum Akademischer Verlag, Heidelberg | 1998 | ISBN 3827404746

gutes Buch , leicht verständlich

Das Reich des Zufalls:

Wissen zwischen Wahrscheinlichkeiten, Häufigkeiten und Unschärfen. Von Gerd Gigerenzer, Zeno Swijtink, Theodore Porter u. a.. 1999. 374 S. 24 cm. Gebunden. 826gr.

ISBN: 3-8274-0101-1, KNO-NR: 07 01 43 67

-SPEKTRUM AKADEMISCHER VERLAG- 79.90 DM

Sehr interessantes Buch über die Geschichte der Wahrscheinlichkeitsrechnung. Sehr lesenswert.

Zusatztext:

Die "Macht des Zufalls" ist ein Buch über alle Facetten des Begriffes "wahrscheinlich": Von den Wurzeln der Zufallsstatistik beim Glücksspiel über die Bedeutung der Wahrscheinlichkeit als Häufigkeit in bezug auf eine Stichprobe oder Grundgesamtheit bis hin zur quantenmechanischen Wahrscheinlichkeit und Faktorenanalyse in der Psychologie.

Die Autoren, namhafte Wissenschaftler aus unterschiedlichen geistes- und naturwissenschaftlichen Disziplinen, haben das Buch primär für Psychologen geschrieben, die sich mit raffinierten statistischen Methoden auskennen müssen. Das Buch knüpft aber auch an andere Disziplinen wie Sozial- und Wirtschaftswissenschaften oder Naturwissenschaften an.

Bd.410 Eigen, Manfred; Winkler, Ruthild: Das Spiel.

Serie Piper: -PIPER-Naturgesetze steuern den Zufall. Mit 68 meist farb. Abb.. Kartoniert. 466gr.

ISBN: 3-492-20410-4, KNO-NR: 02 60 09 02 29.90 DM

Zusatztext:

Die Grundelemente des Spiels - Zufall und Gesetz - bestimmen jegliches Geschehen im Universum. So lassen sich Naturgesetze in Form von Spielregeln abstrahieren. Auf dem Spielfeld bilden sich Muster, Information entsteht, die Gesetze von Selektion und Entwicklung treten klar hervor. Dies ist die Quintessenz dieses weltweit erfolgreichen Buches.

Sehr gutes Buch. sehr lesenswert .

Statistik für Nichtstatistiker. Zufall oder Wahrscheinlichkeit.

Karl Bosch

Preis: DM 39,80 EUR 20,34

Gebundene Ausgabe - 3., bearb. Aufl. (1998) Oldenbourg, Mchn.; ISBN: 3486247506

frank.gaeth@t-online.de aus Berlin , 13. Dezember 2000

Gute Einführung

Didaktisch sehr gute Einführung vom Nullniveau aus mit mathematischem Schwerpunkt. Ursprünglich wohl ein Schulbuch, ähnliches Buch im Klett-Verlag erschienen. Dieses Buch ist wirklich zu empfehlen. --Dieser Text bezieht sich auf die Taschenbuch-Ausgabe des Titels


Alte Bücher zum Thema

Aristoteles Physika

Im Zweiten Buch , Kapitel 4 und 5 eine der ersten längeren Abhandlungen über den Zufall. Auch heute noch sehr lesenswert. Viele Jahrhunderte nach Aristoteles hat es gebraucht den Zufall als Ursache anzuerkennen.

Die Analyse des Zufalls

von Timerding, Heinrich Emil

http://cdl.library.cornell.edu/Hunter/hunter.pl?handle=cornell.library.math/00660001&id=5

Windelband, Die Lehren vom Zufall. (Berl. 1870);

Cantor, Das Gesetz im Zufall. (das. 1877).



Wahrscheinlichkeitsrechnung Ars conjectandi

Reihe Ostwalds Klassiker, Bd. 107:

Autor   Jakob Bernoulli

Ausgangspunkt für die Auseinandersetzung Jakob Bernoullis mit wahrscheinlichkeitstheoretischen Problemen waren die Studien von Christian Huygens über Glücksspiele aus dem Jahre 1657.   Er baute sie zu einer umfassenden Theorie aus, der "Ars conjectandi", in der er versucht, dieses Gebiet über die bislang üblichen Anwendungen auf Glückspiele hinaus auf "bürgerliche, sittliche und wirtschaftliche Verhältnisse" auszuweiten.

Das Werk enthält Gedanken über Gewißheit, Notwendigkeit, Zufall, moralische und rechnerische  Erwartung, Gewinnaussichten sowie die Auswertung von Potenzsummen mittels Bernoullischer Zahlen.

Bibliographie

2. Auflage 1999, 328 Seiten, 1 Abbildungen, kartoniert,  Euro 24,80   ISBN 3-8171-3107-0

22.01.2002 © Verlag Harri Deutsch, Gräfstraße 47, D-60486 Frankfurt am Main,

Philosophischer Versuch über die Wahrscheinlichkeit

Reihe Ostwalds Klassiker, Bd. 233:

Autor : Pierre Simon de Laplace

Wer hat sich nicht im Mathematikunterricht mit den Wahrscheinlichkeiten beim Würfeln oder Werfen einer Münze amüsiert? In seinem Werk "Philosophischer Versuch über die Wahrscheinlichkeit" legt Laplace die Grundlagen für die Berechnung dieser Ereignisse dar.

Ferner zeigt er auf, wie leicht sich Menschen aus ihren Alltagserfahrungen heraus von falschen Wahrscheinlichkeiten leiten lassen und dehnt seine Berechnungen auf die ethischen Wissenschaften aus.   Der "Essai" enthält die berühmte klassische, mehr als 100 Jahre lang benutzte Definition der Wahrscheinlichkeit. Ferner umfasst er die exakte Formulierung des klassischen mechanischen Determinismus. Die Anwendung der Wahrscheinlichkeitsrechnung auf naturwissenschaftliche Fragestellungen erwies sich als fruchtbar, während ihre Anwendung auf Zeugenaussagen und Gerichtsurteile erfolglos bleiben musste.

Bibliographie

2. Auflage 1996, 211 Seiten, 1 Abbildungen, kartoniert,   16,80   ISBN 3-8171-3233-6


Weitere Bücher zum Thema , zum Teil sehr speziell. Habe ich noch nicht gelesen

Chaitin, Gregory J.: Exploring RANDOMNESS.

Discrete Mathematics and Theoretical Computer Science. 2001. X, 164 p. 24 cm. Gebunden. 432gr.

ISBN: 1-85233-417-7, KNO-NR: 09 67 27 81 -SPRINGER, BERLIN-

69.00 DM

GAME THEORY

Davis, Morton D. Game Theory: A Nontechnical Introduction. Dover,1997.

Mosteller, Frederick. Fifty Challenging Problems in Probability with Solutions. Dover,1986, 1989.Popular exposition of game theory.

Packel, Edward. The Mathematics of Games and Gambling. Mathematical Association of America,1981.Only prerequisite is some high school algebra.

PROBABILITY AND STATISTICS

Bernstein, Peter L. Against the Gods: The Remarkable Story of Risk. Wiley,1996.Comprehensive history of our efforts to understand risk and probability.

Cushman, Jean. Do You Wanna Bet? Your Chance to Find Out About Probability. Clarion,1991.A lively introduction to the subject of probability, using the experiences of two young boys at home and at school. For younger readers.

Kocherlakota, K. A Primer in Probability. Dekker,1990.Introductory undergraduate text, with traditional but not overly difficult topics.

McGervey, John D. Probabilities in Everyday Life. Ivy,1989.Workable problems that are relevant for nonscience students.

Mendenhall, William; Robert J. Beaver; and Barbara M. Beaver. Introduction to Probability and Statistics. Duxbury,1998.Useful particularly for those who are not mathematicians.

Peterson, Ivars. The Jungles of Randomness: A Mathematical Safari. Wiley,1997.An exploration of randomness in mathematics, written by the mathematics and physics editor of Science News magazine. Includes many illustrations.

Chance and Order in Mathematics and Life. 1999. XX, 201 p. w. 25 figs. 21,5 cm. Gebunden. 374gr. ISBN: 0-387-98737-1, KNO-NR: 08 45 95 90 -SPRINGER, BERLIN; COPERNICUS, N. Y.- 39.90 DM

VanMelkebeek, D: Randomness and Completeness in Computational Complexity -SPRINGER, BERLIN- 2000 62,- DM

Gentle, J: Random Number Generation and Monte Carlo Methods-SPRINGER, BERLIN- 2000 114,- DM

Arnold, L: Random Dynamical Systems -SPRINGER, BERLIN- 1998

Beltrami, E: What is Random? -SPRINGER, BERLIN; COPERNICUS, N. Y.- 1999 39,90 DM

This book is an attempt to understand the concept of randomness and its relation to concepts like entropy, thermodynamics, and chaos. When we toss a coin a number of times we are accustomed to thinking of the resulting sequence of heads and tails as a random sequence. Thus we would consider any sequence that is the result of tossing a coin a sequence of times to be random. This approach makes the sequence HHHHH no less random than the sequence HTHHTH. However, most people would consider the second sequence a random sequence but not the first.

This leads some to believe that people do not understand what random means. However, it led the founder of modern probability Kolmogorov, and others (Chaitin, Solomonov, and Martin Lof) to try to say what it should mean to say that a specific sequence is random.

Martin Lof took the approach that a sequence of heads and tails should be considered random if it would pass a set of statistical tests for randomness such as: the proportion of heads should be near 1/2, there should not be too many or too few runs of heads or tails etc. That is a sequence is random if it is a typical sequence in the sense that it would not be rejected by standard tests of randomness. Kolmogorov, Chaitin and Solomonov took an apparently different approach. They say a sequence of heads and tails is random if it is "complex", meaning that the shortest computer program you can write to produce the sequence is about as long as the sequence itself. The Martin Lof approach was shown to be equivalent to the Komogorov approach, and Beltrami restricts himself to the Kolmogorov approach.

Here is a connection between complexity and entropy. Entropy as defined by Shannon, is a measure of the uncertainly in a

chance experiment. It is defined as -sum p(i)log(p(i) where the sum is over all possible outcomes i of the chance experiment and

the log is to the base 2. For a single toss of a biased coin with probability p for heads and q for tails the entropy is -plogp -qlogq =

-log(pq). This entropy is maximum when p = 1/2 when it has the value 1. For a fair coin tossed n times, the entropy is n and, for a

biased coin tossed n times, the entropy is less than n.

Shannon was interested in the problem of encoding sequences for more efficient transmission. He showed that the expected

length of the encoded sequence could be at most the entropy, and there is an encoding that achieves this. Writing a computer

program to produce sequences of H's and T's of length n is a way to encode a sequence. Thus Shannon's coding theorem is

consistent with the fact that most sequences produced by tossing a fair coin are random but this is not true of the tosses of a

biased coin.

This is a book that you cannot sit down and read like a novel. You will constantly find intriguing discussions that require you to

stop and ponder what is actually going on.

Beltami finds a simple example helpful in discussing the relations between randomness, chaos and entropy. This example was

suggested by similar examples presented by M. Bartlett in his paper Chance or Chaos? J. Royal Statistical Soc. A. 153, 321-347,

1990, written in his 80th year. Beltrami named this example the Janus sequence, after the Roman god who was depicted with two

heads looking in opposite directions, at once peering into the future and scanning the past.

To construct this example we start with a number u(0) expressed in binary representation. For example u(0) = .1011001101......

meaning that u(0) = 1/2 + 1/8 + 1/16 + 1/128 + 1/256 + 1/1024 +... Starting with u(0) we determine a sequence of numbers

u(0),u(1),u(3). We do this by going from u(k) to u(k+1) by shifting the digits of u(k) one to the right and adding a new first digit

determined by the toss of a fair coin. We make this first digit 1 if heads turns up and 0 if tails turned up. If the first five tosses are

HTHTHH we obtain

u(0) = .1011001101......

u(1) = .01011001101.....

u(2) = .101011001101....

u(3) = .0101011001101...

u(4) = .10101011001101..

u(5) = .110101011001101.

We have described how we go from u(0) to u(5). Suppose that we are given u(5) and we want to determine the previous values.

To do this we simply start with u(5) and successively chop off the first digit of the sequence and shift the sequence one digit to the

left.

These transformations appear to be very different. One seems to introduce a lot of uncertainty as it computes successive values

and the other does not. But this is deceptive. They each require an initial value to determine the successive values. Suppose that

this initial value can only be measured to a certain accuracy say to 99 digits. What happens if you have the 100th digit wrong and

it should be a 1 rather than a 0? For the forward process, such an error makes at most an error of 1/2^100 in any of the

successive values. But suppose you make this same error in the initial value for the backward transformation. Then the value we

end up with after 100 interactions would have a 0 as first digit rather than a 1 and this would be a serious error. The backward

transformation is a chaotic transformation, small errors in the initial value can cause larger errors in future values. Thus in the

forward process uncertainty in the future values is caused by the coin tosses. In the reverse process it is caused by the chaotic

nature of the transformation.

Here is another way Beltrami uses this example to illustrate relations between randomness, entropy, and chaos. Assume that we

start with all the digits of u(0) known to be zero. Then for n iterations the forward transformation is just the result of tossing a coin

n times. Thus we start with uncertainty as measured by entropy of n. After k iterations of the forward process the uncertainty has

decreased to n-k and the observed sequence of length k should have complexity of about k. When we reverse the process we

start with a sequence of complexity n. After we have removed the first k digits we have reduced the complexity to n-k and the

entropy is k. Thus entropy plus complexity remains the same in both directions with entropy and complexity playing dual roles for

these two transformations.

Beltrami uses this example to help explain interesting physical problems such as the famous Maxwell demon as interpreted by

Szilard. A single molecule is put into a rectangular box and moves randomly between two halves of the box. Entropy increases as

the second law of thermodynamics predicts, because we become more an more uncertain where the molecule is. The entropy is

maximum when the system is in equilibrium and then by the second law we cannot get work out of the system without changing it.

Now the demon blocks the ends of the box by pistons and records on which side the molecule is at each time unit of time. He then

moves the piston from the end without the molecule to the center of the box and lets the molecule push it back. The demon thus

apparently produces work, increasing entropy without changing the system. One explanation is that the demon, by obtaining

information where the molecule is at a sequence of times, has changed the system. Removing this information decreases

uncertainty, that is entropy, by the same amount that the demon has increased it. We don't expect you to understand or be

convinced by it any more than we were. But the discussion will inspire you to look further. For example, a more complete

discussion of the Szilard version of Maxwell's demon can be found.

If this fails try the book "Maxwell's Demon" by Hans Christian von Baeyer, Random House, 1998.

<<<========<<

Dacunha-Castelle, D: Spiele des Zufalls -GERLING AKADEMIE VERLAG- 1997 59,- DM

Everitt, B: Chance Rules -SPRINGER, BERLIN- 1999 119,- DM

Everitt, B: Chance Rules -SPRINGER, BERLIN; COPERNICUS, N. Y.- 1999 49,- DM

Fayolle, G: Random Walks in the Quarter-Plane -SPRINGER, BERLIN- 1999 139,- DM

Gentle, J: Random Number Generation and Monte Carlo Methods -SPRINGER, BERLIN- 2000 114,- DM

Goldreich, O: Modern Cryptography, Probalistic Proofs and Pseudorandomnes -SPRINGER, BERLIN- 1999 129,- DM

Grimmett, G: Percolation, -SPRINGER, BERLIN- 1999 159,- DM

Johansen, S: Functional Relations, Random Coefficients, Nonlinear Regress -SPRINGER, BERLIN- 36,- DM

Kaye, B: A Random Walk Through Fractal Dimensions -WILEY-VCH- 1994 nicht mehr lieferbar 98,- DM

Liu Pei-Dong: Smooth Ergodic Theory of Random Dynamical Systems -SPRINGER, BERLIN- 1995nicht mehr lieferbar 63,- DM

Moller, J: Lectures on Random Voronoi Tessellations -SPRINGER, BERLIN- 1994 54,- DM

Moryson, M: Testing for Random Walk Coefficients in Regression and State -PHYSICA-VERLAG- 1998, nicht mehr lieferbar 98,- DM

Müller, W: Collecting Spatial Data, -PHYSICA-VERLAG- 2001 85,- DM,

Peterson, I: The Jungles of Randomness, -WILEY & SONS- 1998, unbestimmt 65,- DM

Rahimov, I: Random Sums and Branching Stochastic Processes, -SPRINGER, BERLIN- 1995 80,- DM

Random and Quasi-Random Point Sets, -SPRINGER, BERLIN- 1998 89,- DM

Random Discrete Structures-SPRINGER, BERLIN- 1996 78,- DM

Random Sets-SPRINGER, BERLIN- 1997 59,- DM

Das Reich des Zufalls-SPEKTRUM AKADEMISCHER VERLAG- 1999 78,- DM

Rosenblatt, M: Gaussian and Non-Gaussian Linear Time Series and Random Fi-SPRINGER, BERLIN- 2000 139,- DM

Scheid, H: Zufall, -BIBLIOGRAPHISCHES INSTITUT, MANNHEIM- 1996 16,80 DM

Snyder, D: Random Point Processes in Time and Space, -SPRINGER, BERLIN- 1991 139,- DM

Spitzer, F: Principle of Random Walk, -SPRINGER, BERLIN- 2001, noch nicht lieferbar 89,- DM

Stochastic Models in Geosystems, -SPRINGER, BERLIN- 1996 108,- DM

Sznitman, A: Brownian Motion, Obstacles and Random Media, -SPRINGER, BERLIN- 1998 129,- DM

Tarassow, L: Wie der Zufall will?, -SPEKTRUM AKADEMISCHER VERLAG- 1998 20,- DM

Thorisson, H: Coupling, Stationarity, and Regeneration, -SPRINGER, BERLIN- 2000 159,- DM

VanMelkebeek, D: Randomness and Completeness in Computational Complexity, -SPRINGER, BERLIN- 2000

Paul Vitányi  Randomness

http://citeseer.nj.nec.com/56812.html


MATHEMATICAL FOUNDATIONS AND PHILOSOPHY

How to define the notion of "a (finite) sequence of random numbers"? Knuth describes the problem as this:

The mathematical theory of probability and statistics carefully sidesteps this question; it refrains from making absolute statements, and instead expresses everything in terms of how much probability is to be attached to statements involving random sequences of events. The axioms of probability theory are set up so that abstract probabilities can be computed readily, but nothing is said about what probability really signifies, or how this concept can be applied meaningfully to the actual world.

The following papers and textbooks propose notions of randomness different from Kolmogorov's:

Chaitin, G.J.: Randomness and mathematical proof. Sci. Amer., 232: 47--52, 1975.

Compagner, A.: Definitions of randomness. Am. J. Phys., 59: 700--705, 1991.

Kac, M.: What is random?. American Scientist, 71: 405--406, 1983.

Knuth, D.E.: The Art of Computer Programming, volume 2: Seminumerical Algorithms. Addison-Wesley, Reading, MA, 2nd edition, 1981.

Schnorr, C.P.: Zufälligkeit und Wahrscheinlichkeit, volume 218 of Lecture Notes in Math.. Springer, Berlin, 1971.

The theory of uniform distribution of sequences, a sub field of number-theory, is not concerned with randomness but provides highly useful tools to construct theoretical "figures of merit" for random number generators. The keyword is "discrepancy of point sets and sequences". For an excellent introduction to this field, see   Kuipers, L. and Niederreiter, H.: Uniform Distribution of Sequences. John Wiley, New York, 1974.

Even the spectral test is nothing else than a measure of uniform distribution, as I have shown in my survey

Hellekalek, P.: On the assessment of random and quasi-random point sets. In Hellekalek, P. and Larcher, G.,

editor(s), Pseudo and Quasi-Random Point Sets of Lecture Notes in Statistics. Springer-Verlag, New York, 1998.

The algebraic background of random number generation (keyword: "arithmetics in finite fields"; think of shift register types of generators or of inversive generators) can be found in the comprehensive monograph

Lidl, R. and Niederreiter, H.: Finite fields. Addison-Wesley, Reading, Mass., 1983.

There is a recent monograph on the Monte Carlo method that will certainly become a standard reference, in particular among practitioners,

Fishman, G.S.: Monte Carlo: Concepts, Algorithms, and Applications. Springer-Verlag, New York, 1996.


Smoluchowski, M.:

Über den Begriff des Zufalls und den Ursprung der Wahrscheinlichkeitsgesetze in der Physik.

Die Naturwissenschaften, Heft 17, 253 - 263 (1918)

Der Physiker Marian von Smoluchowski (1872-1917) schrieb kurz vor seinem Tod den Artikel: ,,Über den Begriff des Zufalls und den Ursprung der Wahrscheinlichkeitsgesetze in der Physik..Er stellte darin zwei Fragen:

1.Wie ist es möglich, daß sich der Effekt des Zufalls berechnen lasse, daß also zufällige Ursachen gesetzmäßige Wirkungen haben?

2.Wie kann der Zufall entstehen, wenn alles Geschehen nur auf regelmäßige Naturgesetze zurückzuführen ist? Oder mitanderen Worten: Wie können gesetzmäßige Ursachen eine zufällige Wirkung haben?

Auf die zweite Frage geht Smoluchowski nicht wirklich ein, und wir kommen nachher mit Boltzmann darauf zurück. Smoluchowski entwickelt die Antwort auf die erste Frage. Mit ,,gesetzmäßiger Wirkung`` meint er das Gesetz vom empirischen Mittel oder gleichbedeutend das Gesetz der großen Zahlen. Der ,,berechenbare Zufall`` offenbart sich in den voraussagbaren relativen Häufigkeiten oder allgemein in den empirischen Mitteln, die man mit den regellosen Versuchausgängen eines Experimentes bildet: Ein Münzwurfexperiment liefert bei 100-facher Wiederholung eine regellose Folge von Kopf und Zahl, wobei Kopf und Zahl ungefähr gleich häufig auftreten, die relative Häufigkeit von Kopf ist also ungefähr 50 %.

Smoluchowski untersucht die physikalischen Voraussetzungen, die eine solche regelmäßige Regellosigkeit ermöglichen. Diese liegen in der Instabilität der Bewegung, oder wie es Smoluchowski treffend auf den Punkt bringt: kleine Ursache, große Wirkung. Kleinste Schwankungen in den Anfangsdaten führen zu total verschiedenen Ausgängen. Der auf seine Spitze gestellte Bleistift ist ein einfaches Beispiel. Die kleinste Abweichung seines Schwerpunktes vom Lot bringt den Bleistift zu Fall. Zufällige Schwankungen in der Schwerpunktslage ergeben zufällige Richtungen, in die der Bleistift nach dem Fall zeigt. Man sollte sich wundern, daß diese Überlegung tatsächlich in die richtige Richtung weist, denn wie kann ,,Verstärkung`` des Zufalls durch Instabilität Gesetzmäßigkeit nach sich ziehen? Dabei darf man dann aber nicht vergessen, daß wir eine Gesetzmäßigkeit in der Regellosigkeit suchen.


Alte Texte

DENNERT, Eberhard

... Vom Sterbelager des Darwinismus (Berr. über die Stellungnahme bedeutender Naturforscher z. Darwinismus). 1. Tl., 1902; 2. Tl., 1905; »Es werde!« Ein Bild der Schöpfung, 1903 (neubearb. 1922); Bibel u. Naturwiss. Gedanken u. Bekenntnisse eines Naturforschers, 1904 (1906 4); Christus u. die Naturwiss., 1904 (1911 2); Haeckels Weltanschauung, naturwiss. krit. beleuchtet, 1906 (1911 2); Naturgesetz, Zufall, Vorsehung, 1906 (1913 15); Vom Leben und Weben der Natur (Ges. volkstüml. Aufss.), 1906 (1913 2); Die Weltanschauung des modernen Naturforschers, 1907 (1911 2); Die Naturwiss. u. der Kampf um die Weltanschauung, 1907; Ist Gott tot? Gott - Welt - Mensch? Drei Kernfragen der Weltanschauung naturwiss. beleuchtet, 1908 (1922 8); Das Weltbild im Wandel der Zeit, 1909; Gott - Seele - Geist - Jenseits ...

http://www.bautz.de/bbkl/d/dennert_e.shtml , 9965 bytes

Ivo Schneider, Wahrscheinlichkeit und Zufall bei Kepler, in: Philosophia Naturalis 16, H. 1, 1976, 40-63


Internetseiten zum Thema Zufall

http://www.eduvinet.de/gebhardt/stochastik/zufallsg.html  ***

http://home.wtal.de/schwebin/lsys/zufall.htm**

http://www.alles-zufall.de/links.html ***

http://www.random.org  liefert echte Zufallszahlen

http://webnz.com/robert/true_rng.html  

http://www-math.uni-paderborn.de/~aggathen/vorl/2001ss/sem/

http://www.uni-koblenz.de/~hasan/zufall/zufall.html

http://www.uni-ulm.de/~cschmid/v2000s/webprob/sb1/sb1_2.htm

http://www.mathematik.uni-muenchen.de/~bohmmech/chance/sueddeutsche.htm

http://random.mat.sbg.ac.at/

http://www.fh-weingarten.de/iaf/projekte/is/zufall.htm

http://www.romankoch.ch/capslock/zufall.htm

http://www.paroli.de/roulette/index.htm

http://www.uni-klu.ac.at/stochastik.schule/

http://www.dartmouth.edu/~chance/index.html

http://www.philosophiebuch.de/lassonzu.htm

http://cdl.library.cornell.edu/Hunter/hunter.pl?handle=cornell.library.math/00660001&id=5

Internetseiten zum Thema Stochastik

http://www.mathematik.uni-kassel.de/didaktik/biehler/StatistikOnline/index.html

AK Stochastik in der Schule der GDM

Hompage Prof. Dr. Biehler, Uni Kassel

Mathematik und Informatik, PH Ludwigsburg

Statistik an der Universität Klagenfurt

Educational Statistik an der Universität Wien

Statistik-Seiten an der Universität Köln


http://www.neundorf.de/Zufall/zufall.html **

Hallo Herr Hoffmann,

Dank für Ihr Interesse. Natürlich habe ich in meinem Text, den Zufall betreffend, nur einige Aspekte der Zufallsproblematik berücksichtigt. Grundlegende mathematische Gesichtspunkte zu behandeln, waren nicht mein Anliegen.

Ich habe Ihren umfangreichen Text kurz überflogen und werde mich demnächst etwas näher damit befassen.Meine Intentionen waren es eher, zu zeigen, dass in der (physikalischen) Realität streng determinierte Prozesse eher die Ausnahme sind. Diese Einschätzung aber war gerade den Physikern (so konnte sich Einstein seinerzeit nicht mit dem zufälligen Charakter der Quantenphysik anfreunden) noch zu Beginn des 20. Jahrhunderts nicht sonderlich angenehm. Der objektive Zufall wurde durchaus geleugnet; und zufällige Ereignisse seien nur zufällig in dem Sinne, dass wir nicht in der Lage sind, alle Ursachen und Zusammenhänge zu erkennen . Die philosophischen Implikationen dürften bekannt sein. (Und die Zeit-Problematik ist hier äußerst wichtig.) Es wird - auch heute noch - unter Physikern oft die Ansicht vertreten, dass erst die Quantenmechanik (bzw. deren landläufige Interpretation) den Zufall handhabbar machen. Allgemeinere Einsichten - unabhängig von fachspezifischen Erkenntnissen - haben keinen Einfluss auf die konkrete physikalische Forschungstätigkeit, obwohl es dafür genügend Anknüpfungspunkte gäbe.

Es lässt sich beispielsweise zeigen (dies ist absolut keine Neuigkeit), dass selbst einfachste mechanische Systeme im Allgemeinen sich nicht periodisch verhalten. Schon ein elementares 3-Massen-System mit abstandsabhängigen Zentralkräften (Gravitation, elektrostatische Kräfte) verhält sich nur unter ganz bestimmten Bedingungen nicht chaotisch bzw. verhält sich stabil.

In Vorbereitung habe ich noch Texte, die sich (möglichst leicht verständlich und anschaulich) weiter mit angrenzender Thematik befassen. Einige Stichworte: Entropie, Reversibilität, Strukturbildung, Evolution, (Aspekte der) Information.

MfG W.N.  Wolfgang Neundorf

http://www.zufallsgeneratoren.de/

http://www.fortuna-service.de/home.html

http://www.math.psu.edu/gunesch/entropy.html

http://stargate.cosy.sbg.ac.at/pherbert/monte/monte.htm**

http://www.uni-magdeburg.de/zoellner/ma_zufall.html

http://www.darmstadt.gmd.de/BV/BI-Esto1.html

http://math-www.uni-paderborn.de/~aggathen/vorl/2001ss/sem/

http://www.cmap.polytechnique.fr/~bousquet/kolmogorov.html

Sicherlich kennen Sie auch folgenden Aufsatz von Pincus und Kalman aus dem Jahr 1997, der ein Meilenstein in der Forschung gewesen ist:  http://www.pnas.org/cgi/content/full/94/8/3513**

http://late5.e-technik.uni-erlangen.de/user/fo/esp.htm

http://dcbwww.unibe.ch/groups/schumacher/happy.html

http://www.mathematik.uni-muenchen.de/~duerr/Zufall/zufall.html

Links



http://de.wikipedia.org/wiki/Zufall

http://www.alles-zufall.de/

http://www.eduvinet.de/gebhardt/stochastik/zufallsg.html

http://home.wtal.de/schwebin/lsys/zufall.htm

http://www.madeasy.de/2/zufallo.htm Orginaltexte zum Thema Zufall

http://www.random.org liefert echte Zufallszahlen

http://webnz.com/robert/true_rng.html

Seiten über echte Hardware Zufallszahlengeneratoren

http://www-math.uni-paderborn.de/~aggathen/vorl/2001ss/sem/

http://www.uni-koblenz.de/~hasan/zufall/zufall.html

Universität Koblenz-Landau, Abt. Koblenz Fachbereich Informatik

Proseminar im WS 97/98 von Sasa Hasan

http://www.uni-ulm.de/~cschmid/v2000s/webprob/sb1/sb1_2.htm

Schöne Seite über Zufallsgeneratoren mit vielen Bildern

http://www.mathematik.uni-muenchen.de/~bohmmech/chance/sueddeutsche.htm

Würfelt Gott? Und wenn ja, wann? Noch immer streiten Physiker über den Zufall in der Quantenmechanik, der schon Albert Einstein missfiel

http://random.mat.sbg.ac.at/

http://www.fh-weingarten.de/iaf/projekte/is/zufall.htm

http://www.romankoch.ch/capslock/zufall.htm

http://www.uni-klu.ac.at/stochastik.schule/

http://www.dartmouth.edu/~chance/index.html

Sehr schöner Kurs zum Thema Zufall in Englisch

http://www.philosophiebuch.de/lassonzu.htm

http://cdl.library.cornell.edu/Hunter/hunter.pl?handle=cornell.library.math/00660001&id=5

Die Analyse des Zufalls by Timerding, Heinrich Emil

[bearbeiten]







Internetseiten zum Thema Stochastik



http://www.mathematik.uni-kassel.de/didaktik/biehler/StatistikOnline/index.html

Gute Übersicht zu weiteren Links


Orginaltexte:

Kein Zufall , kein Spaß.        No randomness , no fun

Vorbemerkung:

Viel Energie wird in der Diskussion zum Thema Zufall damit vertan , das auf der einen Seite der Zufall komplett geleugnet wird , auf der anderen Seite der Zufall die Ursache für alles sein soll.

Man hätte statt dessen mit dem Zufall experimentieren müssen. Dann hätte man gemerkt, das die Mischung aus zufälligen und gesetzmäßigen Ereignissen der Realität am besten gerecht wird.

Auch der reine Zufall zeigt Gesetzmäßigkeiten , nämlich zb das Gesetz der großen Zahl. Dieses Gesetz über den Zufall kann man heran ziehen , um zu testen ob echter Zufall vorliegt oder nicht.

Die Vorstellung vom Zufall tritt in Widerspruch mit dem Gedanken eines allmächtigen Gottes , der alles voraussehen kann . Der Zufall würde demnach den Hellseherfähigkeiten Gottes widersprechen.

Auch die Diskussion um den freien Willen der Menschen dreht sich öfter um das Thema Zufall.

Es hat sehr lange gedauert , bis man gemerkt hat , das dem Zufall neben seiner Anwendung im Glücksspiel auch sehr nützliche Seiten abzugewinnen sind. Die Brauchbarkeit des Zufalls als Gerechtigkeitsfaktor oder als Testverfahren für schwierige Entscheidungen wurde in der philosophischen-theoretischen Diskussion lange nicht erkannt, obwohl er sicher im Alltagsleben öfter schon dazu benutzt wurde.

zb Aus einer Gruppe von Menschen muß einer ausgewählt werden, um eine sehr gefährliche Aufgabe durchzuführen . Keiner will es machen. Es wird per Los entschieden wer es machen muß.

Hier gehts zu den Orginaltexten zum Thema Zufall  


zurück     bei Kritik , Ergänzungen , Anregungen rho54@gmx.de