Zum Inhaltsverzeichnis der Mathematischen Hintergründe
Zur Welcome Page


Wahrscheinlichkeitsrechnung und Statistik 2

Zusammenfassung:
Das zweite der vier Kapitel über Wahrscheinlichkeitsrechnung und Statistik ist dem Zusammenhang zwischen Häufigkeitsverteilungen und diskreten Wahrscheinlichkeitsverteilungen, dem Begriff der Zufallsvariablen, den wichtigsten statistischen Kennzahlen für diese Verteilungen und einigen Beispielen für Verteilungen, die in Anwendungen benötigt werden, gewidmet.

Stichworte:
empirische Verteilungen und ihre Kennzahlen | relative Häufigkeitsverteilungen | grafische Darstellung | den Mittelwert bilden - wovon? | Mittelwert | gewichtetes Mittel | empirische Varianz und empirische Standardabweichung (Streuung, Schwankung) | diskrete Wahrscheinlichkeitsverteilungen | diskret | Zusammenhang zwischen Häufigkeits- und Wahrscheinlichkeitsverteilung | Zufallsvariable, Erwartungswert, Varianz und Standardabweichung | diskrete Zufallsvariable | Erwartungswert | Varianz (Schwankungsquadrat) | Standardabweichung (Streuung, Schwankung) | Binomialverteilung | Bernoulli-Experiment | Parameter | Galton-Brett | Stichprobe mit Zurücklegen (Werkstoffprüfung) | Poissonverteilung | Poissonprozess | Rate | Hypergeometrische Verteilung | Stichprobe ohne Zurücklegen (Werkstoffprüfung)
 
                                                                                                                                                                                                                                               
    
Empirische Verteilungen und ihre Kennzahlen
        
    

Die Analyse von Daten, die aus der Beobachtung zufälliger Prozess gewonnen werden, und ihre Beschreibung durch Kennzahlen (Mittelwert, empirische Varianz und empirische Standardabweichung) ist die Aufgabe der beschreibenden Statistik, der ein eigenes Kapitel gewidmet ist. Oft beziehen sich unsere Beobachtungen auf die Häufigkeit, mit der gewisse Ereignisse eintreten. Um derartige Beobachtungsdaten wird es nun gehen.

 
Relative Häufigkeitsverteilungen

     



Beschreibende Statistik
(in Vorbereitung)
 
     Viele Dinge können beobachtet und ihn Form von Zahlen protokolliert werden. In diesem Abschnitt geht es um Häufigkeitsverteilungen, die aus einer ganz bestimmten Art von Beobachtung resultieren. Dabei wird ein (realer) Versuch, der bestimmte, beobachtbare Ausgänge haben kann, durchgeführt, und es wird festgehalten, wie oft jeder einzelne Ausgang eingetreten ist. Wir werden in diesem und im nächsten Abschnitt wiederholt drei Beispiele heranziehen, in denen es um Häufigkeiten geht:
Beispiel 1: Es werden gleichzeitig zwei Würfeln geworfen und die Summe der Augenzahlen notiert. Dies wird oft wiederholt.
Die möglichen Ausgänge jedes einzelnen Versuchs sind die ganzen Zahlen von 2 bis 12.
Die in 30 Durchgängen gemessenen Augenzahlen-Summen könnten so aussehen: 7, 6, 9, 10, 5, 4, 5, 11, 8, 6, 6, 8, 12, 9, 5, 6, 7, 3, 8, 6, 6, 7, 7, 7, 8, 4, 5, 5, 6, 9 (computergenerierte Liste).
Die dabei auftretenden Häufigkeiten:

 Augenzahlen-
Summe
 
 Anzahl 
20
31
42
55
67
75
  
 Augenzahlen-
Summe
 
 Anzahl 
84
93
101
111
121

Beispiel 2: Die Körpergrößen der 1235462 Einwohner eines Landes werden gemessen und auf ganze Zentimeter gerundet.
Die Liste der Körpergrößen (auf ganze Zentimeter gerundet) könnte so beginnen: 172, 153, 167, 152, 171, 183, 164, 158, 163, 172, 180, 169, 174, 176, 168, 158, 152, 163, 172,...
Die möglichen Ausgänge jedes einzelnen Versuchs sind ganzzahlige Zentimeterangaben.
Ein Ausschnitt der dabei auftretenden Häufigkeiten könnten so aussehen:

 Größe  Anzahl 
17221804
17322031
17421767
17521912

Beispiel 3: Die Kunden eines Einkaufszentrums werden an der Kassa gefragt, in welcher Stadt sie wohnen.
Die möglichen Ausgänge jedes einzelnen Versuchs sind die Städte, aus denen Kunden kommen. Wir nehmen an, es handelt sich dabei um Amselhain, Borkenstadt, Chromingen und Drosselfurt.
Die von 20 Kunden erhaltenen Daten könnten so aussehen: D, A, A, D, C, B, D, C, C, C, A, D, D, C, D, B, C, A, D, B.
Die dabei auftretenden Häufigkeiten:

 Stadt  Anzahl 
 Amselhain 4
 Borkenstadt  3
 Chromingen  6
 Drosselfurt  7

Um eine einheitliche Schreibweise für die Häufigkeiten, die in derartigen Versuchen gewonnen werden, zu verwenden, nennen wir die Zahl der Versuchsdurchführungen n. Die möglichen Ausgänge nummerieren wir in der Form 1, 2, 3,... durch. Dazu müssen wir nun zwei Bemerkungen machen:
  • Die Nummerierung wird lediglich dazu benutzt, um die verschiedenen Ausgänge zu benennen und voneinander zu unterscheiden. Anstelle der Standardnummerierung 1, 2, 3,... können auch andere Formen verwendet werden. Ob eine Nummerierung als Reihung sinnvoll ist, hängt ganz davon ab, was erhoben wurde und was interessiert:
      Im obigen Beispiel 1 ist eine Nummerierung der Ausgänge von 2 bis 12 sinnvoll.
    • In Beispiel 2 werden die Ausgänge am besten durch die Zentimeterbeträge nummeriert, und
    • in Beispiel 3 kommt es auf die Reihenfolge gar nicht an. (Sie kann zum Beispiel alphabetisch gewählt werden: Amselhain = 1, Borkenstadt = 2,...).
  • Die Zahl der möglichen Ausgänge muss im Prinzip nicht begrenzt werden. Obwohl eine konkrete Beobachtung nur zu endlich vielen Daten führen kann, kann es im Prinzip unendlich viele mögliche Ausgänge geben. In drei unseren Beispielen ist das nicht der Fall, aber wenn etwa beobachtet wird, wie viele Photonen pro Zeiteinheit auf ein Photoelement auftreffen, so hat es keinen Sinn, diese Zahl nach oben zu begrenzen.
Ist in einer konkreten n-maligen Durchführung des Versuchs
  • Ausgang 1 genau n1 mal eingetreten,
  • Ausgang 2 genau n2 mal,
  • Ausgang 3 genau n3 mal,
  • usw. .....
so erhalten wir eine Liste absoluter Häufigkeiten

n1n2n3, ...

Unsere Schreibweise drückt aus, dass der Ausgang mit der Nummer k genau nk mal eingetreten ist. Die Summe all dieser Zahlen ist gleich der Anzahl der durchgeführten Versuchsdurchgänge:

n1 + n2 + n3 + ...  =  n.
  (1)

In dieser Form liegen Häufigkeitsverteilungen zunächst vor. Wir nennen eine solche Liste eine absolute Häufigkeitsverteilung. Die absoluten Häufigkeitsverteilungen der obigen Beispiele sind:
  • Beispiel 1: 0, 1, 2, 5, 7, 5, 4, 3, 1, 1, 1
  • Beispiel 2: ..., 21804, 22031, 21767, 21912, ...
  • Beispiel 3: 4, 3, 6, 7
     
 
 
     Um zu den relativen Anteilen, die jeder Versuchsausgang auf sich vereinen kann, überzugehen, definieren wir die relativen Häufigkeiten

h1  =  n1/n
h2  =  n2/n
h3  =  n3/n
............
  (2)

(was kurz auch in der Form hk = nk/n für alle k ausgedrückt werden kann). Für die Summe dieser Zahlen erhalten wir nun

h1 + h2 + h3 + ...  =  1
  (3)

(die Summe aller relativen Häufigkeiten ist 1 - wir nennen die Liste der relativen Häufigkeiten daher normiert) und jedes einzelne hk erfüllt

0  £  hk  £  1.
  (4)

Die Liste

h1h2h3, ...
  (5)

wird relative Häufigkeitsverteilung genannt (wobei der Zusatz "relativ" manchmal weggelassen wird). Werden ihre Elemente mit 100 multipliziert, so drücken sie aus, wie oft jeder Versuchausgang prozentuell eingetreten ist. Die relativen Häufigkeitsverteilungen der obigen Beispiele sind:
  • Beispiel 1: 0, 1/30, 1/15, 1/6, 7/30, 1/6, 2/15, 1/10, 1/30, 1/30, 1/30
  • Beispiel 2: ..., 0.01765, 0.01783, 0.01762, 0.01774, ... (gerundet)
  • Beispiel 3: 0.2, 0.15, 0.3, 0.35

 
Grafische Darstellung

     

relative Häufigkeit
(in Vorbereitung)
 
     Wie können aus einer Liste relativer Häufigkeiten brauchbare Informationen gewonnen werden? Für einen schnellen Überblick ist es sinnvoll, die Liste grafisch darzustellen. Dafür stehen eine Reihe von Möglichkeiten zur Verfügung. Eine schlanke Form der Darstellung ist der Punktgraph. Für die in Beispiel 1 (Summe der Augenzahlen zweier Würfeln) angegebenen Daten sieht er so aus:


Beachten Sie, dass die Versuchsausgänge hier von k = 2 bis k = 12 nummeriert sind. Das ist in diesem Fall sinnvoll, da jeder Ausgang die Summe der Augenzahlen zweier Würfeln darstellt. Ein Punktgraph stellt eine Liste ähnlich dar wie ein Graph eine Funktion. Dabei spielt die Nummer k der Ausgänge die Rolle der unabhängigen Variablen.
     

Funktionsgraph
 
 
    
Diesem Diagramm können wir (ohne uns mit den einzelnen Zahlen der Liste abplagen zu müssen) entnehmen, dass die Summe der Augenzahlen eher öfter mittlere Werte annahm und eher selten die Randwerte. Die am öftesten aufgetretene Augenzahlen-Summe war 6.

Neben der grafischen gibt es auch quantitative (rechnerische) Methoden, um relative Häufigkeitsverteilungen genauer zu charakterisieren.

 
Den Mittelwert bilden - wovon?

     
 
 
     Die populärste statistische Kenngröße ist der Mittelwert. Hat es einen Sinn, im Zusammenhang mit einer relativen Häufigkeitsverteilung nach dem Mittelwert zu fragen? Betrachten wir unsere drei obigen Beispiele:
  • Beispiel 1: Hier können wir fragen: Wie groß ist der Mittelwert aller Augenzahlen-Summen, die aufgetreten sind? Aufgrund der obigen grafischen Darstellung würden wir einen Wert etwa zwischen 5 und 8 vermuten, denn dort sind die relativen Häufigkeiten am größten.
  • Beispiel 2: In diesem Fall kann die Frage nach dem Mittelwert aller gemessenen Körpergrößen gestellt werden.
  • Beispiel 3: Hier erscheint die Frage nach dem Mittelwert auf den ersten Blick nicht sinnvoll! Woraus sollte er auch gebildet werden? Ein Mittelwert einer Liste von Städten ist nicht wohldefiniert! Andererseits kann beispielsweise gefragt werden, wie groß die Entfernungen sind, die die Kunden zum Einkaufen zurücklegen. Einer derartigen Analyse müssten Entfernungen der vorkommenden Städte zugrunde gelegt werden. Sie betragen:

     Stadt  Entfernung (km) 
     Amselhain 10
     Borkenstadt  14
     Chromingen  6
     Drosselfurt  6

    Bei jeder Kundenbefragung könnte die entsprechende Entfernung notiert und am Ende der Mittelwert aus allen notierten Entfernungen (einschließlich aller Wiederholungen) gebildet werden. Das Resultat wäre als "mittlere Entfernung der Städte, aus denen die Kunden kommen" ein gewisses Maß dafür, wie weit die Kunden angereist sind.
Diese drei Beispiele haben eines gemeinsam: Die Frage nach dem Mittelwert kann nur dann gestellt werden, wenn jedem Versuchsausgang eine Zahl zugeordnet wird, die etwas Sinnvolles und Relevantes bedeutet (Summe der Augenzahlen, Körpergröße, Entfernung der Stadt). In allen Fällen hängt die Wahl dieser Zahlen davon ab, was man wissen möchte. Aus ihnen kann dann, entsprechend der Häufigkeit des Eintretens der einzelnen Ausgänge, der Mittelwert gebildet werden.

Dass es aber nicht immer sinnvoll ist, Mittelwerte zu bilden, zeigt dieses Beispiel!

Ganz allgemein bilden wir den Mittelwert einer gewissen Größe (den Mittelwert der Augenzahlen-Summe, der Körpergröße, der Entfernung der Stadt, aus der ein Kunde kommt). Bezeichnen wir diese Größe mit a, so nimmt sie für den Versuchsausgang k den Wert ak an. In unseren drei Beispielen haben die ak folgende Bedeutungen:
  • Beispiel 1: Hier ist die Größe a die Summe der Augenzahlen. Werden die Ausgänge von k = 2 bis k = 12 durchnummeriert, wobei k die Summe der Augenzahlen bedeutet, so ist

    ak = k    für alle k.

    In diesem Fall kann der Nummerierungsindex k also mit der Größe, die interessiert, identifiziert werden.
  • Beispiel 2: Hier ist die Größe a die Körpergröße (in Zentimeter). Werden die Ausgänge durch die Körpergröße durchnummeriert, so gilt hier ebenfalls

    ak = k    für alle k.

    Auch in diesem Fall kann der Nummerierungsindex k mit Größe, die interessiert, identifiziert werden.
  • Beispiel 3: Hier wählen die Größe a als die Entfernung der Stadt, aus der ein Kunde kommt. Ihre Werte sind in der obigen Tabelle festgelegt:

    aAmselhain = 10
    aBorkenstadt = 14
    aChromingen = 6
    aDrosselfurt = 6

    Mit einer alphabetischen Durchnummerierung (Amselhain = 1, Borkenstadt = 2,...) wird damit a1 = 10, a2 = 14,.... Würde man in diesem Fall die Nummerierung entsprechend den Werten von a vornehmen, so könnten die Kunden aus Chromingen dann nicht von jenen aus Drosselfurt unterschieden werden (und vielleicht möchte man diese Unterscheidungsmöglichkeit erhalten, weil noch andere Untersuchungen geplant sind).
Fassen wir zusammen: In jedem unserer drei Beispiele haben wir nun
  • eine Liste relativer Häufigkeiten hk (die relative Häufigkeitsverteilung) und
  • eine Liste von Zahlen ak, die eine Größe a abhängig vom Versuchsausgang k annimmt.
Dies ist unser allgemeines Schema, und wir können uns nun der Frage zuwenden, wie der Mittelwert von a berechnet wird.

 
Mittelwert

     
 
 
     Ist also jedem Versuchsausgang k der Wert ak der zu untersuchenden Größe zugeordnet, so macht es Sinn, nach dem Mittelwert all dieser Werte ak (entsprechend der Häufigkeit des Eintretens der einzelnen Ausgänge k) zu fragen. Wir bezeichnen ihn mit

__
a
  (6)

(ausgesprochen: "a quer" oder "Mittelwert von a"). Er lässt sich mit Hilfe einer einfachen Formel berechnen, sofern die relativen Häufigkeiten (5) bekannt sind: Der Mittelwert von a ist durch

__
a

  =  

a1 h1 + a2 h2 + a3 h3 + ...
  (7)

     


 
 
     gegeben. Diese Formel stellt ein gewichtetes Mittel dar (wobei die relativen Häufigkeiten hk die "Gewichte" sind): Wie schwer ein ak in dieser Summe "wiegt", hängt von hk ab, d.h. davon, wie oft der Ausgang k im Vergleich zu den anderen Ausgängen eingetreten ist.

Berechnen wir die Mittelwerte in unseren drei Beispielen: Der Übersicht halber sind die Werte der Größe a (d.h. die Zahlen ak) in rot, die relativen Häufigkeiten (d.h. die Zahlen hk) in grün wiedergegeben:
  • Beispiel 1: Die Anwendung von (7) ergibt:
    __
    a

      =  

    2 × 0 + 3 × (1/30) + 4 × (1/15) + 5 × (1/6) + 6 × (7/30) +
    7 × (1/6) + 8 × (2/15) + 9 × (1/10) + 10 × (1/30) +
    11 × (1/30) + 12 × (1/30)  =  41/6  »  6.833.

    Der Mittelwert der Augenzahlen-Summe in den 30 Versuchsdurchgängen, aus denen unsere Daten stammen, ist 41/6, also etwas kleiner als 7. Vergleichen Sie dieses Resultat mit der obigen grafischen Darstellung! Unsere erste "gefühlsmäßige" Schätzung hatte ergeben, dass sich der Mittelwert irgendwo zwischen 5 und 8 befindet.
  • Beispiel 2: Wird (7) auf die erhobenen Daten angewandt, so sieht ein Auschnitt der Berechnung so aus:
    __
    a

      =  

    ... + 172 × 0.01765 + 173 × 0.01783 +
    174 × 0.01762 + 175 × 0.01774 + ...

    Das Resultat ist dann die mittlere Körpergröße der Bevölkerung des betreffenden Landes.
  • Beispiel 3: Die Anwendung von (7) auf unsere Daten ergibt:
    __
    a

      =  

    10 × 0.2 + 14 × 0.15 +
    6 × 0.3 + 6 × 0.35  =  8.

    Die mittlere Entfernung, aus der die Kunden zum Einkaufen kommen, beträgt 8 km.
Aus diesen Beispielen geht also klar hervor, dass es sich nicht um "den Mittelwert einer gegebenen Verteilung" handelt, sondern um den "Mittelwert von a" entsprechend der gegebenen Verteilung. Die Größe a kann dabei frei gewählt werden. Sie geht lediglich in Form der Zahlen ak ein. Beispielsweise könnte anstelle von a auch a2 gesetzt werden. Der Mittelwert von a2 ist dann durch
__
a2

  =  

a12 h1 + a22 h2 + a32 h3 + ...
  (8)

gegeben, und ganz analog kann der Mittelwert von f(a) gebildet werden, wobei f eine beliebige Funktion ist:
___
f(a)

  =  

f(a1) h1 + f(a2) h2 + f(a3) h3 + ...
  (9)

Mit f(a) = a wird daraus die Formel (7) für den Mittelwert von a, mit f(a) = a2 ergibt sich (8) und für f(a) = 1 erhalten wir, da klarerweise
__
1

  =  

1
  (10)

ist, die Normierungsbedingung (3).

Wir wollen jetzt noch anmerken, dass das Bilden des Mittelwerts eine lineare Operation ist:
  • Für jede fixe reelle Zahl c gilt
    ___
    ca

      =   c 
    __
    a

    .
      (11)

    In Worten: Der Mittelwert eines Vielfachen von a ist gleich dem Vielfachen des Mittelwerts.
  • Sind zwei Größen a und b gegeben, die für jeden Versuchsausgang k Zahlenwerte ak und bk annehmen, so kann mit Hilfe der Formel (7) auch der Mittelwert von b gebildet werden, indem einfach a und ak durch b und bk ersetzt werden. Für die Mittelwerte dieser beiden Größen gilt dann
    _____
    a + b

      =  
    __
    a

     + 
    __
    b

    .
      (12)

    In Worten: Der Mittelwert einer Summe ist gleich der Summe der Mittelwerte.
 
Empirische Varianz und empirische Standardabweichung

     









 
 
     Der Mittelwert (7) stellt in der Regel einen "ungefähren" oder "typischen" Wert einer Größe a dar. Er ist umso aussagekräftiger, je kleiner die "typische Abweichung" der aufgetretenen a-Werte von ihm ist. Um eine solche typische Abweichung zu definieren, greifen wir auf die Begriffe der (empirischen) Varianz und der (empirischen) Standardabweichung zurück.

Die empirische Varianz einer Datenliste ist definiert als der Mittelwert der Quadrate der Anweichungen der Einzeldaten vom Mittelwert. Das bedeutet: Zunächst wird der Mittelwert von a mittels (7) berechnet. Das "Quadrat der Abweichung vom Mittelwert" entspricht der Größe

f(a)

  = 

 (

a

-
_
a

)2

.
  (13)
     

empirische Varianz

empirische Standardabweichung
 
    
Wird sie in (9) eingesetzt, so ergibt sich die empirische Varianz von a zu


s2

  =  

(a1 -
__
a

)2 h1 +

(a2 -
__
a

)2 h2 + ...
  (14)

Traditionsgemäß wird sie mit s2 bezeichnet, da sie stets ³ 0 ist. Wir können sie auch in der Form

    __________  

s2

  =  

(

a.

-
_
a2

)
2
  (15a)

anschreiben. Eine andere, dazu äquivalente Formel ist


s2

  =  
___
a2

 - 

(
_
 a2

)
2
.
  (15b)
     


 
 
    
In Worten: Die empirische Varianz von a ist gleich dem Mittelwert von a2 minus dem Quadrat des Mittelwerts von a. Anstelle von (14) kann daher auch (8) berechnet und das Quadrad des Mittelwerts (7) subtrahiert werden.

Die empirische Varianz drückt noch nicht die typische Abweichung von a von seinem Mittelwert aus. (So hat sie in Beispiel 3 die Dimension Quadratkilometer). Ein Maß für die typische Abweichung der Größe a vom ihrem Mittelwert ist die empirische Standardabweichung von a, auch (empirische) Streuung oder Schwankung von a genannt. Sie ist s, also die Quadratwurzel der empirischen Varianz (14)-(15b).

Die Bezeichnungen "empirisch" drücken aus, dass es sich hier um Kennzahlen handelt, die aus empirisch gewonnenen Daten (d.h. aus einem realen Zufallsexperiment) gewonnen werden. Wir werden weiter unten entsprechende Größen ohne diesen Zusatz kennen lernen, die sich nicht auf empirische Daten, sondern auf ideale Zufallsexperimente beziehen.

Sehen wir uns nun noch die empirische Varianz und die empirische Standardabweichung in unseren drei Beispiele an:
  • Beispiel 1: Die Anwendung von (14) ergibt:

    s2  =  757/180  »  4.206.

    Daher ist s » 2.051. Diese Zahl stellt die Streuung der im Experiment aufgetretenen Augenzahlen-Summen dar. Vergleichen Sie dieses Resultat mit der obigen grafischen Darstellung! Gehen sie vom Mittelwert (ungefähr 7) um 2 nach links und um 2 nach rechts: In diesem Intervall liegt ein Großteil der aufgetretenen Augenzahlen-Summen.
  • Beispiel 2: Wird (14) auf die erhobenen Daten angewandt, so ergibt sich mit s die Streuung der Körpergröße in der Bevölkerung des betreffenden Landes.
  • Beispiel 3: Die Anwendung von (14) auf unsere Daten ergibt:

    s2  =  8.8.

    Daher ist s » 2.966. Diese Zahl stellt (in Kilometer) die Streuung der Entfernungen der Städte, aus denen die Kunden kommen, dar.
Neben dem Mittelwert, der empirischen Varianz und der empirischen Standardabweichung gibt es noch weitere Kenngrößen für relative Häufigkeitsverteilungen (wie etwa die "Schiefe", die misst, wie symmetrisch die relativen Häufigkeiten um den Mittelwert verteilt sind - sehen Sie sich etwa die Form der oben grafisch dargestellten Verteilung noch einmal an!). Wir wollen es aber bei den hier besprochenen bewenden lassen.

 
     
 
 
    
Diskrete Wahrscheinlichkeitsverteilungen
     
Zum Seitenanfang
 
    

Im vorigen Abschnitt haben wir empirische, d.h. durch tatsächliche Beobachtungen erhaltene Häufigkeitsverteilungen und einige ihrer Kennzahlen besprochen. Oft wollen wir aber mehr über die hinter einem Phänomen liegenden statistischen Gesetzmäßigkeiten wissen. Dazu ist es nötig, ein reales Phänomen durch ein ideales Zufallsexperiment zu modellieren. Das Kapitel "Wahrscheinlichkeitsrechnung und Statistik 1" war idealen Zufallsexperimenten und den in ihnen auftretenden Wahrscheinlichkeiten gewidmet, und auf diese mathematischen Konstruktionen greifen wir nun zurück.
     

Zufallsexperiment
 
 
    
Wir betrachten also ein ideales Zufallsexperiment, dessen mögliche Ausgänge mit 1, 2, 3,... durchnummeriert sind. (Wieder kann die Nummerierung im Einzelfall von dieser Konvention abweichen). Sein Ereignisraum (die Menge aller möglichen Ausgänge) kann daher in der Form {1, 2, 3, ...} angeschrieben werden. Im ersten Kapitel über Wahrscheinlichkeitsrechnung und Statistik haben wir nur Zufallsexperimente mit einer endlichen Zahl möglicher Ausgänge betrachtet. Diese Bedingung wollen wir nun fallen lassen. Da die möglichen Ausgänge durchnummeriert werden können, nennen wir unser Zufallsexperiment diskret. Sein Ereignisraum ist entweder eine endliche oder eine abzählbare Menge.
Anmerkung: Es sind auch ideale Zufallsexperimente denkbar, für die jede reelle Zahl oder jede reelle Zahl eines Intervalls einen möglichen Ausgang darstellt. Diese kontinuierlichen Zufallsexperimente werden ein Thema des Kapitels "Wahrscheinlichkeitsrechnung und Statistik 3" sein.
     


Ereignisraum


abzählbar


kontinuierliche Zufallsexperimente
(in Vorbereitung)
 
     Wenn ab jetzt in diesem Kapitel eine Summe auftritt, die mit "+ ..." aufhört, so ist damit gemeint, dass sie
  • im Fall eines endlichen Ereignisraums abbricht und
  • im Fall eines unendlichen Ereignisraums nicht abbricht, d.h. eigentlich keine Summe, sondern eine Reihe darstellt.
Jeder Versuchsausgang k tritt mit einer gewissen Wahrscheinlichkeit  pk ein. Unser Zufallsexperiment ist daher durch eine Liste

p1p2p3, ...
  (16)

von Wahrscheinlichkeiten charakterisiert, die normiert sind

p1 + p2 + p3 + ...  =  1,
  (17)

und für deren Elemente

0  £  pk  £  1
  (18)

gilt. Umgekehrt definiert jede Liste reeller Zahlen der Form (16), deren Elemente (17) und (18) erfüllen, ein diskretes Zufallsexperiment. Eine derartige Liste wird eine diskrete Wahrscheinlichkeitsverteilung genannt.

Beachten Sie, dass relative Häufigkeiten, wie wir sie oben besprochenen haben, die gleichen Beziehungen erfüllen. Es besteht eine enge Analogie:

 relativeHäufigkeitsverteilung   Wahrscheinlichkeitsverteilung 
(5) (16)
(3) (17)
(4) (18)
     




Reihen
 
    
Das ist kein Zufall! Erinnern wir uns an die Definition der Wahrscheinlichkeit: Wahrscheinlichkeiten sind Voraussagen für relative Häufigkeiten des Eintretens von Ereignissen (für den Grenzfall einer gegen unendlich strebenden Anzahl von Versuchsdurchführungen). Wird ein durch die Wahrscheinlichkeitsverteilung (16) charakterisiertes Zufallsexperiment n mal durchgeführt, so werden die dabei auftretenden Häufigkeiten der Versuchsausgänge eine Liste vom Typ (5) bilden. Wird n immer größer gemacht, so wird die Liste (5) immer besser mit (16) übereinstimmen, und im (gedanklichen) Grenzfall einer unendlichen Anzahl von Durchgängen gilt für jeden Ausgang hk = pk.
     



Definition der Wahrscheinlichkeit
 
    
Beispiel: Wir modellieren das obige Beispiel 1: Es werden gleichzeitig zwei Würfeln geworfen Dabei setzen wir nun voraus, dass es sich um ideale Würfeln handelt, und dass sie voneinander unabhängig sind, d.h. dass sie einander nicht beeinflussen. Mit pk bezeichnen wir die Wahrscheinlichkeit, dass die Summe der Augenzahlen k ist. (Dabei kann k alle ganzzahligen Werte zwischen 2 und 12 annehmen). Indem zunächst alle Kombinationen von Augenzahlen betrachtet werden, wird dieses Zufallsexperiment auf ein Laplace-Experiment (dessen Ausgänge alle gleich wahrscheinlich sind) zurückgeführt: Es gibt 36 verschiedene Kombinationen ("Zahl der möglichen Fälle"). Es ist nicht schwer, die Zahl der für den Ausgang k "günstigen Fälle" zu ermitteln (siehe den Button rechts). Es ergibt sich

 Augenzahlen-
Summe
 
 Wahrscheinlich-
keit
 
21/36
31/18
41/12
51/9
65/36
71/6
  
 Augenzahlen-
Summe
 
 Wahrscheinlich-
keit
 
85/36
91/9
101/12
111/18
121/36

Diese Tabelle definiert die Wahrscheinlichkeitsverteilung für das Zufallsexperiment:
p2 = 1/36, p3 = 1/18, ... p12 = 1/36.
Ebenso wie relative Häufigkeitsverteilungen können Wahrscheinlichkeitsverteilungen grafisch dargestellt werden. Der Punktgraph für das letzte Beispiel (Wahrscheinlichkeiten für die Summe der Augenzahlen zweier Würfeln) sieht so aus:


Vergleichen Sie ihn mit der oben wiedergegebenen grafischen Darstellung der Häufigkeitsverteilung, die aus 30 Durchgängen im Real-Experiment (Beispiel 1) gewonnen wurde! Hätten wir nicht 30, sondern eine Million Durchgänge durchgeführt, so wäre die relative Häufigkeitsverteilung der (idealen) Wahrscheinlichkeitsverteilung schon sehr ähnlich gewesen.

Neben der grafischen gibt es auch quantitative (rechnerische) Methoden, um Wahrscheinlichkeitsverteilungen genauer zu charakterisieren.

 
     


Statistische Unabhängigkeit

Laplace-
Experiment



der Augenzahlen-
Summen
 
    
Zufallsvariable, Erwartungswert, Varianz und Standardabweichung
     
Zum Seitenanfang
 
    

Wir besprechen nun einige Kenngrößen, die Wahrscheinlichkeitsverteilungen charakterisieren. Wenn eine Wahrscheinlichkeitsverteilung die Voraussage einer relativen Häufigkeitsverteilung (für den Grenzwert unendlich vieler Durchgänge) ist, so muss es möglich sein, in diesem Sinne auch den Mittelwert, die empirische Varianz und die empirische Standardabweichung einer vom Versuchsausgang abhängigen Größe a vorauszusagen.

 
Diskrete Zufallsvariable

     
 
 
     Die Größe a, die für jeden Versuchsausgang k eines Zufallsexperiments einen Wert ak besitzt, bekommt nun einen Namen: Wir nennen sie eine diskrete Zufallsvariable. Der Name rührt daher, dass wir sie uns als eine "vom Zufall gesteuerte" Größe vorstellen können: Wird das Zufallsexperiment durchgeführt, so tritt ein Ausgang k ein, und dementsprechend hat die Zufallsvariable den Wert ak. Da k aber nicht von vornherein fest steht, hängt auch der Wert, den a in diesem einen Versuch angenommen hat (nämlich ak), vom Zufall ab.
Anmerkung: Wird im Zusammenhang mit einer Wahrscheinlichkeitsverteilung keine Zufallsvariable definiert, so wird in der Regel davon ausgegangen, dass sie mit dem Nummerierungsindex der Versuchsausgänge identifiziert wird, d.h. dass sie durch ak = k gegeben ist. In diesem Fall gibt die Wahrscheinlichkeitsverteilung unmittelbar die "Verteilung der Zufallsvariablen" an.
Wird das Experiment sehr oft durchgeführt, so ergibt sich eine sehr lange Liste von Werten, die a in den einzelnen Durchgängen angenommen hat. Da im Fall einer gegen unendlich strebenden Anzahl von Durchgängen die relativen Häufigkeiten gegen die Wahrscheinlichkeiten streben, können die vorausgesagten Kennzahlen mit Hilfe der bereits besprochenen Formeln ermittelt werden, indem lediglich die relativen Häufigkeiten durch die Wahrscheinlichkeiten ersetzt werden.

 
Erwartungswert

     
 
 
     Der (für eine gegen unendlich strebende Anzahl von Versuchsdurchführungen) vorausgesagte Mittelwert einer Zufallsvariable a heißt Erwartungswert von a, angeschrieben in der Form <a>, und traditionsgemäß auch mit dem Buchstaben m bezeichnet. Er wird berechnet, indem in (7) einfach jedes hk durch pk ersetzt wird:

m  º  < a>   =   a1 p1 + a2 p2 + a3 p2 + ...
  (19)

Eine andere verbreitete Bezeichnungsweise für den Erwartungswert von a ist E(a). Beachten Sie, dass diese Größe nun lediglich
  • von den Werten der Zufallsvariable für die Versuchsausgänge (ak) und
  • von den Wahrscheinlichkeiten, die das Zufallsexperiment charakterisieren (pk)
abhängt, aber nicht von Beobachtungsdaten. In diesem Sinne ist der Erwartungswert eine ideale Größe.

Anstelle von a kann auch der Erwartungswert jeder anderen Zufallsvariable berechnet werden. Bespielsweise ergibt sich in Analogie zu (8)

< a2>   =   a12 p1 + a22 p2 + a32 p3 + ...
  (20)

(was manchmal auch in der Form E(a2) geschrieben wird) und ebenso kann in Analogie zu (9) der Erwartungswert

< f(a)>   =   f(a1) p1 + f(a2) p2 + f(a3) p3 + ...
  (21)

gebildet werden. Mit f(a) = a wird daraus die Formel (19) für den Erwartungswert von a, mit f(a) = a2 ergibt sich (20) und für f(a) = 1 erhalten wir, da <1> = 1 ist, die Normierungsbedingung (17).
Beispiel: Der Erwartungswert der Summe der Augenzahlen zweier Würfel wird mit (19) und der bereits oben ermittelten Wahrscheinlichkeitsverteilung zu

<a>   =   2 × (1/36) + 3 × (1/18) + 4 × (1/12) + 5 × (1/9) + 6 × (5/36) +
7 × (1/6) + 8 × (5/36) + 9 × (1/9) + 10 × (1/12) +
11 × (1/18) + 12 × (1/36)  =  7.

berechnet. (Der Übersicht halber sind die Werte der Zufallsvariablen a in rot und die Wahrscheinlichkeiten in grün wiedergegeben). Dieser Wert ist auch sehr schön an der obigen grafischen Darstellung der Wahrscheinlichkeitsverteilung abzulesen. Vergleichen Sie ihn mit dem Wert 41/6 » 6.833, der sich oben für den Mittelwert der Augenzahlen-Summe in 30 Versuchsdurchgängen ergeben hat!
Manchmal wird vom "Erwartungswert einer Wahrscheinlichkeitsverteilung" gesprochen, ohne dass von der betroffenen Zufallsvariablen die Rede ist. In diesem Fall wird, wie bereits erwähnt, davon ausgegangen, dass die Zufallsvariable mit dem Nummerierungsindex der Versuchsausgänge identifiziert wird, d.h. dass sie durch ak = k gegeben ist.

Ebenso wie das Bilden des Mittelwerts (siehe (11) und (12)) ist das Bilden des Erwartungswerts eine lineare Operation:
  • Für jede fixe reelle Zahl c gilt

    < c a>   =   c < a> .
      (22)

    In Worten: Der Erwartungswert eines Vielfachen ist gleich dem Vielfachen des Erwartungswerts.
  • Für zwei Zufallsvariable a und b gilt

    < a + b>   =   < a> + < b> .
      (23)

    In Worten: Der Erwartungswert einer Summe ist gleich der Summe der Erwartungswerte.
 
Varianz und Standardabweichung

     
 
 
     Die (für eine gegen unendlich strebende Anzahl von Versuchsdurchführungen) vorausgesagte empirische Varianz einer Zufallsvariable a wird die Varianz (oder das Schwankungsquadrat) von a genannt (ohne den Zusatz "empirisch") und ürblicherweise mit s2 bezeichnet. Durch Ersetzung der hk durch die Wahrscheinlichkeiten pk ergibt sie sich aus (14) zu

s2   =   (a1 - <a>)2 p1 + (a2 - <a>)2 p2 + ... .
  (24)

Die zu (15a) und (15b) analogen Ausdrücke für sie sind

s2   =   < (a - <a>)2 >   =   < a2 > - <a>2 .
  (25)

In der Schreibweise mit dem Symbol "E" für den Erwartungswert lauten sie E((a - E(a))2) und E(a2) - E(a)2.

Die Standardabweichung von a, auch Streuung oder Schwankung genannt, ist s, also die Quadratwurzel aus der Varianz.

Manchmal wird von "der Varianz (oder Standardabweichung) einer Wahrscheinlichkeitsverteilung" gesprochen, ohne dass von der betroffenen Zufallsvariablen die Rede ist. In diesem Fall wird, wie bereits erwähnt, davon ausgegangen, dass die Zufallsvariable mit dem Nummerierungsindex der Versuchsausgänge identifiziert wird, d.h. dass sie durch ak = k gegeben ist.

Beispiel: Die Varianz der Summe der Augenzahlen zweier Würfel wird mit (24) und der bereits oben ermittelten Wahrscheinlichkeitsverteilung zu s2 = 35/6 berechnet. Die Standardabweichung ist daher s » 2.415. Vergleichen Sie dieses Resultat mit der obigen grafischen Darstellung!
 


Nachdem wir nun die wichtigsten Eigenschaften diskreter Wahrscheinlichkeitsverteilungen diskutiert haben und die Kennzahlen Erwartungswert, Varianz und Standardabweichung von Zufallsvariablen berechnen können, wenden wir uns nun noch einigen in Anwendungen häufig auftretenden Beispielen für diskrete Wahrscheinlichkeitsverteilungen zu.

 
     
 
 
    
Binomialverteilung
     
Zum Seitenanfang
 
    

Nehmen wir als Ausgangspunkt ein Zufallsexperiment, das zwei Ausgänge besitzt (ein so genanntes Bernoulli-Experiment):
  • Das Ereignis A, das mit der Wahrscheinlichkeit q eintritt und
  • sein Gegenereignis Ø A (das daher mit der Gegenwahrscheinlichkeit 1 - q eintritt).
Dieses Experiment wird n mal durchgeführt. Uns interessiert nun, wie oft das Ereignis A eintritt. Die Wahrscheinlichkeit, dass A genau k mal eintritt, ist durch
     





Gegen-
wahrscheinlichkeit
 
    

pk   =   qk (1 - q)n - k    n   
k
  (26)

gegeben (wobei k alle ganzzahligen Werte zwischen 0 und n annehmen kann). Dadurch wird für jedes q und jedes n eine Wahrscheinlichkeitsverteilung definiert: die so genannte Binomialverteilung. Ihre Zufallsvariable kann mit dem Nummerierungsindex der Ausgänge identifiziert werden: ak = k. Ihre Rolle besteht lediglich darin, zu zählen, wie oft A eingetreten ist.

Für unterschiedliche Werte von q und n (diese Größen werden auch die Parameter der Verteilung genannt) ergeben sich unterschiedliche Verteilungen. (Eigentlich müssten wir von "den Binomialverteilungen" sprechen). Daher sind für die Wahrscheinlichkeiten pk in (26) auch Schreibweisen wie pk(n, q) oder pk(n, q) gebräuchlich.
Beispiel: Es wird mit einem Würfel 20 mal gewürfelt. Uns interessiert, wie oft unter diesen 20 Würfen "Augenzahl 6" eintritt. Die entsprechenden Wahrscheinlichkeiten pk (für k = 0 bis 20) bilden eine Binomialverteilung (26) mit q = 1/6 (die Wahrscheinlichkeit für "Augenzahl 6" bei einmaligem Würfeln) und n = 20. Der Punktgraph der Verteilung (26) mit diesen Werten von q und n sieht so aus:


Ohne weitere Rechnung geht aus ihm hervor, dass die höchste Wahrscheinlichkeit für ein 3-maliges Auftreten von "Augenzahl 6" besteht, und dass es sehr selten vorkommen wird, mehr als 9 mal "Augenzahl 6" zu werfen.
Der Erwartungswert und die Varianz der Binomialverteilung (genauer: der Erwartungswert und die Varianz von k in der Binomialverteilung) sind durch

m   =   qn
  (27)

und

s2   =   q(1 - q)n
  (28)

gegeben. Die Standardabweichung ist wie immer s, die Quadratwurzel aus der Varianz. Der Erwartungwert könnte auch in der Form <k> geschrieben werden, die Varianz in der Form <(k - <k>)2> oder <k2> - <k>2.
Beispiel: Für das obige Beispiel (Binomialverteilung mit q = 1/6 und n = 20) ergibt sich m = 10/3 » 3.333, s2 = 25/9 » 2.778 und s2 = 5/3 » 1.667. Vergleichen Sie mit der grafischen Darstellung!
Für q = 1/2 ist die Binomialverteilung symmetrisch. Hier ein Plot für q = 1/2 und n = 30:


Der Erwartungswert ist in diesem Fall n/2.
Ein einfaches physikalisches Experiment, das auf die Binomialverteilung mit q = 1/2 führt, ist das Galton-Brett, in dem eine Kugel mehrere Reihen von Nägeln passierten muss. Bei jedem Nagel kann sie (mit gleicher Wahrscheinlichkeit) nach links oder nach rechts fallen. Nachdem sie die Nagelreihen passiert hat, fällt sie in eines von mehreren Fächern. Das Fach, in das sie schließlich fallen wird, hängt davon ab, wie oft sie nach links bzw. rechts gefallen ist (unabhängig von der Reihenfolge, in der sie das getan hat). Die Wahrscheinlichkeit für eine Kugel, in einem bestimmten Fach zu landen, ist daher eine Binomialverteilung mit q = 1/2, deren Parameter n gleich der Zahl der Nagelreihen ist. Die tatsächliche Verteilung vieler Kugeln in den Fächern wird näherungsweise eine Binomialverteilung sein.
Die der Binomialverteilung zugrunde liegende Situation kann auch anders formuliert werden: Wir betrachten eine Menge von Objekten (z.B. Werkstücken in einer Produktion) und nehmen an, ein relativer Anteil q dieser Objekte besitze eine gewisse Eigenschaft (z.B. fehlerhaft zu sein). Nun wird eine "Stichprobe vom Umfang n mit Zurücklegen" gezogen, d.h. es wird n mal ein Objekt zufällig herausgegriffen, auf die betreffende Eigenschaft untersucht und wieder zurückgelegt. Die Wahrscheinlichkeit, dass dabei genau k mal ein Objekt mit dieser Eigenschaft gezogen wird, ist durch (26) gegeben. Diese Logik kann in der Werkstoffprüfung eingesetzt werden, denn mit ihrer Hilfe lässt sich der Anteil q der fehlerhaften Stücke abschätzen (wobei das Zurücklegen natürlich ein bisschen ineffizient sein kann - schließlich geht es ja auch um das Ausscheiden der fehlerhaften Stücke). Wir werden weiter unten mit der "hypergeometrischen Verteilung" auch Stichproben ohne Zurücklegen beschreiben können.

 
     


 
    
Poissonverteilung
     
Zum Seitenanfang
 
    

Aus der Binomialverteilung kann eine andere interessante Wahrscheinlichkeitsverteilung gewonnen werden. Erinnern wir uns an den Prozess, der zur Binomialverteilung führt: Ein Zufallsexperiment, das zwei Ausgänge A (mit Wahrscheinlichkeit q) und Ø A besitzt, wird n mal durchgeführt. Dabei interessiert, wie oft A eintritt. Nun stellen wir uns vor, dass das Experiment in jedem Zeitintervall Dt durchgeführt wird. Dann können wir fragen, wie oft A innerhalb eines größeren Zeitintervalls t eintritt. Ist t = nDt, so wird das Experiment während dieses Zeitintervalls n mal durchgeführt. Die Wahrscheinlichkeit, dass A während dieser Zeit genau k mal eintritt, ist durch die Binomialverteilung (26) gegeben. Der Erwartungswert von k ergibt sich mit (27) zu qt/Dt. So oft wird A im Mittel während einer Zeitspanne t eintreten.

Nun lassen wir das Zeitintervall Dt und die Wahrscheinlichkeit q gegen 0 streben, und zwar so, dass der Quotient l = q/Dt endlich bleibt. Wird dieser Grenzübergang in der Binomialverteilung durchgeführt (was wir hier nicht vorführen wollen), so ergibt sich die so genannte Poisson-Verteilung

pk   =    (lt)k   e-lt .

k!
  (29)

Sie gibt die Wahrscheinlichkeit an, dass das Ereignis A innerhalb eines Zeitintervalls der Länge t genau k mal eintritt. Wieder wird die Zufallsvariable mit dem Nummerierungsindex k identifiziert. Dieser kann nun alle ganzzahligen Werte ³ 0 annehmen, ist also nicht auf einen endlichen Bereich beschränkt!

Da der Konstruktion der Poissonverteilung die Idee eines zeitlichen Ablaufs zugrunde liegt, spricht man auch von einem Poissonprozess. Die Größe l wird die Rate dieses Prozesses genannt. Sie gibt an, wie oft A pro Zeitintervall im Mittel eintritt. Der Erwartungswert und die Varianz der Poissonverteilung (genauer: der Erwartungswert und die Varianz von k in der Poissonverteilung) sind gleich. Sie sind durch

m   =   s2   =   lt
  (30)

gegeben.

Die Poissonverteilung modelliert Situationen, in denen viele voneinander unabhängige Zufallsexperimente in sehr kurzen Zeitintervallen durchgeführt werden und jedes dieser Experimente Anlass zum Eintreten des Ereignisses A sein kann.
Beispiele:
  • Das physikalische Paradebeispiel für einen Poissonprozess ist der radioaktive Zerfall: In einem Stück Materie sei eine sehr große Anzahl von angeregten Atomen enthalten, die zerfallen können. Wann ein solches Atom zerfallen wird, entscheidet der Zufall, und zwar unabhängig von allen anderen Atomen. Die Wahrscheinlichkeit, innerhalb eines gegebenen Zeitintervalls genau k atomare Zerfälle zu registrieren, wird mit sehr guter Genauigkeit durch eine Poissonverteilung (29) beschrieben.
  • Die Zahl der Photonen (Lichtteilchen), die von einem heißen Körper wie der Sonne ausgesandt werden und pro Zeitintervall auf ein Photoelement auftreffen, ist mit sehr guter Genauigkeit poissonverteilt.
  • Die Zahl der täglich auf der Erde geborenen Babys ist (wenn Geburten als hinreichend unabhängig von der Jahreszeit und ähnlichen Einflüssen erachtet werden) mit guter Genauigkeit poissonverteilt.
Der Punktgraph der Poissonverteilung (29) für lt = 7 sieht (im Bereich von k = 0 bis 25 dargestellt) so aus:



 
     
 
 
    
Hypergeometrische Verteilung
     
Zum Seitenanfang
 
    

Erinnern wir uns an die oben erwähnte Anwendung der Binomialverteilung in der Werkstoffprüfung: Dabei wird aus einer Menge von Werkstücken, von denen ein relativer Anteil q fehlerhaft ist, n mal ein Werkstück herausgegriffen, auf Fehlerhaftigkeit untersucht und wieder zurückgelegt. Effizienter ist es natürlich, eine Stichprobe vom Umfang n ohne Zurücklegen zu ziehen. Wie groß ist dann die Wahrscheinlichkeit, dass genau k fehlerhalte Stücke zutage treten?

Diese Frage wird durch die hypergeometrische Verteilung beantwortet. Sie ist definiert durch

pk   =   m    N - m  ,
k n - k

          N     
        n    
  (31)

wobei k alle ganzzahligen Werte zwischen 0 und n annehmen kann. Dabei ist
  • N die gesamte Anzahl der Werkstücke (d.h. die Größe der Grundgesamtheit),
  • m (£ N) die Zahl der fehlerhaften Stücke (deren relativer Anteil daher q = m/N ist) und
  • n der Umfang der Stichprobe (d.h. die Anzahl der ohne Zurücklegen herausgegriffenen Stücke).
Der Erwartungswert und die Varianz der hypergeometrischen Verteilung (genauer: der Erwartungswert und die Varianz von k in der hypergeometrischen Verteilung) sind durch

m   =   mn/N
  (32)

und

s2   =   mn
N
  ( -   m
N
 )   N - n
N - 1
 
  (33)

gegeben.

Hier ein Plot der hypergeometrischen Verteilung (31) für die Parameterwerte N = 50, m = 5 und n = 10:


Wenn sich also unter 50 Werkstücken 5 fehlerhafte befinden und 10 Stichproben ohne Zurücklegen gezogen werden, ist es sehr unwahrscheinlich, dabei alle 5 fehlerhaften Stücke zu entdecken. Da der Erwartungswert m = 5 × 10/50 = 1 ist, wird im Mittel mit dieser Methode nur ein fehlerhaftes Stück gefunden. Durch die Auscheidung eines Stücks wird die Fehlerquote von ursprünglich 10% lediglich auf 8.2% gesenkt. Mit einer Wahrscheinlichkeit von etwas mehr als 0.3 wird mit dieser Methode überhaupt kein fehlerhaftes Stück entdeckt!

 


Damit haben wir die Besprechung einiger in Anwendungen relevanter diskreter Wahrscheinlichkeitsverteilungen beendet. Für Berechnungen mit Verteilungen können Sie unser Tool

Online-Rechnen mit Mathematica

benutzen. Um Faktorielle oder Binomialkoeffizienten zu berechnen, geben Sie beispielsweise 10! oder Binomial[20,2] ein!

Um eine diskrete Wahrscheinlichkeitsverteilung in Form eines Punktgraphen darzustellen, können Sie das (von unseren Innsbrucker Projektpartnern gestaltete) Online-Tool

Folgen

benutzen. Es gehört zwar zu einem anderen Kapitel der Mathematik, eignet sich aber auch hierfür bestens. Um beispielsweise die Binomialverteilung mit q = 1/6 und und n = 20 darzustellen (das entspricht einem der oben gezeigten Diagramme), gehen Sie so vor:
  • Rufen Sie den obigen Link auf und klicken Sie auf den Button "Applet starten"!
  • Geben Sie unter a(n)= den Ausdruck für die Verteilung ein. Hierbei müssen Sie zweierlei beachten:
    • Der Index, der die Versuchsausgänge nummeriert, heißt in diesem Tool n (während wir ihn bei unserer obigen Besprechung der diskreten Wahrscheinlichkeitsverteilungen mit k bezeichnet haben).
    • Bei der Eingabe müssen Sie Binomialkoeffizienten durch Faktorielle ausdrücken, da kein eigener Befehl für Binomialkoeffizienten vorgesehen ist.
    Für das Beispiel der Binomialverteilung geben Sie daher ein: (1/6)^n*(1-1/6)^(20-n)*20!/(n!*(20-n)!)
  • Lassen Sie das Feld Startwerte leer!
  • Geben Sie unter Startindex 0 ein!
  • Geben Sie unter Endindex 20 ein!
  • Klicken Sie auf den Button "Berechnen" (rechts unten)!
Im erzeugten Graphen werden, im Gegensatz zu den in diesem Kapitel gezeigten, die Punkte durch Linien verbunden. Als Alternative können Sie ein Tabellenkalkulationsprogramm wie Excel oder ein Computeralgebrasystem verwenden.

Im Kapitel "Wahrscheinlichkeitsrechnung und Statistik 3" werden die hier entwickleten Konzepte der diskreten Wahrscheinlichkeitsverteilung und Zufallsvariablen auf den kontinuierlichen Fall ausgedehnt werden.

 
     

Binomialkoeffizienten und Faktorielle








kontinuierliche Zufallsexperimente
(in Vorbereitung)

 
 


 

 
Weitere Angebote von mathe online zum Thema:
Zum Kapitel Wahrscheinlichkeitsrechnung und Statistik 2 der Galerie

Online-Rechnen mit Mathematica
Folgen (zum Erstellen von Punktgraphen)

Interaktive Tests

 Zum Seitenanfang
 Zum Lexikon
 Zur Galerie
 Zum Kapitel Wahrscheinlichkeitsrechnung und Statistik 2 der Galerie
 Zum Inhaltsverzeichnis der Mathematischen Hintergründe
 Zu den interaktiven Tests
 Zu den Mathe-Links und Online-Werkzeugen
 Zur Welcome Page