Difference between revisions of "Theory of Stochastic Signals/Some Basic Definitions"

From LNTwww
m (Text replacement - "”" to """)
 
(16 intermediate revisions by 3 users not shown)
Line 1: Line 1:
 
{{FirstPage}}
 
{{FirstPage}}
 
{{Header
 
{{Header
|Untermenü=Wahrscheinlichkeitsrechnung
+
|Untermenü=Probability Calculation
 
|Nächste Seite=Mengentheoretische Grundlagen
 
|Nächste Seite=Mengentheoretische Grundlagen
 
}}
 
}}
  
== # ÜBERBLICK ZUM ERSTEN HAUPTKAPITEL # ==
+
== # OVERVIEW OF THE FIRST MAIN CHAPTER # ==
 
<br>
 
<br>
Dieses erste Kapitel bringt eine kurze Zusammenfassung der&nbsp; '''Wahrscheinlichkeitsrechnung''', die sicher viele von Ihnen bereits aus der Schulzeit kennen und die eine wichtige Voraussetzung für das Verständnis der nachfolgenden Kapitel darstellt.  
+
This first chapter brings a brief summary of&nbsp; &raquo;'''probability calculation'''&laquo;,&nbsp; which surely many of you already know from your school days and which is an important prerequisite for understanding the chapters that follow.
  
Dieses Kapitel beinhaltet
+
This chapter includes
* einige&nbsp; ''Definitionen''&nbsp; wie Zufallsexperiment, Ergebnis, Ereignis und Wahrscheinlichkeit,
+
# some&nbsp; &raquo;definitions&laquo;&nbsp; such as&nbsp; &raquo;random experiment&laquo;&nbsp;,&nbsp; &raquo;outcome&laquo;&nbsp;,&nbsp; &raquo; event&laquo;&nbsp;, and&nbsp; &raquo;probability&laquo;&nbsp;,
* die für die Wahrscheinlichkeitsrechnung relevanten&nbsp; ''mengentheoretischen Grundlagen'',
+
# the&nbsp; &raquo;set-theoretical basics&laquo;&nbsp; relevant for probability theory,
* die Verdeutlichung von&nbsp; ''Statistischer Abhängigkeit''&nbsp; bzw.&nbsp; ''Statistischer Unabhängigkeit'',
+
# the clarification of&nbsp; &raquo;statistical dependence&laquo;&nbsp; and&nbsp; &raquo;statistical independence&laquo;,
* die mathematische Behandlung von statistischen Abhängigkeiten durch&nbsp; ''Markovketten''.
+
# the mathematical treatment of statistical dependence by&nbsp; &raquo;Markov chains&laquo;.
  
  
==Experiment und Ergebnis==
+
==Experiment and outcome==
 
<br>
 
<br>
Ausgangspunkt einer jeden statistischen Untersuchung ist ein&nbsp; '''Zufallsexperiment'''. Darunter versteht man
+
The starting point of any statistical investigation is a&nbsp; &raquo;'''random experiment'''&laquo;.&nbsp; By this,&nbsp; one understands
*einen unter stets gleichen Bedingungen beliebig oft wiederholbaren Versuch mit ungewissem&nbsp; '''Ergebnis'''&nbsp; $E$,  
+
*an experiment that can be repeated as often as desired under the same conditions with an uncertain&nbsp; &raquo;'''outcome'''&laquo;&nbsp; &nbsp;$($German:&nbsp; "$\rm E\hspace{0.02cm}$rgebnis"$)$&nbsp; $E$,
*bei dem jedoch die Menge&nbsp;  $ \{E_μ \}$&nbsp; der möglichen Ergebnisse angebbar ist.  
+
 +
*in which,&nbsp; however,&nbsp; the quantity&nbsp;  $ \{E_μ \}$&nbsp; of the possible outcomes is specifiable.
  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die Anzahl der möglichen Ergebnisse bezeichnet man als den&nbsp; '''Ergebnisumfang'''&nbsp; $M$.&nbsp; Dann gilt:
+
$\text{Definition:}$&nbsp; The number of possible outcomes is called the&nbsp; &raquo;'''outcome set size'''&laquo;&nbsp; $M$.&nbsp; Then holds:
 
:$$E_\mu \in G = \{E_\mu\}=  \{E_1, \hspace{0.1cm}\text{...} \hspace{0.1cm}, E_M \} .$$
 
:$$E_\mu \in G = \{E_\mu\}=  \{E_1, \hspace{0.1cm}\text{...} \hspace{0.1cm}, E_M \} .$$
Die Laufvariable&nbsp; $μ$&nbsp; kann alle ganzzahligen Werte zwischen&nbsp; $1$&nbsp; und&nbsp; $M$&nbsp; annehmen.&nbsp;  $G$&nbsp; nennt man den Ereignisraum oder die&nbsp; '''Grundmenge'''.}}
+
#The variable&nbsp; $μ$&nbsp; can take all integer values between&nbsp; $1$&nbsp; and&nbsp; $M$.&nbsp;   
 +
#$G = \{E_\mu\}$&nbsp; is called the event space or the&nbsp; &raquo;'''universal set'''&laquo;&nbsp; $($German:&nbsp; "Grundmenge" &nbsp; &rArr; &nbsp; letter:&nbsp; "G"$)$&nbsp; with&nbsp; $M$&nbsp; possible outcomes.}}
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp; Beim Experiment "Münzwurf" gibt es nur zwei mögliche Ergebnisse, nämlich "Zahl" und "Bild" &nbsp; ⇒  &nbsp; $M = 2$.&nbsp; Dagegen sind beim Zufallsexperiment "Werfen einer Roulettekugel" insgesamt&nbsp; $M = 37$&nbsp; verschiedene Ergebnisse möglich, und es gilt in diesem Fall für die Grundmenge:
+
$\text{Example 1:}$&nbsp;  
 +
*In the experiment&nbsp; &raquo;coin toss&laquo;&nbsp; there are only two possible outcomes,&nbsp; namely&nbsp; &raquo;heads&laquo;&nbsp; and&nbsp; &raquo;tails&laquo; &nbsp; ⇒  &nbsp; $M = 2$.&nbsp;
 +
 
 +
*In contrast,&nbsp; in the random experiment&nbsp; &raquo;throwing a roulette ball&laquo;&nbsp; a total of&nbsp; $M = 37$&nbsp; different outcomes are possible,&nbsp; and it holds for the universal set in this case:
 
:$$G = \{E_\mu\} = \{0, 1, 2, \text{...} \hspace{0.1cm} , 36\}.$$}}
 
:$$G = \{E_\mu\} = \{0, 1, 2, \text{...} \hspace{0.1cm} , 36\}.$$}}
  
==Klassische Definition der Wahrscheinlichkeit==
+
==Classical definition of probability==
 
<br>
 
<br>
Wir setzen zunächst voraus, dass jeder Versuch genau ein einziges Ergebnis aus&nbsp; $G$&nbsp; zur Folge hat und dass jedes dieser&nbsp; $M$&nbsp; Ergebnisse in gleicher Weise (ohne Bevorzugung oder Benachteiligung) möglich ist.
+
We assume that each trial results in exactly one outcome from&nbsp; $G$&nbsp; and that each of these&nbsp; $M$&nbsp; outcomes is possible in the same way&nbsp; $($without preference or disadvantage$)$.
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Mit dieser Annahme gilt für die&nbsp; '''Wahrscheinlichkeit'''&nbsp; (englisch:&nbsp; ''Probability'')&nbsp; eines jeden Ergebnisses&nbsp; $E_μ$&nbsp; gleichermaßen:
+
$\text{Definition:}$&nbsp; With this assumption,&nbsp; the&nbsp; &raquo;'''probability'''&laquo;&nbsp; of each outcome&nbsp; $E_μ$&nbsp; is equally:
 
:$$\Pr (E_\mu) = 1/{M}.$$}}
 
:$$\Pr (E_\mu) = 1/{M}.$$}}
  
  
Dies ist die&nbsp; ''klassische Definition der Wahrscheinlichkeit''.&nbsp; ${\rm Pr}(\text{...} )$&nbsp; steht  für&nbsp; ''Probability''&nbsp; und ist als eine mathematische Funktion zu verstehen.
+
This is the&nbsp; &raquo;classical definition of probability&laquo;.&nbsp; ${\rm Pr}(\text{...} )$&nbsp; stands also for&nbsp; &raquo;probability&laquo;&nbsp; and is to be understood as a mathematical function.
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 2:}$&nbsp;
+
$\text{Example 2:}$&nbsp;
Beim Zufallsexperiment "Münzwurf" gilt für die Wahrscheinlichkeiten der beiden möglichen Ergebnisse: 
+
In the random experiment&nbsp; &raquo;coin toss&laquo;,&nbsp; the probabilities of the two possible outcomes are
:$$\rm Pr("Zahl")=Pr("Bild")=1/2.$$
+
:$$\rm Pr(heads)=Pr(tails)=1/2.$$
  
Dies setzt voraus, dass jeder Versuch entweder mit "Zahl" oder mit "Bild" ausgeht und dass nicht bei einem Versuch die Münze auf ihrem Rand zu stehen kommen kann.  
+
*This assumes that each attempt ends either with&nbsp; &raquo;heads&laquo;&nbsp; or with&nbsp; &raquo;tails&raquo;&nbsp; and that the coin cannot come to rest on its edge during an attempt.
  
Auch beim Versuch "Werfen einer Roulettekugel" sind die Wahrscheinlichkeiten&nbsp; ${\rm Pr}( E_μ) = 1/37$&nbsp; nur dann für alle Zahlen von&nbsp; $0$&nbsp; bis&nbsp; $36$&nbsp; gleich, wenn der Roulettetisch nicht manipuliert wurde.}}
+
*In the experiment&nbsp; &raquo;throwing a roulette ball&laquo;&nbsp; the probabilities&nbsp; ${\rm Pr}( E_μ) = 1/37$&nbsp; are equal for all numbers from&nbsp; $0$&nbsp; to&nbsp; $36$&nbsp; <br>only if the roulette table has not been manipulated.}}
  
  
''Anmerkung:'' &nbsp; Die Wahrscheinlichkeitsrechnung und die darauf aufbauende Statistik kann nur dann fundierte Aussagen liefern, wenn alle implizit vereinbarten Voraussetzungen tatsächlich erfüllt sind.&nbsp;  
+
Note: &nbsp; '''Probability theory and the statistics based on it can only provide well-founded statements if all implicitly agreed conditions are actually fulfilled'''.&nbsp;  
*Diese Bedingungen zu überprüfen ist nicht Aufgabe der Statistik, sondern von denjenigen, die diese nutzen.&nbsp;  
+
*Checking these conditions is not the task of statistics,&nbsp; but of those who use them.&nbsp;
*Da gegen diese Grundregel oft verstoßen wird, hat die Statistik in der Gesellschaft einen viel schlechteren Ruf, als es ihr eigentlich zustehen würde.
+
 +
*Since this basic rule is often violated,&nbsp; statistics has a much worse reputation in society than it actually deserves.
  
==Ereignis und Ereignismenge==
+
==Event and event probability==
 
<br>
 
<br>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definitionen:}$&nbsp;
+
$\text{Definitions:}$&nbsp;
Unter einem&nbsp; '''Ereignis'''&nbsp; verstehen wir eine Menge bzw. die Zusammenfassung von Ergebnissen.
+
 
*Die Menge aller Ereignisse bezeichnen wir als die&nbsp; '''Ereignismenge'''&nbsp; $\{A_i \}$.  
+
'''(1)''' &nbsp; By an&nbsp; &raquo;'''event'''&laquo;&nbsp; we mean a set or summary of outcomes.&nbsp; We refer to the set of all events as the &nbsp; &raquo;'''event set'''&laquo;&nbsp; $\{A_i \}$.  
*Da die Anzahl&nbsp; $I$&nbsp; der möglichen Ereignisse&nbsp; $\{A_i \}$&nbsp; im Allgemeinen nicht mit der Anzahl&nbsp; $M$&nbsp; der möglichen Ergebnisse – also der Elemente von&nbsp; $G = \{ E_μ \}$&nbsp; – übereinstimmt, werden hier unterschiedliche Indizes gewählt.
+
 
 +
::Since the number&nbsp; $I$&nbsp; of possible events&nbsp; $\{A_i \}$&nbsp; is generally not the same as the number&nbsp; $M$&nbsp; of possible outcomes  &nbsp; &rArr; &nbsp;  the elements of&nbsp; $G = \{ E_μ \}$,&nbsp; <br>different indices are chosen here.
  
 +
'''(2)''' &nbsp;If an event&nbsp; $A_i$&nbsp; is composed of&nbsp; $K$&nbsp; $($elementary$)$&nbsp; outcomes,&nbsp; the&nbsp; &raquo;'''event probability'''&laquo;&nbsp; is defined as follows:
 +
:$${\rm Pr} (A_i) = \frac{K}{M} = \frac{\rm Number\hspace{0.1cm}of\hspace{0.1cm}favorable\hspace{0.1cm}outcomes}{\rm Number\hspace{0.1cm}of\hspace{0.1cm}possible\hspace{0.1cm}outcomes}.$$}}
  
Setzt sich ein Ereignis&nbsp; $A_i$&nbsp; aus&nbsp; $K$&nbsp; (elementaren) Ergebnissen zusammen, so wird die&nbsp; '''Ereigniswahrscheinlichkeit'''&nbsp; wie folgt definiert:
 
:$${\rm Pr} (A_i) = \frac{K}{M} = \frac{\rm Anzahl\hspace{0.1cm}der\hspace{0.1cm}g\ddot{u}nstigen\hspace{0.1cm}Ergebnisse}{\rm Anzahl\hspace{0.1cm}der\hspace{0.1cm}m\ddot{o}glichen\hspace{0.1cm}Ergebnisse}.$$}}
 
  
 +
This equation is called the&nbsp; [https://en.wikipedia.org/wiki/Pierre-Simon_Laplace &raquo;'''Laplace probability definition'''&laquo;]. 
 +
*Here,&nbsp; &raquo;favorable outcomes&laquo;&nbsp; are those outcomes that belong to the composite event&nbsp; $A_i$.
  
Diese Gleichung nennt man die Wahrscheinlichkeitsdefinition nach&nbsp; [https://de.wikipedia.org/wiki/Pierre-Simon_Laplace Laplace]. 
+
*From this definition it is already clear that a probability must always lie between&nbsp; $0$&nbsp; and&nbsp; $1$&nbsp;&nbsp; $($including these two limits$)$.  
*Als "günstige Ergebnisse"  werden dabei solche Ergebnisse bezeichnet, die zum zusammengesetzten Ereignis&nbsp; $A_i$&nbsp; gehören.
 
*Aus dieser Definition geht bereits hervor, dass eine Wahrscheinlichkeit stets zwischen&nbsp; $0$&nbsp; und&nbsp; $1$&nbsp; liegen muss&nbsp; (einschließlich dieser beiden Grenzen).  
 
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 3:}$&nbsp;
+
$\text{Example 3:}$&nbsp;
Wir betrachten wieder das Experiment "Werfen eines Würfels". Die möglichen Ergebnisse sind somit&nbsp;  $E_μ ∈ G = \{1, 2, 3, 4, 5, 6\}$.  
+
We now consider the experiment&nbsp; &raquo;throwing a die&laquo;.&nbsp; The possible outcomes&nbsp; $($number of points$)$&nbsp; are thus&nbsp;  $E_μ ∈ G = \{1, 2, 3, 4, 5, 6\}$.  
  
Definieren wir nun zwei Ereignisse&nbsp; $(I = 2)$, nämlich
+
Let us now define two events&nbsp; $(I = 2)$, viz.
* $A_1 = \big[$die Augenzahl ist geradzahlig$\big] = \{2, 4, 6\}$,&nbsp; und  
+
* $A_1 = \big[$the outcome is even$\big] = \{2, 4, 6\}$,&nbsp; and
* $A_2 = \big[$die Augenzahl ist ungeradzahlig$\big] = \{1, 3, 5\}$,  
+
   
 +
* $A_2 = \big[$the outcome is odd$\big] = \{1, 3, 5\}$,  
  
  
so ist die Ereignismenge&nbsp;  $\{A_1, A_2\}$&nbsp; gleich der Grundmenge&nbsp; $G$.&nbsp; Die Ereignisse&nbsp; $A_1$&nbsp; und&nbsp; $A_2$&nbsp; stellen für dieses Beispiel ein so genanntes&nbsp; [[Theory_of_Stochastic_Signals/Mengentheoretische_Grundlagen#Vollst.C3.A4ndiges_System|vollständiges System]]&nbsp;  dar.  
+
then the event set&nbsp;  $\{A_1, A_2\}$&nbsp; is equal to the universe&nbsp; $G$.&nbsp; For this example,&nbsp; the events&nbsp; $A_1$&nbsp; and&nbsp; $A_2$&nbsp; represent a so-called&nbsp; [[Theory_of_Stochastic_Signals/Set_Theory_Basics#Complete_system|&raquo;complete system&laquo;]].
  
Dagegen ist die weitere Ereignismenge&nbsp;  $\{A_3, A_4\}$&nbsp; ungleich der Grundmenge&nbsp; $G$, wenn man die Einzelereignisse wie folgt definiert:  
+
On the other hand,&nbsp; the further event set&nbsp;  $\{A_3, A_4\}$&nbsp; is not equal to the universe&nbsp; $G$,&nbsp; if we define the single events as follows:
* $A_3 = \big[$die Augenzahl ist kleiner als 3$\big] = \{1, 2\}$,  
+
* $A_3 = \big[$the outcome is smaller than&nbsp; 3$\big] = \{1, 2\}$,
* $A_4 =\big[$die Augenzahl ist größer als 3$\big] = \{4, 5, 6\}$.  
+
 +
* $A_4 =\big[$the outcome is bigger than&nbsp; 3$\big] = \{4, 5, 6\}$.  
  
  
Hier beinhaltet die Ereignismenge&nbsp; $\{A_3, A_4\}$&nbsp; nicht das Element „3”.&nbsp; Die Wahrscheinlichkeiten der hier definierten Ereignisse sind&nbsp; ${\rm Pr}( A_3) = 1/3$&nbsp; und&nbsp; ${\rm Pr}( A_1) ={\rm Pr}(A_2) = {\rm Pr}(A_4) = 1/2$.}}
+
Here,&nbsp; the event set&nbsp; $\{A_3, A_4\}$&nbsp; does not include the element&nbsp; $3$.&nbsp; The probabilities of the events defined here are&nbsp;  
 +
:$${\rm Pr}( A_3) = 1/3,\ {\rm Pr}( A_1) ={\rm Pr}(A_2) = {\rm Pr}(A_4) = 1/2.$$}}
  
  
Die Thematik dieses Kapitels wird im Lernvideo&nbsp; [[Klassische_Definition_der_Wahrscheinlickeit_(Lernvideo)|Klassische Definition der Wahrscheinlichkeit]]&nbsp; anhand von Beispielen verdeutlicht.
+
&rArr; &nbsp; The topic of this chapter is illustrated with examples in the&nbsp; $($German language$)$&nbsp; learning video&nbsp;<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; [[Klassische_Definition_der_Wahrscheinlickeit_(Lernvideo)|&raquo;Klassische Definition der Wahrscheinlickeit&laquo;]] &nbsp; &rArr; &nbsp; &raquo;Classical definition of probability&laquo;.
  
  
==Aufgaben zum Kapitel==
+
==Exercises for the chapter==
 
<br>
 
<br>
[[Aufgaben:1.1 Würfelspiel_Mäxchen|Aufgabe 1.1: Würfelspiel Mäxchen]]
+
[[Aufgaben:Exercise_1.1:_A_Special_Dice_Game|Exercise 1.1: A Special Dice Game]]
  
[[Aufgaben:1.1Z_Summe_zweier_Ternärsignale|Aufgabe 1.1Z: Summe zweier Ternärsignale]]
+
[[Aufgaben:Exercise_1.1Z:_Sum_of_Two_Ternary_Signals|Exercise 1.1Z: Sum of Two Ternary Signals]]
  
  
 
{{Display}}
 
{{Display}}

Latest revision as of 17:47, 30 November 2023

  • [[Theory of Stochastic Signals/{{{Vorherige Seite}}} | Previous page]]
  • Next page
  • [[Theory of Stochastic Signals/{{{Vorherige Seite}}} | Previous page]]
  • Next page

# OVERVIEW OF THE FIRST MAIN CHAPTER #


This first chapter brings a brief summary of  »probability calculation«,  which surely many of you already know from your school days and which is an important prerequisite for understanding the chapters that follow.

This chapter includes

  1. some  »definitions«  such as  »random experiment« ,  »outcome« ,  » event« , and  »probability« ,
  2. the  »set-theoretical basics«  relevant for probability theory,
  3. the clarification of  »statistical dependence«  and  »statistical independence«,
  4. the mathematical treatment of statistical dependence by  »Markov chains«.


Experiment and outcome


The starting point of any statistical investigation is a  »random experiment«.  By this,  one understands

  • an experiment that can be repeated as often as desired under the same conditions with an uncertain  »outcome«   $($German:  "$\rm E\hspace{0.02cm}$rgebnis"$)$  $E$,
  • in which,  however,  the quantity  $ \{E_μ \}$  of the possible outcomes is specifiable.


$\text{Definition:}$  The number of possible outcomes is called the  »outcome set size«  $M$.  Then holds:

$$E_\mu \in G = \{E_\mu\}= \{E_1, \hspace{0.1cm}\text{...} \hspace{0.1cm}, E_M \} .$$
  1. The variable  $μ$  can take all integer values between  $1$  and  $M$. 
  2. $G = \{E_\mu\}$  is called the event space or the  »universal set«  $($German:  "Grundmenge"   ⇒   letter:  "G"$)$  with  $M$  possible outcomes.


$\text{Example 1:}$ 

  • In the experiment  »coin toss«  there are only two possible outcomes,  namely  »heads«  and  »tails«   ⇒   $M = 2$. 
  • In contrast,  in the random experiment  »throwing a roulette ball«  a total of  $M = 37$  different outcomes are possible,  and it holds for the universal set in this case:
$$G = \{E_\mu\} = \{0, 1, 2, \text{...} \hspace{0.1cm} , 36\}.$$

Classical definition of probability


We assume that each trial results in exactly one outcome from  $G$  and that each of these  $M$  outcomes is possible in the same way  $($without preference or disadvantage$)$.

$\text{Definition:}$  With this assumption,  the  »probability«  of each outcome  $E_μ$  is equally:

$$\Pr (E_\mu) = 1/{M}.$$


This is the  »classical definition of probability«.  ${\rm Pr}(\text{...} )$  stands also for  »probability«  and is to be understood as a mathematical function.

$\text{Example 2:}$  In the random experiment  »coin toss«,  the probabilities of the two possible outcomes are

$$\rm Pr(heads)=Pr(tails)=1/2.$$
  • This assumes that each attempt ends either with  »heads«  or with  »tails»  and that the coin cannot come to rest on its edge during an attempt.
  • In the experiment  »throwing a roulette ball«  the probabilities  ${\rm Pr}( E_μ) = 1/37$  are equal for all numbers from  $0$  to  $36$ 
    only if the roulette table has not been manipulated.


Note:   Probability theory – and the statistics based on it – can only provide well-founded statements if all implicitly agreed conditions are actually fulfilled

  • Checking these conditions is not the task of statistics,  but of those who use them. 
  • Since this basic rule is often violated,  statistics has a much worse reputation in society than it actually deserves.

Event and event probability


$\text{Definitions:}$ 

(1)   By an  »event«  we mean a set or summary of outcomes.  We refer to the set of all events as the   »event set«  $\{A_i \}$.

Since the number  $I$  of possible events  $\{A_i \}$  is generally not the same as the number  $M$  of possible outcomes   ⇒   the elements of  $G = \{ E_μ \}$, 
different indices are chosen here.

(2)  If an event  $A_i$  is composed of  $K$  $($elementary$)$  outcomes,  the  »event probability«  is defined as follows:

$${\rm Pr} (A_i) = \frac{K}{M} = \frac{\rm Number\hspace{0.1cm}of\hspace{0.1cm}favorable\hspace{0.1cm}outcomes}{\rm Number\hspace{0.1cm}of\hspace{0.1cm}possible\hspace{0.1cm}outcomes}.$$


This equation is called the  »Laplace probability definition«.

  • Here,  »favorable outcomes«  are those outcomes that belong to the composite event  $A_i$.
  • From this definition it is already clear that a probability must always lie between  $0$  and  $1$   $($including these two limits$)$.


$\text{Example 3:}$  We now consider the experiment  »throwing a die«.  The possible outcomes  $($number of points$)$  are thus  $E_μ ∈ G = \{1, 2, 3, 4, 5, 6\}$.

Let us now define two events  $(I = 2)$, viz.

  • $A_1 = \big[$the outcome is even$\big] = \{2, 4, 6\}$,  and
  • $A_2 = \big[$the outcome is odd$\big] = \{1, 3, 5\}$,


then the event set  $\{A_1, A_2\}$  is equal to the universe  $G$.  For this example,  the events  $A_1$  and  $A_2$  represent a so-called  »complete system«.

On the other hand,  the further event set  $\{A_3, A_4\}$  is not equal to the universe  $G$,  if we define the single events as follows:

  • $A_3 = \big[$the outcome is smaller than  3$\big] = \{1, 2\}$,
  • $A_4 =\big[$the outcome is bigger than  3$\big] = \{4, 5, 6\}$.


Here,  the event set  $\{A_3, A_4\}$  does not include the element  $3$.  The probabilities of the events defined here are 

$${\rm Pr}( A_3) = 1/3,\ {\rm Pr}( A_1) ={\rm Pr}(A_2) = {\rm Pr}(A_4) = 1/2.$$


⇒   The topic of this chapter is illustrated with examples in the  $($German language$)$  learning video 
            »Klassische Definition der Wahrscheinlickeit«   ⇒   »Classical definition of probability«.


Exercises for the chapter


Exercise 1.1: A Special Dice Game

Exercise 1.1Z: Sum of Two Ternary Signals