Aufgaben:Aufgabe 3.4: Entropie für verschiedene Wahrscheinlichkeiten: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(16 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 3: Zeile 3:
 
}}
 
}}
  
[[Datei:P_ID2758__Inf_Z_3_3.png|right|]]
+
[[Datei:P_ID2758__Inf_Z_3_3.png|right|frame|Wahrscheinlichkeitsfunktionen, jeweils mit  $M = 4$  Elementen]]
In der ersten Zeile der nebenstehenden Tabelle ist die mit „a” bezeichnete Wahrscheinlichkeitsfunktion angegeben. Für dieses $P_X(X)$ soll  soll in der Teilaufgabe (a) die Entropie
+
In der ersten Zeile der nebenstehenden Tabelle ist die im Folgenden die mit  $\rm (a)$  bezeichnete Wahrscheinlichkeitsfunktion angegeben. Für diese PMF  $P_X(X) = \big [0.1, \ 0.2, \ 0.3, \ 0.4 \big ]$  soll  in der Teilaufgabe  '''(1)'''  die Entropie berechnet werden:
 +
:$$H_{\rm a}(X) = {\rm E} \big [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{X}(X)}\big ]= - {\rm E} \big  [ {\rm log}_2 \hspace{0.1cm}{P_{X}(X)}\big ].$$
 +
Da hier der Logarithmus zur Basis  $2$  verwendet wird, ist die Pseudo–Einheit „bit” anzufügen.
  
$$H_{\rm a}(X) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{X}(X)}\right ]$$
+
In den weiteren Aufgaben sollen jeweils einige Wahrscheinlichkeiten variiert werden und zwar derart, dass sich jeweils die größtmögliche Entropie ergibt:
  
berechnet werden. Da hier der Logarithmus zur Basis 2 verwendet wird, ist die Pseudo–Einheit „bit” anzufügen.
+
* Durch geeignete Variation von  $p_3$  und  $p_4$  kommt man zur maximalen Entropie  $H_{\rm b}(X)$  unter der Voraussetzung  $p_1 = 0.1$  und  $p_2 = 0.2$    ⇒   Teilaufgabe  '''(2)'''.
 +
* Durch geeignete Variation von  $p_2$  und  $p_3$ kommt man zur maximalen Entropie  $H_{\rm c}(X)$  unter der Voraussetzung  $p_1 = 0.1$  und  $p_4 = 0.4$   ⇒   Teilaufgabe  '''(3)'''.
 +
* In der Teilaufgabe  '''(4)'''  sind alle vier Parameter zur Variation freigegeben, die entsprechend der maximalen Entropie   ⇒   $H_{\rm max}(X)$   zu bestimmen sind.
  
In den weiteren Aufgaben sollen jeweils einige Wahrscheinlichkeiten variiert werden und zwar derart, dass sich jeweils die größtmögliche Entropie ergibt:
 
  
:* Durch geeignete Variation von $p_3$ und $p_4$ kommt man zur maximalen Entropie $H_b(X)$ unter der Voraussetzung $p_1 = 0.1$ und $p_2 = 0.2$      $\Rightarrow$ Teilaufgabe (b).
 
  
:* Durch geeignete Variation von $p_2$ und $p_3$ kommt man zur maximalen Entropie $H_c(X)$ unter der Voraussetzung $p_1 = 0.1$ und $p_4 = 0.4$      $\Rightarrow$ Teilaufgabe (c).
 
 
:* In der Teilaufgabe (d) sind alle vier Parameter zur Variation freigegeben, die entsprechend der maximalen Entropie $\Rightarrow$  $H_{max}(X)$  zu bestimmen sind.
 
  
'''Hinweis:''' Die Aufgabe bezieht sich auf das [http://www.lntwww.de/Informationstheorie/Einige_Vorbemerkungen_zu_zweidimensionalen_Zufallsgr%C3%B6%C3%9Fen Kapitel 3.1]
 
  
  
  
  
 +
 +
''Hinweise:''
 +
*Die Aufgabe gehört zum  Kapitel  [[Informationstheorie/Einige_Vorbemerkungen_zu_zweidimensionalen_Zufallsgrößen|Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen]].
 +
*Insbesondere wird Bezug genommen auf die Seite  [[Informationstheorie/Einige_Vorbemerkungen_zu_zweidimensionalen_Zufallsgrößen#Wahrscheinlichkeitsfunktion_und_Entropie|Wahrscheinlichkeitsfunktion und Entropie]].
 +
  
  
Zeile 28: Zeile 31:
  
 
<quiz display=simple>
 
<quiz display=simple>
{Zu welcher Entropie führt $P_X(X) = [ 0.1, 0.2, 0.3, 0.4]$ ?
+
{Zu welcher Entropie führt die Wahrscheinlichkeitsfunktion&nbsp; $P_X(X) = \big [ 0.1, \ 0.2, \ 0.3, \ 0.4 \big ]$ ?
 
|type="{}"}
 
|type="{}"}
$H_a(X)$ = { 1.846 1% } $bit$  
+
$H_{\rm a}(X) \ = \ $ { 1.846 0.5% } $\ \rm bit$  
  
{Es gelte allgemein $P_X(X) = [ 0.1, 0.2, p_3, p_4]$. Welche Entropie erhält man, wenn $p_3$ und $p_4$ bestmöglich gewählt werden?
+
{Es gelte nun allgemein&nbsp; $P_X(X) = \big [ 0.1, \ 0.2, \ p_3, \ p_4\big ]$.&nbsp; Welche Entropie erhält man, wenn&nbsp; $p_3$&nbsp; und&nbsp; $p_4$&nbsp; bestmöglich gewählt werden?
 
|type="{}"}
 
|type="{}"}
$H_b(X)$ = { 1.857 1% } $bit$
+
$H_{\rm b}(X) \ = \ $ { 1.857 0.5% } $\ \rm bit$
  
{ Nun gelte $P_X(X) = [ 0.1, p_2, p_3, 0.4]$. Welche Entropie erhält man, wenn $p_2$ und $p_3$ bestmöglich gewählt werden?
+
{ Nun gelte&nbsp; $P_X(X) = \big [ 0.1, \ p_2, \ p_3, \ 0.4 \big ]$.&nbsp; Welche Entropie erhält man, wenn&nbsp; $p_2$&nbsp; und&nbsp; $p_3$&nbsp; bestmöglich gewählt werden?
 
|type="{}"}
 
|type="{}"}
$H_c(X)$ = { 1.861 1% } $bit$
+
$H_{\rm c}(X) \ = \ $ { 1.861 0.5% } $\ \rm bit$
  
{ Welche Entropie erhält man, wenn ($p_1$, $p_2$,$p_3$  und $p_4$) bestmöglich gewählt werden Können ?
+
{ Welche Entropie erhält man, wenn alle Wahrscheinlichkeiten &nbsp;$(p_1, \ p_2 , \ p_3, \ p_4)$&nbsp; bestmöglich gewählt werden?
 
|type="{}"}
 
|type="{}"}
$H_{max}(X)$ = { 2 1% } $bit$
+
$H_{\rm max}(X) \ = \ $ { 2 1% } $\ \rm bit$
 
 
 
 
  
  
Zeile 51: Zeile 52:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
'''1.'''  Mit $P_X(X) = [ 0.1, 0.2, 0.3, 0.4]$ erhält man für die Entropie:  
+
'''(1)'''&nbsp; Mit&nbsp; $P_X(X) = \big [ 0.1, \ 0.2, \ 0.3, \ 0.4 \big ]$&nbsp; erhält man für die Entropie:  
 
+
:$$H_{\rm a}(X) =  
$$H_{\rm a}(X) =  
 
 
0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} +
 
0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} +
 
0.2 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.2} +
 
0.2 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.2} +
 
0.3 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.3} +
 
0.3 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.3} +
 
0.4 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.4}  
 
0.4 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.4}  
\hspace{0.15cm} \underline {= 1.846}  \hspace{0.05cm}$$.
+
\hspace{0.15cm} \underline {= 1.846}  \hspace{0.05cm}.$$
 +
Hier (und bei den anderen Aufgaben) ist jeweils die  Pseudo–Einheit „bit” anzufügen.
  
Hier (und bei den anderen Aufgaben) ist jeweils die  Pseudo–Einheit „bit” anzufügen.
 
  
'''2.''' Die Entropie $H_b (X)$ sich als Summe zweier Anteile  $H_{b1}(X)$ und $H_{b2}(X)$  darstellen, mit:
 
  
$$H_{\rm b1}(X) =  
+
'''(2)'''&nbsp; Die Entropie&nbsp; $H_{\rm b}(X)$&nbsp; lässt sich als Summe zweier Anteile&nbsp;  $H_{\rm b1}(X)$&nbsp; und&nbsp; $H_{\rm b2}(X)$&nbsp;  darstellen, mit:
 +
:$$H_{\rm b1}(X) =  
 
0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} +
 
0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} +
0.2 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.2} = 0.797 \hspace{0.05cm}$$
+
0.2 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.2} = 0.797 \hspace{0.05cm},$$
 
+
:$$H_{\rm b2}(X)  =  
$$H_{\rm b2}(X)  =  
 
 
p_3 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p_3} +
 
p_3 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p_3} +
(0.7-p_3) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.7-p_3} \hspace{0.05cm}$$.
+
(0.7-p_3) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.7-p_3} \hspace{0.05cm}.$$
  
Die zweite Funktion ist für $p-3 = p_4 = 0.35$ Ein ähnlicher Zusammenhang hat sich bei der [http://www.lntwww.de/Informationstheorie/Ged%C3%A4chtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion Binäre Entropiefunktion] ergeben. Damit erhält man :  
+
*Die zweite Funktion ist maximal für&nbsp; $p_3 = p_4 = 0.35$.&nbsp; Ein ähnlicher Zusammenhang hat sich bei der binären Entropiefunktion ergeben.&nbsp;
 +
*Damit erhält man:  
  
$$H_{\rm b2}(X) = 2 \cdot  
+
:$$H_{\rm b2}(X) = 2 \cdot  
 
p_3 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p_3} =
 
p_3 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p_3} =
0.7 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.35} = 1.060$$
+
0.7 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.35} = 1.060 $$
 +
:$$ \Rightarrow \hspace{0.3cm} H_{\rm b}(X) = H_{\rm b1}(X) + H_{\rm b2}(X) = 0.797 + 1.060 \hspace{0.15cm} \underline {= 1.857}  \hspace{0.05cm}.$$
  
$$\Rightarrow \hspace{0.3cm} H_{\rm b}(X) = H_{\rm b1}(X) + H_{\rm b2}(X) = 0.797 + 1.060 \hspace{0.15cm} \underline {= 1.857}  \hspace{0.05cm}$$.
 
  
  
'''3.''' Analog zur Aufgabe (b) ergibt sich mit $p_1 = 0.1$, $p_4 = 0.4$ das Maximum für $p_2 = p_3 = p_3 = 0.25$ :
+
'''(3)'''&nbsp; Analog zur Teilaufgabe&nbsp; '''(2)'''&nbsp; ergibt sich mit&nbsp; $p_1 = 0.1$&nbsp; und&nbsp; $p_4 = 0.4$&nbsp; das Maximum für&nbsp; $p_2 = p_3 = 0.25$:
 
+
:$$H_{\rm c}(X) =  
$$H_{\rm c}(X) =  
 
 
0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} +
 
0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} +
 
2 \cdot 0.25 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.25} +
 
2 \cdot 0.25 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.25} +
 
0.4 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.4}  
 
0.4 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.4}  
\hspace{0.15cm} \underline {= 1.861}  \hspace{0.05cm}$$.
+
\hspace{0.15cm} \underline {= 1.861}  \hspace{0.05cm}.$$
  
  
'''4.''' Die maximale Entropie für den Symbolumfang $M=4$ ergibt sich bei gleichen Wahrscheinlichkeiten ( $p_1 = p_2 = p_3 = p_4 = 0.25$):
 
  
$$H_{\rm max}(X) =  
+
'''(4)'''&nbsp; Die maximale Entropie für den Symbolumfang&nbsp; $M=4$&nbsp; ergibt sich bei gleichen Wahrscheinlichkeiten, also für&nbsp; $p_1 = p_2 = p_3 = p_4 = 0.25$:
 +
:$$H_{\rm max}(X) =  
 
{\rm log}_2 \hspace{0.1cm} M  
 
{\rm log}_2 \hspace{0.1cm} M  
\hspace{0.15cm} \underline {= 2}  \hspace{0.05cm}$$.
+
\hspace{0.15cm} \underline {= 2}  \hspace{0.05cm}.$$
 
 
Die Differenz der Entropien entsprechend (d) und (c) ergibt $\triangle H(X) = 0.139 bit$.  Hierbei gilt:
 
  
$$\Delta H(X) = 1-
+
*Die Differenz der Entropien entsprechend&nbsp; '''(4)'''&nbsp; und&nbsp; '''(3)'''&nbsp; ergibt&nbsp; ${\rm \Delta} H(X) = 0.139 \ \rm bit$.&nbsp;  Hierbei gilt:
 +
:$${\rm \DeltaH(X) = 1-
 
0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} -
 
0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} -
 
0.4 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.4}  
 
0.4 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.4}  
  \hspace{0.05cm}$$.
+
  \hspace{0.05cm}.$$
  
Mit der binären Entropiefunktion  
+
*Mit der binären Entropiefunktion  
  
$$H_{\rm bin}(p) =  
+
:$$H_{\rm bin}(p) =  
 
p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} +
 
p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} +
 
(1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}$$
 
(1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}$$
  
lässt sich hierfür auch schreiben:
+
:lässt sich hierfür auch schreiben:
  
$$\Delta H(X) = 0.5 \cdot \left [ 1- H_{\rm bin}(0.2) \right ] =
+
:$${\rm \Delta} H(X) = 0.5 \cdot \big [ 1- H_{\rm bin}(0.2) \big ] =
  0.5 \cdot \left [ 1- 0.722 \right ] = 0.139  
+
  0.5 \cdot \big [ 1- 0.722 \big ] = 0.139  
  \hspace{0.05cm}$$.
+
  \hspace{0.05cm}.$$
  
  
Zeile 126: Zeile 124:
  
  
[[Category:Aufgaben zu Informationstheorie|^3.1 Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen^]]
+
[[Category:Aufgaben zu Informationstheorie|^3.1 Allgemeines zu 2D-Zufallsgrößen^]]

Aktuelle Version vom 31. August 2021, 10:54 Uhr

Wahrscheinlichkeitsfunktionen, jeweils mit  $M = 4$  Elementen

In der ersten Zeile der nebenstehenden Tabelle ist die im Folgenden die mit  $\rm (a)$  bezeichnete Wahrscheinlichkeitsfunktion angegeben. Für diese PMF  $P_X(X) = \big [0.1, \ 0.2, \ 0.3, \ 0.4 \big ]$  soll in der Teilaufgabe  (1)  die Entropie berechnet werden:

$$H_{\rm a}(X) = {\rm E} \big [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{X}(X)}\big ]= - {\rm E} \big [ {\rm log}_2 \hspace{0.1cm}{P_{X}(X)}\big ].$$

Da hier der Logarithmus zur Basis  $2$  verwendet wird, ist die Pseudo–Einheit „bit” anzufügen.

In den weiteren Aufgaben sollen jeweils einige Wahrscheinlichkeiten variiert werden und zwar derart, dass sich jeweils die größtmögliche Entropie ergibt:

  • Durch geeignete Variation von  $p_3$  und  $p_4$  kommt man zur maximalen Entropie  $H_{\rm b}(X)$  unter der Voraussetzung  $p_1 = 0.1$  und  $p_2 = 0.2$   ⇒   Teilaufgabe  (2).
  • Durch geeignete Variation von  $p_2$  und  $p_3$ kommt man zur maximalen Entropie  $H_{\rm c}(X)$  unter der Voraussetzung  $p_1 = 0.1$  und  $p_4 = 0.4$   ⇒   Teilaufgabe  (3).
  • In der Teilaufgabe  (4)  sind alle vier Parameter zur Variation freigegeben, die entsprechend der maximalen Entropie   ⇒   $H_{\rm max}(X)$  zu bestimmen sind.





Hinweise:


Fragebogen

1

Zu welcher Entropie führt die Wahrscheinlichkeitsfunktion  $P_X(X) = \big [ 0.1, \ 0.2, \ 0.3, \ 0.4 \big ]$ ?

$H_{\rm a}(X) \ = \ $

$\ \rm bit$

2

Es gelte nun allgemein  $P_X(X) = \big [ 0.1, \ 0.2, \ p_3, \ p_4\big ]$.  Welche Entropie erhält man, wenn  $p_3$  und  $p_4$  bestmöglich gewählt werden?

$H_{\rm b}(X) \ = \ $

$\ \rm bit$

3

Nun gelte  $P_X(X) = \big [ 0.1, \ p_2, \ p_3, \ 0.4 \big ]$.  Welche Entropie erhält man, wenn  $p_2$  und  $p_3$  bestmöglich gewählt werden?

$H_{\rm c}(X) \ = \ $

$\ \rm bit$

4

Welche Entropie erhält man, wenn alle Wahrscheinlichkeiten  $(p_1, \ p_2 , \ p_3, \ p_4)$  bestmöglich gewählt werden?

$H_{\rm max}(X) \ = \ $

$\ \rm bit$


Musterlösung

(1)  Mit  $P_X(X) = \big [ 0.1, \ 0.2, \ 0.3, \ 0.4 \big ]$  erhält man für die Entropie:

$$H_{\rm a}(X) = 0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} + 0.2 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.2} + 0.3 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.3} + 0.4 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.4} \hspace{0.15cm} \underline {= 1.846} \hspace{0.05cm}.$$

Hier (und bei den anderen Aufgaben) ist jeweils die Pseudo–Einheit „bit” anzufügen.


(2)  Die Entropie  $H_{\rm b}(X)$  lässt sich als Summe zweier Anteile  $H_{\rm b1}(X)$  und  $H_{\rm b2}(X)$  darstellen, mit:

$$H_{\rm b1}(X) = 0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} + 0.2 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.2} = 0.797 \hspace{0.05cm},$$
$$H_{\rm b2}(X) = p_3 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p_3} + (0.7-p_3) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.7-p_3} \hspace{0.05cm}.$$
  • Die zweite Funktion ist maximal für  $p_3 = p_4 = 0.35$.  Ein ähnlicher Zusammenhang hat sich bei der binären Entropiefunktion ergeben. 
  • Damit erhält man:
$$H_{\rm b2}(X) = 2 \cdot p_3 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p_3} = 0.7 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.35} = 1.060 $$
$$ \Rightarrow \hspace{0.3cm} H_{\rm b}(X) = H_{\rm b1}(X) + H_{\rm b2}(X) = 0.797 + 1.060 \hspace{0.15cm} \underline {= 1.857} \hspace{0.05cm}.$$


(3)  Analog zur Teilaufgabe  (2)  ergibt sich mit  $p_1 = 0.1$  und  $p_4 = 0.4$  das Maximum für  $p_2 = p_3 = 0.25$:

$$H_{\rm c}(X) = 0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} + 2 \cdot 0.25 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.25} + 0.4 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.4} \hspace{0.15cm} \underline {= 1.861} \hspace{0.05cm}.$$


(4)  Die maximale Entropie für den Symbolumfang  $M=4$  ergibt sich bei gleichen Wahrscheinlichkeiten, also für  $p_1 = p_2 = p_3 = p_4 = 0.25$:

$$H_{\rm max}(X) = {\rm log}_2 \hspace{0.1cm} M \hspace{0.15cm} \underline {= 2} \hspace{0.05cm}.$$
  • Die Differenz der Entropien entsprechend  (4)  und  (3)  ergibt  ${\rm \Delta} H(X) = 0.139 \ \rm bit$.  Hierbei gilt:
$${\rm \Delta} H(X) = 1- 0.1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.1} - 0.4 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.4} \hspace{0.05cm}.$$
  • Mit der binären Entropiefunktion
$$H_{\rm bin}(p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}$$
lässt sich hierfür auch schreiben:
$${\rm \Delta} H(X) = 0.5 \cdot \big [ 1- H_{\rm bin}(0.2) \big ] = 0.5 \cdot \big [ 1- 0.722 \big ] = 0.139 \hspace{0.05cm}.$$