Difference between revisions of "LNTwww:Glossary"
From LNTwww
Line 1: | Line 1: | ||
This page is currently being created. Sorry! | This page is currently being created. Sorry! | ||
# $ \langle q_\mu \rangle$ ⇒ Quellensymbolvorrat ⇒ source symbol set | # $ \langle q_\mu \rangle$ ⇒ Quellensymbolvorrat ⇒ source symbol set | ||
− | # $ \langle v_\mu \rangle$ ⇒ | + | # $ \langle v_\mu \rangle$ ⇒ Sinkensymbolvorrat ⇒ sink symbol set |
− | # $ \{ q_\nu \}$ ⇒ Quellensymbolfolge ⇒ source symbol set | + | # $ \{ q_\nu \}$ ⇒ Quellensymbolfolge ⇒ source symbol sequence |
+ | # $ \{ v_\nu \}$ ⇒ Sinkensymbolfolge ⇒ sink symbol sequence | ||
+ | # $ M$ ⇒ (1) Symbolumfang, (2) Stufenzahl ⇒ (1) symbol set size, (2) level number | ||
+ | # $P_X(X)$ ⇒ Wahrscheinlichkeitsfunktion der ZG $X$ ⇒ probability mass function $\rm (PMF)$ of RV $X$ | ||
+ | # $P_{\hspace{0.01cm}Y\hspace{0.03cm} \vert \hspace{0.01cm}X}(Y\hspace{0.03cm} \vert \hspace{0.03cm} X)$ ⇒ Übergangswahrscheinlichkeitsmatrix der ZG $X$ ⇒ transition probabilitiy matrix of RV $X$ | ||
+ | # $H(X)$ ⇒ Quellenentropie ⇒ source entropy | ||
+ | # $H(Y)$ ⇒ Sinkenentropie ⇒ sink entropy | ||
+ | # $H(X|Y)$ ⇒ Äquivokation ⇒ equivocation | ||
+ | # $H(Y|X)$ ⇒ Irrelevanz ⇒ irrelevance | ||
+ | # $H(XY)$ ⇒ Verbundentropie ⇒ joint entropy | ||
+ | # $I(X; Y)$ ⇒ Transinformation ⇒ mutual information | ||
+ | # $C$ ⇒ Kanalkapazität ⇒ channel capacity | ||
+ | # $C_{\rm A}$ ⇒ Kanalkapazität bei Amplitudenbegrenzung ⇒ channel capacity ??? | ||
+ | # $C_{\rm L}$ ⇒ Kanalkapazität bei Leistungsbegrenzung ⇒ channel capacity ?? | ||
+ | # $P_{\hspace{0.01cm}Y\hspace{0.03cm} \vert \hspace{0.01cm}X}(Y\hspace{0.03cm} \vert \hspace{0.03cm} X)$ ⇒ Matrix bedingter Wahrscheinlichkeiten ⇒ conditional probability matrix | ||
+ | # $P_{XY}(X,\hspace{0.1cm}Y)$ ⇒ Verbundwahrscheinlichkeitsmatrix ⇒ joint probability matrix | ||
+ | # $P_{\hspace{0.01cm}X\hspace{0.03cm} \vert \hspace{0.03cm}Y}(X\hspace{0.03cm} \vert \hspace{0.03cm} Y)$ ⇒ Rückschlusswahrscheinlichkeitsmatrix ⇒ inference probability matrix | ||
+ | # $p_{\rm b\hspace{0.03cm}\vert \hspace{0.03cm}A} = {\rm Pr}(Y\hspace{-0.1cm} = {\rm b}\hspace{0.05cm}\vert X \hspace{-0.1cm}= {\rm A}) $ ⇒ Verfälschungswahrscheinlichkeit ⇒ falsification probability | ||
+ | # $p_{\rm B\hspace{0.03cm}\vert \hspace{0.03cm}a} = {\rm Pr}(X\hspace{-0.1cm} = {\rm B}\hspace{0.05cm}\vert y \hspace{-0.1cm}= {\rm a}) $ ⇒ Verfälschungswahrscheinlichkeit ⇒ inference probability | ||
+ | |||
Revision as of 12:54, 1 March 2023
This page is currently being created. Sorry!
- $ \langle q_\mu \rangle$ ⇒ Quellensymbolvorrat ⇒ source symbol set
- $ \langle v_\mu \rangle$ ⇒ Sinkensymbolvorrat ⇒ sink symbol set
- $ \{ q_\nu \}$ ⇒ Quellensymbolfolge ⇒ source symbol sequence
- $ \{ v_\nu \}$ ⇒ Sinkensymbolfolge ⇒ sink symbol sequence
- $ M$ ⇒ (1) Symbolumfang, (2) Stufenzahl ⇒ (1) symbol set size, (2) level number
- $P_X(X)$ ⇒ Wahrscheinlichkeitsfunktion der ZG $X$ ⇒ probability mass function $\rm (PMF)$ of RV $X$
- $P_{\hspace{0.01cm}Y\hspace{0.03cm} \vert \hspace{0.01cm}X}(Y\hspace{0.03cm} \vert \hspace{0.03cm} X)$ ⇒ Übergangswahrscheinlichkeitsmatrix der ZG $X$ ⇒ transition probabilitiy matrix of RV $X$
- $H(X)$ ⇒ Quellenentropie ⇒ source entropy
- $H(Y)$ ⇒ Sinkenentropie ⇒ sink entropy
- $H(X|Y)$ ⇒ Äquivokation ⇒ equivocation
- $H(Y|X)$ ⇒ Irrelevanz ⇒ irrelevance
- $H(XY)$ ⇒ Verbundentropie ⇒ joint entropy
- $I(X; Y)$ ⇒ Transinformation ⇒ mutual information
- $C$ ⇒ Kanalkapazität ⇒ channel capacity
- $C_{\rm A}$ ⇒ Kanalkapazität bei Amplitudenbegrenzung ⇒ channel capacity ???
- $C_{\rm L}$ ⇒ Kanalkapazität bei Leistungsbegrenzung ⇒ channel capacity ??
- $P_{\hspace{0.01cm}Y\hspace{0.03cm} \vert \hspace{0.01cm}X}(Y\hspace{0.03cm} \vert \hspace{0.03cm} X)$ ⇒ Matrix bedingter Wahrscheinlichkeiten ⇒ conditional probability matrix
- $P_{XY}(X,\hspace{0.1cm}Y)$ ⇒ Verbundwahrscheinlichkeitsmatrix ⇒ joint probability matrix
- $P_{\hspace{0.01cm}X\hspace{0.03cm} \vert \hspace{0.03cm}Y}(X\hspace{0.03cm} \vert \hspace{0.03cm} Y)$ ⇒ Rückschlusswahrscheinlichkeitsmatrix ⇒ inference probability matrix
- $p_{\rm b\hspace{0.03cm}\vert \hspace{0.03cm}A} = {\rm Pr}(Y\hspace{-0.1cm} = {\rm b}\hspace{0.05cm}\vert X \hspace{-0.1cm}= {\rm A}) $ ⇒ Verfälschungswahrscheinlichkeit ⇒ falsification probability
- $p_{\rm B\hspace{0.03cm}\vert \hspace{0.03cm}a} = {\rm Pr}(X\hspace{-0.1cm} = {\rm B}\hspace{0.05cm}\vert y \hspace{-0.1cm}= {\rm a}) $ ⇒ Verfälschungswahrscheinlichkeit ⇒ inference probability
Contents
A, a, ...
- $c(t)$ ⇒ Codersignal ⇒ encoded signal
$〈q_ν〉$
F, f
- $f$ ⇒ Frequenz ⇒ frequency
- $f_{\rm G}$ ⇒ Grenzfrequenz ⇒ cutoff frequency
- $f_{\rm Nyq}$ ⇒ Nyquistfrequenz ⇒ Nyquist frequency
- $f_{\rm T}$ ⇒ Trägerfrequenz ⇒ carrier frequency
- $f_{x}(x)$ ⇒ Wahrscheinlichkeitsdichtefunktion $\rm (WDF)$ von $x(t)$ ⇒ probability density function $\rm (PDF)$ of $x(t)$
G, g
- $G_s(f)$ ⇒ Sendegrundimpulsspektrum ⇒ ???
- $g_d(t)$ ⇒ Detektionsgrundimpuls ⇒ basic detection pulse
- $g_r(t)$ ⇒ Empfangssgrundimpuls ⇒ basic receiver pulse
- $g_s(t)$ ⇒ Sendegrundimpuls ⇒ basic transmission pulse
H, h
- $H(f)$ ⇒ Frequenzgang, Übertragungsfunktion ⇒ frequency response, transfer function
- $|H(f)|$ ⇒ Betragsfrequenzgang ⇒ magnitude frequency response
- $H_{\rm E}(f)$ ⇒ Empfängerfrequenzgang ⇒ receiver frequency response
- $H_{\rm K}(f)$ ⇒ Kanalfrequenzgang ⇒ channel frequency response
- $H_{\rm S}(f)$ ⇒ Senderfrequenzgang ⇒ transmitter frequency response
- $h(t)$ ⇒ Impulsantwort ⇒ impulse response
I, i, ...
- $i(t)$ ⇒ Stromverlauf ⇒ current curve
M, m, ...
Q, q, ...
- $ \langle q_\mu \rangle$ ⇒ Menge der möglichen Quellensymbole ⇒ set of possible source symbols
- $q(t)$ ⇒ Quellensignal ⇒ source signal, data signal
- $r(t)$ ⇒ Empfangssignal ⇒ received signal
- $s(t)$ ⇒ Sendesignal ⇒ transmitted signal
U, u, ...
- $u(t)$ ⇒ Spannungsverlauf ⇒ voltage curve
X, x, ...
- $x(t)$ ⇒ Eingangssignal ⇒ input signal
- $y(t)$ ⇒ Ausgangssignal ⇒ output signal
\alpha, \beta
- $\delta(t)$ ⇒ Diracfunktion, Diracimpuls ⇒ Dirac delta function, Dirac delta impulse