Difference between revisions of "LNTwww:Glossary"
From LNTwww
Line 1: | Line 1: | ||
− | This page is currently being created. Sorry! | + | ==This page is currently being created. Sorry!== |
− | + | ||
− | + | ||
− | + | ||
− | + | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
Line 27: | Line 10: | ||
=== A, a, ... === | === A, a, ... === | ||
# $c(t)$ ⇒ Codersignal ⇒ encoded signal | # $c(t)$ ⇒ Codersignal ⇒ encoded signal | ||
+ | # $C$ ⇒ Kanalkapazität ⇒ channel capacity | ||
+ | # $C_{\rm A}$ ⇒ Kanalkapazität bei Amplitudenbegrenzung ⇒ channel capacity ??? | ||
+ | # $C_{\rm L}$ ⇒ Kanalkapazität bei Leistungsbegrenzung ⇒ channel capacity ?? | ||
− | |||
=== F, f === | === F, f === | ||
# $f$ ⇒ Frequenz ⇒ frequency | # $f$ ⇒ Frequenz ⇒ frequency | ||
Line 35: | Line 20: | ||
# $f_{\rm T}$ ⇒ Trägerfrequenz ⇒ carrier frequency | # $f_{\rm T}$ ⇒ Trägerfrequenz ⇒ carrier frequency | ||
# $f_{x}(x)$ ⇒ Wahrscheinlichkeitsdichtefunktion $\rm (WDF)$ von $x(t)$ ⇒ probability density function $\rm (PDF)$ of $x(t)$ | # $f_{x}(x)$ ⇒ Wahrscheinlichkeitsdichtefunktion $\rm (WDF)$ von $x(t)$ ⇒ probability density function $\rm (PDF)$ of $x(t)$ | ||
− | |||
Line 46: | Line 30: | ||
=== H, h === | === H, h === | ||
+ | # $H(X)$ ⇒ Quellenentropie ⇒ source entropy | ||
+ | # $H(Y)$ ⇒ Sinkenentropie ⇒ sink entropy | ||
+ | # $H(X|Y)$ ⇒ Äquivokation ⇒ equivocation | ||
+ | # $H(Y|X)$ ⇒ Irrelevanz ⇒ irrelevance | ||
+ | # $H(XY)$ ⇒ Verbundentropie ⇒ joint entropy | ||
# $H(f)$ ⇒ Frequenzgang, Übertragungsfunktion ⇒ frequency response, transfer function | # $H(f)$ ⇒ Frequenzgang, Übertragungsfunktion ⇒ frequency response, transfer function | ||
# $|H(f)|$ ⇒ Betragsfrequenzgang ⇒ magnitude frequency response | # $|H(f)|$ ⇒ Betragsfrequenzgang ⇒ magnitude frequency response | ||
Line 55: | Line 44: | ||
=== I, i, ... === | === I, i, ... === | ||
# $i(t)$ ⇒ Stromverlauf ⇒ current curve | # $i(t)$ ⇒ Stromverlauf ⇒ current curve | ||
+ | # $I(X; Y)$ ⇒ Transinformation ⇒ mutual information | ||
+ | |||
=== M, m, ... === | === M, m, ... === | ||
+ | # $ M$ ⇒ (1) Symbolumfang, (2) Stufenzahl ⇒ (1) symbol set size, (2) level number | ||
+ | # $P_{\hspace{0.01cm}Y\hspace{0.03cm} \vert \hspace{0.01cm}X}(Y\hspace{0.03cm} \vert \hspace{0.03cm} X)$ ⇒ Matrix bedingter Wahrscheinlichkeiten ⇒ conditional probability matrix | ||
+ | # $P_{XY}(X,\hspace{0.1cm}Y)$ ⇒ Verbundwahrscheinlichkeitsmatrix ⇒ joint probability matrix | ||
+ | # $P_{\hspace{0.01cm}X\hspace{0.03cm} \vert \hspace{0.03cm}Y}(X\hspace{0.03cm} \vert \hspace{0.03cm} Y)$ ⇒ Rückschlusswahrscheinlichkeitsmatrix ⇒ inference probability matrix | ||
+ | # $p_{\rm b\hspace{0.03cm}\vert \hspace{0.03cm}A} = {\rm Pr}(Y\hspace{-0.1cm} = {\rm b}\hspace{0.05cm}\vert X \hspace{-0.1cm}= {\rm A}) $ ⇒ Verfälschungswahrscheinlichkeit ⇒ falsification probability | ||
+ | # $p_{\rm B\hspace{0.03cm}\vert \hspace{0.03cm}a} = {\rm Pr}(X\hspace{-0.1cm} = {\rm B}\hspace{0.05cm}\vert y \hspace{-0.1cm}= {\rm a}) $ ⇒ Verfälschungswahrscheinlichkeit ⇒ inference probability | ||
+ | # $P_X(X)$ ⇒ Wahrscheinlichkeitsfunktion der ZG $X$ ⇒ probability mass function $\rm (PMF)$ of RV $X$ | ||
+ | # $P_{\hspace{0.01cm}Y\hspace{0.03cm} \vert \hspace{0.01cm}X}(Y\hspace{0.03cm} \vert \hspace{0.03cm} X)$ ⇒ Übergangswahrscheinlichkeitsmatrix der ZG $X$ ⇒ transition probabilitiy matrix of RV $X$ | ||
=== Q, q, ... === | === Q, q, ... === | ||
− | |||
# $q(t)$ ⇒ Quellensignal ⇒ source signal, data signal | # $q(t)$ ⇒ Quellensignal ⇒ source signal, data signal | ||
# $r(t)$ ⇒ Empfangssignal ⇒ received signal | # $r(t)$ ⇒ Empfangssignal ⇒ received signal | ||
# $s(t)$ ⇒ Sendesignal ⇒ transmitted signal | # $s(t)$ ⇒ Sendesignal ⇒ transmitted signal | ||
+ | # $ \langle q_\mu \rangle$ ⇒ Quellensymbolvorrat ⇒ source symbol set | ||
+ | # $ \{ q_\nu \}$ ⇒ Quellensymbolfolge ⇒ source symbol sequence | ||
+ | |||
+ | |||
=== U, u, ... === | === U, u, ... === | ||
# $u(t)$ ⇒ Spannungsverlauf ⇒ voltage curve | # $u(t)$ ⇒ Spannungsverlauf ⇒ voltage curve | ||
− | + | # $ \{ v_\nu \}$ ⇒ Sinkensymbolfolge ⇒ sink symbol sequence | |
+ | # $ \langle v_\mu \rangle$ ⇒ Sinkensymbolvorrat ⇒ sink symbol set | ||
=== X, x, ... === | === X, x, ... === | ||
# $x(t)$ ⇒ Eingangssignal ⇒ input signal | # $x(t)$ ⇒ Eingangssignal ⇒ input signal |
Revision as of 18:01, 1 March 2023
Contents
This page is currently being created. Sorry!
A, a, ...
- $c(t)$ ⇒ Codersignal ⇒ encoded signal
- $C$ ⇒ Kanalkapazität ⇒ channel capacity
- $C_{\rm A}$ ⇒ Kanalkapazität bei Amplitudenbegrenzung ⇒ channel capacity ???
- $C_{\rm L}$ ⇒ Kanalkapazität bei Leistungsbegrenzung ⇒ channel capacity ??
F, f
- $f$ ⇒ Frequenz ⇒ frequency
- $f_{\rm G}$ ⇒ Grenzfrequenz ⇒ cutoff frequency
- $f_{\rm Nyq}$ ⇒ Nyquistfrequenz ⇒ Nyquist frequency
- $f_{\rm T}$ ⇒ Trägerfrequenz ⇒ carrier frequency
- $f_{x}(x)$ ⇒ Wahrscheinlichkeitsdichtefunktion $\rm (WDF)$ von $x(t)$ ⇒ probability density function $\rm (PDF)$ of $x(t)$
G, g
- $G_s(f)$ ⇒ Sendegrundimpulsspektrum ⇒ ???
- $g_d(t)$ ⇒ Detektionsgrundimpuls ⇒ basic detection pulse
- $g_r(t)$ ⇒ Empfangssgrundimpuls ⇒ basic receiver pulse
- $g_s(t)$ ⇒ Sendegrundimpuls ⇒ basic transmission pulse
H, h
- $H(X)$ ⇒ Quellenentropie ⇒ source entropy
- $H(Y)$ ⇒ Sinkenentropie ⇒ sink entropy
- $H(X|Y)$ ⇒ Äquivokation ⇒ equivocation
- $H(Y|X)$ ⇒ Irrelevanz ⇒ irrelevance
- $H(XY)$ ⇒ Verbundentropie ⇒ joint entropy
- $H(f)$ ⇒ Frequenzgang, Übertragungsfunktion ⇒ frequency response, transfer function
- $|H(f)|$ ⇒ Betragsfrequenzgang ⇒ magnitude frequency response
- $H_{\rm E}(f)$ ⇒ Empfängerfrequenzgang ⇒ receiver frequency response
- $H_{\rm K}(f)$ ⇒ Kanalfrequenzgang ⇒ channel frequency response
- $H_{\rm S}(f)$ ⇒ Senderfrequenzgang ⇒ transmitter frequency response
- $h(t)$ ⇒ Impulsantwort ⇒ impulse response
I, i, ...
- $i(t)$ ⇒ Stromverlauf ⇒ current curve
- $I(X; Y)$ ⇒ Transinformation ⇒ mutual information
M, m, ...
- $ M$ ⇒ (1) Symbolumfang, (2) Stufenzahl ⇒ (1) symbol set size, (2) level number
- $P_{\hspace{0.01cm}Y\hspace{0.03cm} \vert \hspace{0.01cm}X}(Y\hspace{0.03cm} \vert \hspace{0.03cm} X)$ ⇒ Matrix bedingter Wahrscheinlichkeiten ⇒ conditional probability matrix
- $P_{XY}(X,\hspace{0.1cm}Y)$ ⇒ Verbundwahrscheinlichkeitsmatrix ⇒ joint probability matrix
- $P_{\hspace{0.01cm}X\hspace{0.03cm} \vert \hspace{0.03cm}Y}(X\hspace{0.03cm} \vert \hspace{0.03cm} Y)$ ⇒ Rückschlusswahrscheinlichkeitsmatrix ⇒ inference probability matrix
- $p_{\rm b\hspace{0.03cm}\vert \hspace{0.03cm}A} = {\rm Pr}(Y\hspace{-0.1cm} = {\rm b}\hspace{0.05cm}\vert X \hspace{-0.1cm}= {\rm A}) $ ⇒ Verfälschungswahrscheinlichkeit ⇒ falsification probability
- $p_{\rm B\hspace{0.03cm}\vert \hspace{0.03cm}a} = {\rm Pr}(X\hspace{-0.1cm} = {\rm B}\hspace{0.05cm}\vert y \hspace{-0.1cm}= {\rm a}) $ ⇒ Verfälschungswahrscheinlichkeit ⇒ inference probability
- $P_X(X)$ ⇒ Wahrscheinlichkeitsfunktion der ZG $X$ ⇒ probability mass function $\rm (PMF)$ of RV $X$
- $P_{\hspace{0.01cm}Y\hspace{0.03cm} \vert \hspace{0.01cm}X}(Y\hspace{0.03cm} \vert \hspace{0.03cm} X)$ ⇒ Übergangswahrscheinlichkeitsmatrix der ZG $X$ ⇒ transition probabilitiy matrix of RV $X$
Q, q, ...
- $q(t)$ ⇒ Quellensignal ⇒ source signal, data signal
- $r(t)$ ⇒ Empfangssignal ⇒ received signal
- $s(t)$ ⇒ Sendesignal ⇒ transmitted signal
- $ \langle q_\mu \rangle$ ⇒ Quellensymbolvorrat ⇒ source symbol set
- $ \{ q_\nu \}$ ⇒ Quellensymbolfolge ⇒ source symbol sequence
U, u, ...
- $u(t)$ ⇒ Spannungsverlauf ⇒ voltage curve
- $ \{ v_\nu \}$ ⇒ Sinkensymbolfolge ⇒ sink symbol sequence
- $ \langle v_\mu \rangle$ ⇒ Sinkensymbolvorrat ⇒ sink symbol set
X, x, ...
- $x(t)$ ⇒ Eingangssignal ⇒ input signal
- $y(t)$ ⇒ Ausgangssignal ⇒ output signal
\alpha, \beta
- $\delta(t)$ ⇒ Diracfunktion, Diracimpuls ⇒ Dirac delta function, Dirac delta impulse