Heutzutage will man alles digital haben. Das vereinfacht die Verarbeitung, die Übertragung, die Kompression und Speicherung, digital ist einfach toll. Für die Öffentlichkeit angefangen hat es wohl so richtig damals in den 80er Jahren mit der Audio CD. Als interessierter Anwender wusste man, dass die Information darauf mit 16 Bit gespeichert wird. Das reicht theoretisch für 20*log10 216 = 96dB Dynamik, ein phantastischer Wert.

Und die Information wird mit gut 40kHz abgetastet. Warum nun mit 40kHz? Das ist doppelt so viel wie man für HiFi benötigt. Selbst diese 20kHz hören nur die wenigsten erwachsenen Menschen, also eigentlich genug. Warum also nun gerade doppelt so viel?

AbtasttheoremDas ist kein Zufall. Betrachtet man nur die einzelnen Abtastpunkte wenn man z.B. einen Ton von 20kHz nur mit nur 30kHz abtastet, so ergibt die naheliegende Kurve durch die Abtastpunkte eben nicht 20KHz sondern eine viel niedrigere Frequenz. Dazu verfolgt man in der Grafik die Kurve mit der höchsten Frequenz (grün) und betrachtet immer die Punkte mit dem ansteigenden Nulldurchgang. Es ergibt sich die Kurve mit der niedrigsten Frequenz (blau). Das bedeutet die Digitalisierung entspricht nicht mehr dem ursprünglichen Signal (lila). Die Theorie dahinter nennt man Abtasttheorem.

Natürlich könnte man auch die „richtige“ höhere Frequenz durch die Abtastpunkte legen. Aber der entscheidende Punkt ist, dass es nicht eindeutig ist. Und da man umgekehrt beim „Abspielen“ der digitalen Daten, also nach dem D/A-Wandler, einen Tiefpass braucht um die Abstufungen zu glätten, wird die niedrigste Möglichkeit „gewinnen“. Anders herum gesagt: Die lila und die blaue Kurve hätten die gleiche Abtastung und könnten hinterher nicht mehr unterschieden werden.

Man könnte auch vermuten, dass diese Artefakte nur bei bestimmten Frequenzen passieren. Wer mag kann auch andere Frequenzverhältnisse und Phasenlagen mit Gnuplot oder von Hand durchprobieren. Es wird immer funktionieren wenn die Abtastfrequenz mehr als doppelt so hoch ist wie die Signalfrequenz und es wird immer diese Artefakte geben, wenn sie zu niedrig ist.

Was bedeutet das nun in der Technik? Jeder Signalanteil, dessen Frequenz höher ist als die halbe Abtastfrequenz wird uns Störungen, so genannte Artefakte, in die digitalisierten Daten einbringen. Das kann die Daten völlig unbrauchbar machen. Man muss also verhindern, dass zu hohe Frequenzanteile digitalisiert werden. Das macht man naheliegender Weise mit einem Tiefpassfilter.

Das gilt für jede Digitalisierung. Wenn also z.B. ein einfaches SDR für Kurzwelle keine sinnvollen Signale liefert, könnte es genau daran liegen dass ein UKW-Sender am Eingang des A/D-Wandlers anliegt.

Zu jeder Digitalisierung gehört ein Tiefpassfilter mit der halben Abtastfrequenz.

Ergänzend kann man noch dazu sagen, dass das alles unter der Annahme gilt, dass man alle Frequenzen ab 0 digitalisieren möchte. Verallgemeinernd stimmt genauer, dass die Abtastfrequenz doppelt so hoch sein muss wie die zu digitalisierende Bandbreite. Man könnte also z.B. das 2m-Band mit 4MHz digitalisieren, wenn man sicherstellt, dass auch wirklich nur das 2m-Band auf den Eingang kommt. Anschaulich wird das klar wenn man sich überlegt, dass es vom Informationsgehalt her keinen Unterschied macht, wenn man das 2m-Band zuerst um 144MHz heruntermischt.

Hier noch ein Beispiel für GnuPlot zum selber ausprobieren:

plot sin(2.3*x+.5), -sin(.7*x-.5), 0.5*sin(3*x)


DD3AH

Der Mathematiker unter den Funkamateuren