Aktuell bemerke ich, dass immer öfter 5G- anstelle von LTE-Verbindungen angezeigt werden. Grundsätzlich ist das eine zu begrüßende Entwicklung.
Schaut man sich den damit einhergehenden Effekt / Nutzen etwas näher an, stellt sich erstmal Ernüchterung ein: Oftmals ist kein Gewinn bei den Werten bzgl. Download-/Upload-Geschwindigkeiten und bei der Ping-Zeit ist zu verzeichnen.
Ich stelle mal die Frage in den Raum, ob hier lediglich eine zusätzliche Frequenz „freigeschaltet“ wird (ggf. um Auflagen zum 5G-Ausbau zu erfüllen) oder ob sich im Hintergrund auch etwas tut?
Konkretes Beispiel:
Eine Basisstation auf dem Hohen Meißner in Nordhessen. Lange Zeit mit GSM900 ausgestattet, folgte LTE auf 900 MHz und nun 5G. Der Ping beträgt bei LTE und 5G jeweils um die 40 ms. Wenn die Zelle nahezu ungenutzt ist, sind um die 40 MBit/s im Download möglich, bei mittelmäßiger Auslastung um die 10 MBit/s und wenn viele es nutzen (z. B. Bundesliga-Stream), kommen noch ca. 4 MBit/s an - egal ob mit LTE oder 5G. Das dann mit 5G bei vollem Ausschlag gemessen ist ja eher UMTS-Geschwindigkeit.
So macht das doch keinen Sinn, mit einer zusätzlichen Frequenz zu senden (mehr Strahlung ohne Zusatznutzen) - oder sehe ich das falsch?
Gibt es (k)einen Mindeststandard für die Anbindung einer Basisstation, wenn diese 5G-Frequenzen zur Verfügung stellt?