Durante años hay dos constantes sobre las que el usuario se ha quejado o ha apreciado en la red. Una es la velocidad, la más fácil de ver, tanto por su ausencia como si las expectativas están colmadas. La otra, un poco más invisible, es la latencia. Para cierto tipo de usuarios, como los aficionados a videojuegos online siempre ha sido un factor crítico. Otros solo lo notan en ciertas aplicaciones, como una videollamada.
Y en estos dos factores se ha trabajado durante años. En el caso de la velocidad, para aumentarla, y en el de la latencia, en sentido contrario, para disminuirla. Los efectos han sido notorios, sobre todo si se echa la vista atrás. Aunque el retraso de la señal sea un aspecto menos visible que la rapidez de la conexión, la mejora se ve de manera cristalina con las cifras.
La reducción drástica de la latencia
Si nos remontamos a los primeros móviles —aún quedaba tiempo para los smartphones y solo hablábamos de llamadas todavía— la comparación con los tiempos actuales resulta casi inverosímil. “Desde 2G, el GSM-GPRS que teníamos a final de los 90, la latencia se ha reducido en un factor de casi 1000 veces”, destaca José Antonio Portilla, catedrático de la Universidad de Alcalá en el Departamento de Teoría de la Señal y Comunicaciones, portavoz del COIT (Colegio Oficial de Ingenieros de Telecomunicación) y director del Observatorio UAH-ISDEFE en TIC y Avance Digital. Se trata de un progreso significativo a la hora de reducir la latencia que se ha dado en poco más de dos décadas.
Portilla hace un repaso de las latencias que exhibía cada generación de red y cómo se ha reducido a lo largo del tiempo: “En 2G-GSM/GPRS nos movíamos en latencias entre 500 ms (milisegundos) y 1 segundo, en 3G-UMTS estábamos alrededor de 100 -300 ms, en 4G -LTE entre 10ms y 100 ms y, finalmente, en 5G podríamos llegar hasta 1 ms”.
Para lograr reducir la latencia que sufre la señal al viajar de un punto A a un punto B se han llevado a cabo toda una serie de innovaciones técnicas. El perfeccionamiento de las redes ha sido una cuestión de tiempo, de esfuerzo, inversión e I+D. Pero para entender cómo se ha rebajado este factor con los nuevos avances primero hay que comprender cuál es el origen de la latencia.
Por qué se produce la latencia
Sin duda es fácil entender que el trayecto que recorre una señal en llegar de un punto a otro requiere de un tiempo. Por mucho que se hable de canales ultrarrápidos, como puede ser la luz (en la infraestructura de cableado) o las ondas electromagnéticas (en el caso de las comunicaciones inalámbricas), es inevitable que este viaje de la señal ocupe un determinado tiempo. Y cuantos más elementos tiene la red más posibilidades hay de que el retraso aumente.
“La latencia está compuesta del conjunto de retardos que introduce cada elemento de la red en el camino de ida y vuelta de la comunicación”, apunta Portilla. A partir de aquí, el catedrático desgrana el origen de estos retrasos que al final componen la latencia. Para empezar, habría cuatro factores que contribuyen a alargar el tiempo de llegada de la señal. Se trata de la red radio (T-RAN), la red de interconexión con el núcleo de T-red (Backhaul), el tiempo de procesamiento en el núcleo de red (T-Core Network) y el tiempo de acceder a los servidores en Internet (T-Transport). En cada uno de estos puntos y en sus interconexiones se producen retrasos, algunos más susceptibles de ser significativos, otros menos.
Cómo se ha reducido la latencia
Teniendo en cuenta que existen cuatro puntos básicos donde la latencia es susceptible de crecer, para reducirla hay que actuar sobre cada uno de ellos. Sin embargo, estas partes se pueden dividir meramente en dos: la parte periférica de la red o RAN y el núcleo o core. “Se tienen que aplicar nuevas técnicas en cada una de las partes”, expone el catedrático de la Universidad de Alcalá. “En la RAN se emplean técnicas avanzadas de acceso múltiple y de forma de onda, mejoras en la estructura de trama o el uso de la banda milimétrica. En el núcleo de red se progresa con el uso de redes definidas por software (SDN), la virtualización de las funciones de red (NFV) y la computación móvil en el extremo de la red (Mobile Edge Computing), que contribuyen significativamente a la reducción de la latencia”.
El catedrático e investigador de la Uniersitat Politècnica de València José Francisco Monserrat del Río, especializado en la rama de telecomunicaciones, destaca que esta pugna contra la latencia se gana con cambios en la arquitectura de la red y en los protocolos y procedimientos que se utilizan. “Lo que se ha hecho respecto a la arquitectura es ir eliminando entidades (nodos) en el camino de los datos. Antes un paquete para salir a Internet desde el móvil pasaba por cuatro entidades lógicas, mientras que con el 5G solo pasa por dos, que son la estación base y, directamente, el router de salida”, explica.
“Hemos simplificado las cosas. Hemos bajado los tiempos entre asignaciones de recursos, que se le da a un móvil para transmitir, y simplificado lo que tiene que hacer el móvil para coger los datos y acabar mandándolos al aire”, se refiere Monserrat en este caso a los protocolos y añade una puntualización: “Para que esto fuera posible se ha tenido que invertir mucho dinero en tiradas de fibra óptica y, sobre todo, en chips con mayores capacidades de cómputo”.
Los procedimientos son otro de los aspectos que también se han modificado. Y se ha hecho de forma importante, en comparación con los estándares de hace años. “En 5G es posible que dos dispositivos se comuniquen entre sí, sin pasar por la estación base. Esto reduce de manera muy significativa el tiempo de latencia”, sostiene el catedrático de la UPV. Aunque una de las fórmulas más conocidas que tiene el 5G de reducir la latencia es el edge computing. “También es posible activar servicios en la propia estación base. Es como si el servidor web que me da la página web estuviera alojada en esa estación base que vemos por las calles, encima de los edificios. Al reducir la distancia entre cliente y servidor reducimos en gran medida la latencia”, expone Monserrat.
Dificultades
Las mejoras en la red para reducir la latencia dependen de una serie de factores, que muchas veces se encuentran con obstáculos. “Los principales retos han sido los límites en la computación de los equipos y la compatibilidad hacia atrás”, explica Monserrat. “Hacer que una red siga acogiendo a móviles 2G-3G-4G-5G al mismo tiempo es un reto realmente complicado. La cantidad de señalización que soportan los equipos es inmensa para que el usuario no perciba nada más que un servicio transparente y siempre operativo”.
¿Todavía quedan móviles solo con 2G en las redes? Pues sí, según apunta el catedrático de la UPV, por extraño que esto parezca. “Los cambios de tecnología vienen acompañados de grandes inversiones y bajar en latencia se consigue básicamente tirando de ordenadores mucho más potentes en las estaciones base y centros de conmutación. Y eso es mucho dinero”, añade.
Esta carrera contra la latencia no siempre se trata de cuestiones técnicas aplicables por igual en todos los tramos o en sitios diferentes. Como explica Portilla, la distancia, cuando hablamos de cierta escala, influye. Por mucho que el medio de transmisión use la velocidad de la luz. La localización física de la aplicación, de la información o de los servicios a los que queremos acceder juega un papel a la hora de medir el retraso de la señal.
“Algunos aspectos no dependen, al menos completamente, del operador móvil y de la propia arquitectura de la red 5G”, explica Portilla. “Los esfuerzos técnicos serán infructuosos si, estando en Canarias, la información tiene que viajar 2.200 kilómetros de ida y otros 2.200 kilómetros de vuelta. Esto implica, incluso viajando a la velocidad de la luz, al menos 14 ms de latencia solo para empezar”.
Una necesaria reducción de la latencia
Evidentemente, a lo largo de la historia reciente de las telecomunicaciones, se ha procurado reducir la latencia por múltiples razones. En un principio se buscaba que las llamadas fueran lo más fluidas que se pudiera. Pero fue con las conexiones móviles a Internet cuando esta latencia empezó a tener mayor importancia. Usar cualquier aplicación móvil que funcionara en tiempo real requería de una reducción en el retardo.
Con todo, es con el 5G cuando ha logrado reducir la latencia a un mínimo que permita nuevas aplicaciones más allá de los móviles. Este factor es una de las grandes ventajas que comúnmente se asocian a la nueva generación de redes. Las otras dos son la banda ancha móvil mejorada, que incrementará la velocidad de forma drástica, y una densidad mucho mayor, que permitirá las comunicaciones masivas máquina a máquina.
“Cuando hablamos de latencia nos centramos en el bloque de aplicaciones URLLC (ultra reliable low latency communications), que además se suele combinar en un subgrupo que se denomina comunicaciones para misiones criticas (mission critical communications MMC), que precisan una fiabilidad extrema”, apunta Portilla, que pone algunos ejemplos para entender la criticidad de contar con una baja latencia. Habla de la denominada ehealth, con aplicaciones como la telediagnosis o la telerehabilitación. Pero donde resulta esencial un retardo reducido a la mínima expresión es en la cirugía remota. En este caso las operaciones se realizan mediante robots, que siguen las órdenes de un médico que podría estar a kilómetros. Los tiempos de reacción tienen que estar en el orden del milisegundo, para una correcta cirugía.
En el terreno industrial también es necesaria una latencia mínima, con el fin de que prosperen las nuevas aplicaciones. “Las fábricas inteligentes se implementan mediante el control en tiempo real de cada una de las líneas de producción, que pueden ser muy complejas, con una interacción humana muy limitada. En estos casos, nos manejamos en latencias entre 0.25-1 ms hasta 10 ms, con una probabilidad de error de 1 paquete de datos erróneo cada 1000 millones”, sostiene el catedrático de la Universidad de Alcalá.
Desde luego, otra de las aplicaciones futuras en las que la latencia será crítica se encuadra en el transporte. Los vehículos autónomos, ya sean coches, camiones o autobuses, necesitan tener la información sin retraso. Pues a partir de ahí toman decisiones constantemente. De esta forma, solo una red con capacidad para responder en menos de 10 milisegundos será válida.
Imagen de portada: Nikotchan.