MENU

15 Diciembre, 2016 Comments (0) Views: 400 Noticias ES, Portada ES

Neutra: “espectro de 3.600 MHz será utilizado en el 5G”

La industria de las telecos -operadores y proveedores- se enfrenta en los próximos años el reto de desarrollar la siguiente generación de telecomunicaciones móviles, que sucederá al actual 4G, que se encuentra en pleno despliegue de clientes y utilización. La llegada del nuevo estándar impactará de forma importante en todo el sector, transformándolo para siempre.

Pioneros y patentes. En los últimos meses se están produciendo anuncios  de operadores, especialmente americanos como AT&T y Verizon, los dos grandes grupos estadounidenses, y de grupos asiáticos, coreanos y japoneses, acerca de su intención de lanzar redes y servicios de 5G en fechas muy próximas, algunos incluso en 2017. Corea promete 5G en los Juegos Olímpicos de Invierno de 2018 y Japón hace lo propio para los de verano de Tokio de 2020. Lo mismo ocurre con algunos fabricantes. Sin embargo, el organismo oficial internacional -está formado por organizaciones de estándares de EEUU, Europa, China, Japón y Corea del Sur- que tiene que establecer el estándar técnico de que será y que no será el 5G, es decir el 3GPP que así se llama el organismo, todavía no tiene un estándar. Eso significa que el 5G no existe. Y según los expertos, el estándar técnico es difícil que exista hasta 2018. A partir, de ahí, cuando estén cerradas las especificaciones, los grandes fabricantes involucrados en este proceso -los principales son Huawei, Ericsson, Nokia-Alcatel, ZTE, Qualcomm e Intel- correrán para tener redes ajustadas 100% al nuevo estándar pero disponibles comercialmente, pero nadie serio confía en que eso sea posible hasta la segunda mitad de 2019. Eso significa que todos los anuncios actuales de operadores y fabricantes son, en realidad, aproximaciones propietarias, pero no son el 5G verdadero.

Pero en todo esto hay mucho de marketing tecnológico y mucho de feroz competencia por el negocio futuro. El estándar 5G será un coctel de tecnologías desarrolladas por unos y otros. Y cuanta más tecnología propia logre meter un fabricante en el estándar definitivo, más cantidad de patentes tendrá, y más royalties recibirá en los siguientes años. El caso más claro es el de la americana Qualcomm que casi monopolizó el estándar de 3G y que a partir de ahí inició su fulgurante crecimiento. Hay una sorda batalla para lograr que el estándar final se parezca más al diseño de un operador concreto o un fabricante concreto que al de otro. El problema para los grupos occidentales es la irrupción de los fabricantes chinos, especialmente del gigante Huawei, el actual líder del mercado de fabricantes de redes de telecos. Cuando se inició la especificación del 3G, allá por finales de los 90, o cuando pasó lo mismo con el 4G/LTE, a mediados de la década del 2000, Huawei casi no existía a efectos de pelear por un trozo de la tarta de las patentes de los estándares. Pero ahora sí. Y si hay un nuevo comensal a la mesa -y voraz- el pastel para el resto será necesariamente menor. Esta batalla por las especificaciones y las patentes está detrás de muchos de los anuncios anticipados de 5G por parte de la industria. Inclinar la balanza a favor puede significar tener más patentes propias en el estándar y eso puede suponer cientos (o miles) de millones de ingresos recurrentes a largo plazo para grupos como Ericsson, Huawei, Nokia, Qualcomm o Intel.

Evolución, no revolución. Quizá el mayor cambio respecto al pasado. Al 5G se va a llegar poco a poco, al contrario que la transición de 3G a 4G, que fue un cambio más radical, porque, en realidad, el estándar estará basado en los mismos principios que el 4G pero corregidos y aumentados, de forma que la evolución será lineal, más como una recta ascendente que como una escalera. Si una de las ventajas del 4G es el uso de muchas frecuencias a la vez, lo que se denomina carrier aggregation (que es como usar varios carriles de autopista a la vez para transportar la mercancía, de forma que se puede transportar más cantidad y más rápido) el 5G ampliará esa capacidad, permitiendo usar cantidades ilimitadas de frecuencias en la misma conexión porque el estándar está pensado así desde el principio, sin necesidad de tener que buscarse la vida como se ha hecho con el 4G y el carrier aggregation para “estirarlo”.

Además, para el 5G se van a usar, entre otras, bandas de frecuencias muy altas que ahora tienen poco uso, por lo que habrá mucho espectro libre. De hecho, en Europa está previsto empezar con las bandas de 3.400 a 3.500 MHz y con las de 3.600 a 3.800 MHz donde hay muchísimo espectro libre, del orden de 200 MHz de espectro pareado. Solo por comparar, Movistar, el mayor operador por clientes en España tiene en total 80 MHz de espectro pareado, a razón de 10 MHz en la banda de 800 MHz; 15 en la de 900; 20 en la de 1800; 15 en la de 2100 y 20 en la de 2.600 MHz. O sea, que hay casi tanto espectro libre como usan ahora entre los tres mayores operadores.

Igualmente, se van a usar antenas múltiples de transmisión y recepción, lo que se denomina MIMO -tanto en la red como en los terminales- de forma que si ahora ya hay redes que funcionan 4×4 (cuatro antenas para transmitir y cuatro para recibir), se intensificará este camino hasta llegar a 64×64, 128×128 o más. Pero todo esto se va a ir implantando también en las evoluciones futuras del 4G, por lo que, en realidad, los estadios finales del 4G, allá por 2019 y 2020 se van a parecer mucho a lo que acabará siendo el 5G.

Velocidad. Es la principal diferencia que van a percibir los usuarios: el caudal de información por segundo. Si con el 4G ahora se alcanzan velocidades medias de 100 o 200 megabits por segundo en las redes más avanzadas, y se espera llegar -ya se ha logrado en pruebas de laboratorio- a un gigabit por segundo, con el 5G la expectativa es llegar a 5 gigabits e incluso a 10 gigabits, muy por encima, incluso, de lo que ahora ofrecen las mejores redes fijas de fibra óptica.

Vídeo. Esa velocidad hará que la tecnología 5G sea apta para transmitir señales de vídeo en aplicaciones comerciales, incluso en el caso de que la calidad del vídeo vaya in crescendo, como es lógico esperar, en función de su evolución actual hacia mayor definición, ya que a la señal de TV en HD ya le está sucediendo el 4K, que multiplica por cuatro la definición y, por tanto, la cantidad de información que hay que transmitir. El problema para las redes y los operadores no será de velocidad, sino de capacidad -poder dar un servicio masivo de vídeo 4K o calidades superiores a muchos clientes a la vez-, por lo que previsiblemente seguirá siendo una solución para las zonas menos pobladas en las que sea demasiado caro desplegar redes de fibra fija hasta el hogar.

Velocidad de respuesta. Será otro cambio fundamental. El ping, la latencia o la velocidad de respuesta deberá ser mucho más bajo que los sistemas actuales. No para todas las aplicaciones, es cierto, pero sí en algunas en las que la capacidad de respuesta sí sea crítica. Entre ellas, las más obvias se presentan para el telecontrol industrial, o aplicaciones de telemedicina, como por ejemplo  operaciones quirúrgicas a distancia. También es obvia la realidad virtual (Virtual Reality o VR). Si un usuario con gafas de VR quiere ver las imágenes de un museo virtual (o un videojuego) en 360 grados y con calidad de 4K, la aplicación y la red tienen dos opciones: o le envían toda la información de golpe (360 grados por 4K equivale a una barbaridad de información a la vez, para lo que, según los expertos, hacen falta del orden de 50 Gigabits de velocidad, algo no asumible) o se le envía la información a trozos, según el cliente vaya moviendo la cabeza. Pero para eso hacen falta latencias de menos de 10 ms, porque si no, la experiencia no es fluida y el cliente se marea. Otra aplicación obvia es el tráfico terrestre para la monitorización de coches conectados, bien con coches conectados entre sí (si frena el de delante, tu coche frena sólo) o entre el coche y la infraestructura (el semáforo se pone rojo y el coche para). En este caso, la diferencia entre 30 ó 40 milisegundos (ms), que es la latencia media actual y 2 milisegundos, que es la que se debe alcanzar, significa que el coche recorra varias decenas de metros más o que se salte el semáforo. Y por tanto, puede ser la diferencia entre tener un accidente o frenar a tiempo. Es decir, entre vivir y morir.

Redes híbridas con los clientes. Sin embargo, para lograr reducir ese tiempo de respuesta, las redes de radio pueden hacer una parte del trabajo, pero no todo. Si una aplicación reside en un servidor en Silicon Valley o en Singapur, por muy rápida que trabaje la parte de radio de la red, se producirán unos milisegundos de retardo entre que un usuario de Sevilla envía la señal a Madrid, está salga a Internet por el nodo internacional, llegue a San Francisco por el cable submarino, vuelva a Madrid y de ahí a Sevilla. Y ahí, la radio, por mucho que mejore, no puede hacer gran cosa. Si ahora, con 40 ms, la parte de radio es responsable aproximadamente de la mitad de ese retraso, pongamos que 20 ms, (según consideran los expertos), si con la mejora que aporta el 5G esa latencia baja a 2ms, seguirá habiendo otros 20 ms que seguirán procediendo del tráfico por Internet, de forma que la latencia bajaría de 40 ms a sólo 22 ms. Un avance pero todavía insuficiente. Así que para las aplicaciones en las que la velocidad sea crítica, como en el tráfico terrestre o la VR, habrá que reducir drásticamente la distancia entre donde está el servidor con la aplicación y el punto de la red donde se ejecuta el servicio. Es decir, habrá que acercar físicamente el servidor a la red para que la distancia no suponga un cuello de botella.

Eso significa, en realidad, cargar la aplicación del cliente en la propia estación base de radio. O lo que es igual, una transformación radical de la red, en la que será el cliente tanto empresarial o institucional -el ayuntamiento, por ejemplo, en el caso de los semáforos- el que injerte sus aplicaciones en la red del operador con una estrategia de CDN masivo (Content Delivery Network, situar servidores espejo con el contenido replicado más cerca del usuario, como hace, por ejemplo, Akamai).

Infidelidades y fidelizaciónes. Pero esa hibridación de la red, que estará llena de servidores de los clientes, tendrá otra consecuencia: la capacidad de fidelización del operador hacia estos clientes -corporativos o institucionales- crecerá exponencialmente, porque no se podrá cambiar de operador tan fácilmente como ahora. Los matrimonios operador-cliente, serán a largo plazo o, al menos, parece que más a largo plazo que ahora.

‘Infraestructuración’ y redes de antenas móviles. Para atender el aumento del tráfico de datos imparable, habrá que hacer más densa la red de antenas, desplegando, junto a las actuales macro cells (las antenas en las azoteas), decenas de miles de small cells, mucho más pequeñas y de menor cobertura. Se trata de que cada antena atienda a un número mucho menor de clientes. Pero no tendrá mucho sentido que en España, por ejemplo, Movistar, Vodafone, Orange y Yoigo desplieguen, cada uno, decenas de miles de nuevas redes propias. No parece lógico comercialmente. Lo más normal será que los operadores colaboren más entre sí, de forma que aumenten radicalmente dos fenómenos: o la compartición de redes entre operadores o que aumente el papel de operadores neutros de infraestructuras -lo que se ya se va conociendo como “infraestructuración” de la red- solo pasivas, como Cellnex o Telxius, o activas, como en el caso de la Red Compartida que prevé construir el consorcio Altán en México.

Celdas móviles para atender más tráfico. Pero no sólo habrá que innovar generalizando la compartición y los operadores neutros. El aumento de antenas necesario para el 5G confrontará a los operadores con la tortuosa dificultad de desplegar de forma rápida y barata muchos más emplazamientos, algo que parece difícil de lograr con los mecanismos y el mercado de antenas actual, en el que las comunidades de vecinos están acostumbradas a cobrar varios miles de euros anuales a los operadores por las antenas de las azoteas. Y además, las nuevas antenas macro van a ser diferentes. Bastante más grandes, dicen. Porque para incluir dentro 128×128 miniantenas de entrada y salida, las nuevas antenas pueden ser aproximadamente un cuadrado de un metro de lado. Un trasto que se verá mucho más que ahora, y que dificultará las negociaciones con los dueños de las azoteas. Por eso, algunos operadores están trabajando en el desarrollo de nuevos modelos de redes en los que las microceldas se instalen en coches y autobuses, y puedan ser encendidas o apagadas de forma remota por el operador en función de la saturación que exista en el tráfico de datos en cada zona de la ciudad. Un coche -o un autobús- es por definición algo parecido a una caja fuerte, que proporciona protección antivandálica a la estación base y a la antena, que además puede ser bastante grande, porque un coche es un trasto bastante voluminoso. Además, tiene su propia batería, que garantiza el suministro eléctrico y en el futuro tendrá baterías mucho más grandes cuando se generalice el coche eléctrico o híbrido y cuando los automóviles se conviertan, además, en baterías de respaldo para los hogares. Pero sobre todo, el caso de uso para el operador puede ser diferente. Ahora mismo, la conectividad -el servicio wifi- es un argumento de venta creciente para los automóviles. En los últimos años, raro es el lanzamiento de un automóvil de cierta categoría que no vende tener un servicio wifi para conectar móviles o tabletas en su interior. Es el caso del servicio Opel Onstar, del Connect eSIM de Audi o del On Call de Volvo. Estos servicios suelen ofrecer roaming gratis o incluso tráfico ilimitado el primer año, pero ese coste lo paga el fabricante del coche y lo repercute en el usuario en última instancia vía precio. Pero si un operador llega a un acuerdo con un fabricante de coches y toooodos su modelos salen de fábrica convertidos en una microcelda semoviente, el modelo de negocio puede ser muy otro, porque se basará en la mejor conectividad del mundo al tener la antena a pocos centímetros, en el techo del automóvil. Y a partir de ahí, las posibilidades son muchas: ofrecer al propietario del coche tráfico gratis mientras esté dentro del automóvil a cambio  de poder usar la estación base de su coche incluso cuando está aparcado… etc.

Fuente: Expansión

Comments are closed.