?Qu¨¦ es la latencia y c¨®mo reducirla?
Obtenga informaci¨®n sobre la latencia de la red, qu¨¦ la causa y c¨®mo mitigarla.
Informe global sobre el panorama de amenazas de 2H de 2023 Hable con un expertoLa latencia se refiere al retraso que ocurre entre el momento en que un usuario realiza una acci¨®n en una red o aplicaci¨®n web y el momento en que obtiene una respuesta. Otra definici¨®n de latencia es el tiempo total o ¡°viaje de ida y vuelta¡± necesario para que viaje un paquete de datos.
?Qu¨¦ significa latencia? La latencia se refiere al retraso que ocurre entre el momento en que un usuario realiza una acci¨®n en una red o aplicaci¨®n web y el momento en que llega a su destino, que se mide en milisegundos. Esto puede deberse a una variedad de factores y componentes dentro de la red en s¨ª. Agregar elementos a una red puede, por lo tanto, aumentar la latencia.
La latencia generalmente se mide en milisegundos. Si bien es posible dise?ar una red donde la latencia se reduce a relativamente pocos milisegundos, es imposible tener una red de latencia cero debido a c¨®mo viajan los datos.
La latencia se produce debido a la distancia entre el usuario y los elementos clave de la red, incluida su red de ¨¢rea local (LAN) interna e Internet o una red de ¨¢rea amplia (WAN) administrada de manera privada. A medida que el usuario inicia un comando en su dispositivo, deben realizarse varios pasos antes de que se cumpla la solicitud.
Por ejemplo, cuando un usuario intenta agregar algo a un carrito de compras en l¨ªnea, debe suceder lo siguiente:
Si suma todos los incrementos de tiempo, a partir de cuando el usuario hace clic en el bot¨®n para agregar el art¨ªculo a su carrito y cuando ve que se agreg¨®, obtiene la latencia total resultante de la solicitud.
En el significado t¨ªpico de latencia, una de las principales causas de latencia en una red es la distancia que los datos tienen que viajar, en particular, la distancia entre los dispositivos cliente que hacen solicitudes y los servidores que tienen que responder a cada solicitud. En muchos casos, el dispositivo cliente se refiere a una computadora o dispositivo que utiliza el usuario final. Pero tambi¨¦n puede implicar uno que sea parte de un proceso, posicionado entre el usuario final y el servidor del que intenta obtener informaci¨®n.?
Por ejemplo, se puede medir la latencia entre un firewall y un servidor que recibe y env¨ªa datos, adem¨¢s de la latencia general entre la solicitud del usuario y cu¨¢ndo se cumple.
La distancia afecta la latencia porque los datos tienen que viajar del punto A al punto B, por lo que cuanto m¨¢s larga sea la distancia, mayor ser¨¢ la latencia. Por ejemplo, una solicitud que se origina en Nueva York experimentar¨¢ m¨¢s latencia si tiene que interactuar con un servidor en California que si simplemente tiene que viajar a Filadelfia. La diferencia podr¨ªa ser de hasta 40 milisegundos. Esto puede no parecer mucho, pero cuando se necesitan resultados instant¨¢neos de consultas, 50 milisegundos, particularmente cuando se multiplican entre varias solicitudes concurrentes, pueden marcar una diferencia significativa.
Adem¨¢s, los datos a menudo tienen que pasar por varias redes a medida que viajan. Cada red presenta oportunidades de mayor latencia. Cada enrutador asociado con las diversas redes debe procesar los paquetes, dividirlos en paquetes de datos m¨¢s peque?os y reenviarlos al siguiente nodo. Cada vez que esto sucede, lleva tiempo.
El medio de transmisi¨®n se refiere a la ruta f¨ªsica que existe entre el lugar donde los datos comienzan su trayectoria y el lugar donde terminan. El tipo de medio de transmisi¨®n puede afectar la latencia. Por ejemplo, el uso de cableado de cobre en lugar de cables de fibra ¨®ptica puede aumentar la latencia porque una conexi¨®n ¨®ptica transmite datos m¨¢s r¨¢pido.
La propagaci¨®n se refiere al tiempo que tarda un paquete de datos en pasar del origen al destino deseado. A medida que los datos viajan mayores distancias, la latencia aumenta. Sin embargo, la latencia final puede ser mayor o menor seg¨²n los componentes utilizados dentro de la red.
Debido a que los enrutadores tienen que recibir y reenviar datos, la velocidad a la que lo hacen tiene un impacto significativo en la latencia. En muchas redes, hay varios enrutadores trabajando en una cadena. Cada uno agrega latencia al proceso.
Una red de almacenamiento necesita tiempo para procesar informaci¨®n y enviarla al dispositivo que realiza la solicitud. Por lo tanto, las especificaciones de la red de almacenamiento pueden afectar la latencia.
La latencia, el rendimiento y el ancho de banda est¨¢n todos conectados, pero se refieren a diferentes cosas. El ancho de banda mide la cantidad de datos que puede pasar a trav¨¦s de una red en un momento determinado. Una red con un gigabit de ancho de banda, por ejemplo, a menudo funcionar¨¢ mejor que una red con solo 10 Mbps de ancho de banda.
El rendimiento se refiere a la cantidad de datos que pueden pasar, en promedio, durante un per¨ªodo espec¨ªfico. El rendimiento se ve afectado por la latencia, por lo que puede no haber una relaci¨®n lineal entre cu¨¢nto ancho de banda tiene una red y cu¨¢nto rendimiento es capaz de producir. Por ejemplo, una red con ancho de banda alto puede tener componentes que procesan sus diversas tareas lentamente, mientras que una red de ancho de banda inferior puede tener componentes m¨¢s r¨¢pidos, lo que da como resultado un mayor rendimiento general.
La latencia es el resultado de una combinaci¨®n de rendimiento y ancho de banda. Se refiere a la cantidad de tiempo que tardan los datos en viajar despu¨¦s de realizar una solicitud. Con m¨¢s o menos ancho de banda o rendimiento, la latencia aumenta o disminuye en consecuencia.
Una forma de reducir la latencia es utilizar una red de entrega de contenido (CDN). Con un CDN, obtiene la capacidad de almacenar contenido en cach¨¦. Con el almacenamiento en cach¨¦, se conserva cierto contenido que se necesitar¨¢, por lo que se puede acceder a ¨¦l bajo demanda sin tener que obtenerlo del servidor original. Esto se hace utilizando un servidor CDN.?
Los servidores CDN se pueden colocar estrat¨¦gicamente en varias ubicaciones para garantizar que el contenido se almacene cerca de los usuarios finales y sus dispositivos. De esta manera, los paquetes de datos no tienen que viajar tanto despu¨¦s de realizar una solicitud. Como resultado, el sitio web que ofrece el contenido puede cargarse m¨¢s r¨¢pido y el contenido llega a su destino final antes.
Tambi¨¦n puede hacer cosas con su contenido para reducir la latencia. Por ejemplo, puede reducir la cantidad de recursos que bloquean la renderizaci¨®n. Si carga JavaScript como ¨²ltimo paso en el proceso de renderizaci¨®n, por ejemplo, puede llevar el contenido a su destino m¨¢s r¨¢pido. Tambi¨¦n puede optimizar las im¨¢genes en su sitio web de una manera que les permita cargarlas m¨¢s r¨¢pido. Esto puede incluir reducir el tama?o de los archivos de imagen.?
En general, reducir el tama?o de los archivos de contenido puede reducir la latencia. Una forma de reducir el tama?o del archivo es minimizar la cantidad de c¨®digo utilizado. Cada aspecto del c¨®digo debe reenviarse, por lo que incluir menos c¨®digo puede resultar en una latencia menor.
En algunos casos, la latencia es una cuesti¨®n de percepci¨®n que es realidad. Por ejemplo, si un usuario va a un sitio web en busca de un tipo espec¨ªfico de contenido, es posible que desee asegurarse de que el sitio entregue ese contenido primero. Otros aspectos del sitio pueden contribuir a su atractivo est¨¦tico, pero al final, el usuario solo visita para satisfacer una necesidad espec¨ªfica. Por lo tanto, cuando obtienen el contenido que buscan, puede parecer que el sitio se carga m¨¢s r¨¢pido de lo que realmente lo hace.
Cada ¨¢rea de una p¨¢gina web completa como aparece en la pantalla del usuario se denomina que est¨¢ por encima del pliegue. Si su sitio tiene informaci¨®n m¨ªnima sobre texto, im¨¢genes o videos clave que el usuario puede estar buscando, es posible que pueda tener esta carga primero, d¨¢ndole lo que quer¨ªa por encima del pliegue. A medida que consumen ese contenido, los otros activos pueden cargarse en segundo plano debajo del pliegue.
Tambi¨¦n puede configurar un sitio web para que solo cargue los activos necesarios en el momento. Esto a veces se denomina ¡°carga perezosa¡±. Los activos que el usuario m¨¢s necesita se cargan, mientras que otros se mantienen en el servidor. Cuando se necesitan, se pueden cargar, lo que da al usuario la impresi¨®n de que obtiene todo lo que busca del sitio.
Los usuarios tambi¨¦n pueden tomar medidas para corregir la latencia. Por ejemplo, pueden:
La latencia se refiere al retraso que ocurre entre el momento en que un usuario realiza una acci¨®n en una red o aplicaci¨®n web y el momento en que obtiene una respuesta.
Una latencia buena y aceptable depende del usuario y la aplicaci¨®n, pero en general, cualquier cosa inferior a 150 milisegundos se considera buena.
La latencia m¨¢s baja es generalmente mejor que la latencia m¨¢s alta porque una latencia m¨¢s alta significa que los usuarios no pueden obtener lo que necesitan tan pronto como lo desean.
Alta latencia significa que pasa un largo tiempo entre el momento en que un usuario hace clic o toca algo y el momento en que obtiene lo que desea.
Complete el formulario y un representante experto se comunicar¨¢ con usted en breve.