28 Dec 23
El rendimiento de una web es un factor poco negociable para el usuario final. Por eso es habitual que los equipos técnicos evalúen cómo se comporta su plataforma al pasar por una CDN como la de Transparent Edge. Pero algunas pruebas pueden quedar distorsionadas al centrar la atención en indicadores poco precisos o emplear pruebas o herramientas online poco fiables.
En este post abordamos los puntos más conflictivos y realizamos algunas recomendaciones para que las comparativas de rendimiento se ejecuten de la mejor manera, ¡toma nota!
En el sentido estricto del término, la latencia es el tiempo que tarda en ir y volver un paquete de un punto a otro, sin procesamiento. Es decir, un servidor puede tener una latencia muy buena, pero dar unos tiempos de entrega malos, por diversas razones.
La latencia suele calcularse mediante pings, pero no es una métrica adecuada desde el punto de vista de la entrega web. El tráfico ICMP no tiene nada que ver con el tráfico real de HTTP por TCP, ya que es más variable y no tiene en cuenta que los nodos intermedios entre usuarios y servidor normalmente hacen shaping. De manera que una latencia más baja por ICMP/ping no garantiza una mejor respuesta en la entrega de contenidos.
La latencia queda, por tanto, descartada. Y, aunque no sea la métrica definitiva, sí nos da una respuesta más precisa el TTFB o Time to First Byte. Este dato mide el tiempo que transcurre entre el envío de una solicitud por parte de un usuario final hasta que se recibe el primer byte de la respuesta. Esto lo convierte en el indicador más interesante (también para los Core Web Vitals y expertos en performance web como Illya Grigorik) con el que interpretar las comparativas de rendimiento.
Las pruebas de carga son la alternativa más recomendada, ayudan a comprender cómo funcionará un sistema bajo la carga de usuarios esperada. Pero hacer este test en frío para contenido en una CDN requiere tener en cuenta una serie de consideraciones. De no hacerlo, es muy probable que los resultados queden distorsionados, por lo que esas pruebas no habrán servido para nada.
Más allá de esto, hay que tener en cuenta que las herramientas online que suelen emplearse para realizar este tipo de pruebas también pueden tener sus propios sesgos.
Aunque generalmente dan un buen resultado, las herramientas online que chequean el tiempo de respuesta no dejan de ser clientes HTTP. Estas herramientas están alojadas habitualmente en datacenters cloud, lo que significa que el peering de un datacenter concreto es determinante y puede dar un resultado mejor que el real. Por ejemplo, si la página medida se encuentra en AWS y la herramienta de testing también, la latencia y el TTFB (time to first byte) van a ser mucho menores que los de un cliente real.
La única métrica fiable es la del usuario final. Las herramientas de RUM (real user monitoring) dan un indicativo real de cómo se comporta el site para los usuarios que lo visitarán. Todo lo demás son aproximaciones, más o menos realistas, de cómo se puede comportar el sitio web en producción.
En Transparent Edge facilitamos siempre las cosas. Por eso, nos ponemos a disposición de clientes o potenciales clientes para ayudarles a hacer este tipo de test. Por ejemplo, si nos dicen desde dónde van a hacer las pruebas, podemos precalentar el contenido en los nodos que servirían a esa ubicación de cara a obtener unos resultados más similares a los de producción. Resuelve cualquier duda con nuestro equipo de expertos.