¿Cómo funciona el A/B Test?
Consiste en desarrollar dos versiones de un mismo elemento que vamos a lanzar al mercado (por ejemplo, un botón de CTA azul y uno amarillo), y luego utilizar las métricas de cada variación para evaluar cuál funciona mejor.
Al contrario de lo que pueda parecer, hacer muchas variaciones no tiene porqué producir impactos negativos; son cambios incrementales que mantendrán a tus usuarios conectados y más cerca del último eslabón del ciclo de compra.
Para utilizar bien el A/B Test debemos centrar nuestra atención en esos elementos que influyen en el ratio de apertura de un email y en los clics que el usuario hace en una landing page. Estos son algunos de esos elementos que podemos testar en un A/B Test:
- Las palabras, colores, tamaños y ubicación de tus CTAS.
- Los titulares y cuerpos de la descripción de tus productos.
- La extensión de un formulario y tipos de campos.
- El layout o estructura visual de tu página web.
- El modo de presentación del precio de tus productos y ofertas promocionales.
- Las imágenes (ubicación, propósito, contenido y cantidad) de las landings y páginas de tu producto.
- Cantidad de texto en una página web o en un blog post.
¡Aplícalo! Observarás curiosas tendencias de comportamiento en el A/B testing que pueden ayudarte a detectar mejoras de forma más eficiente que, por ejemplo, mediante una investigación de mercado. Al final, sigue siendo un approach cuantitativo que puede medir patrones de comportamiento de nuestras visitas y proveer los insights necesarios para desarrollar soluciones.
¿Cómo funcionan las pruebas A / B para SEO?
A diferencia de las pruebas A / B regulares con las que muchos de ustedes estarán familiarizados con la optimización de la tasa de conversión (CRO), no podemos crear dos versiones de una página y separar a los visitantes en dos grupos, cada uno de los cuales recibe una versión. Solo hay un robot de Google, y no le gusta ver casi duplicados (especialmente a escala). Es una mala idea crear dos versiones de una página y simplemente ver cuál se clasifica mejor; incluso ignorando el problema del contenido duplicado, la prueba quedaría enturbiada por la antigüedad de la página, su rendimiento actual y su aparición en las estructuras de enlaces internos.
En lugar de crear grupos de usuarios, el tipo de prueba que proponemos aquí funciona creando grupos de páginas. Esto es seguro, porque solo hay una versión de cada página, y esa versión se muestra a los usuarios habituales y al robot de Google por igual, y es eficaz porque aísla el cambio que se está realizando.
En general, el proceso debería verse así:
- Identifique el conjunto de páginas que desea mejorar
- Elija la prueba para ejecutar en esas páginas
- Agrupe aleatoriamente las páginas en los grupos de control y variantes.
- Mida los cambios resultantes y declare que una prueba fue exitosa si el grupo de variantes supera su pronóstico mientras que el grupo de control no
Todas las pruebas A / B necesitan una cierta cantidad de estadísticas sofisticadas para comprender si el cambio ha tenido un efecto y su probable magnitud. En el caso de las pruebas de SEO A / B, existe un nivel adicional de complejidad debido al hecho de que nuestros dos grupos de páginas ni siquiera son estadísticamente idénticos. En lugar de simplemente poder comparar el rendimiento de los dos grupos de páginas directamente, necesitamos pronosticar el rendimiento de ambos conjuntos y determinar que un experimento es un éxito cuando el grupo de control coincide con su pronóstico y el grupo de variantes supera su pronosticado por una cantidad estadísticamente significativa.
Esto no solo hace frente a las diferencias entre los grupos de páginas, sino que también protege contra efectos en todo el sitio como:
- Una actualización del algoritmo de Google
- Estacionalidad o picos
- Cambios no relacionados en el sitio
(Dado que no se esperaría que ninguna de estas cosas afecte solo al grupo de variantes).
Las estadísticas y las matemáticas subyacentes detrás de todo esto son bastante complicadas en algunos lugares, pero si está interesado en aprender más, puede consultar:
- La sección de mi presentación de SearchLove que cubrió esto brevemente
- Predicción del presente con series temporales estructurales bayesianas [PDF]
- Inferir impacto causal utilizando series de tiempo estructurales bayesianas [PDF]
- Paquete CausalImpact R
- Encontrar el ROI de los cambios de etiqueta de título
- Mi colega Ben Estes también ha escrito sobre R y pronóstico analítico.
Buenas métricas para medir el éxito de las pruebas
En general, recomendamos que el tráfico de búsqueda orgánica es la mejor métrica de éxito para este tipo de pruebas, a menudo junto con mejoras en las clasificaciones, ya que a veces se pueden detectar más rápidamente.
Es tentador pensar que las clasificaciones por sí solas serían la mejor métrica de éxito para una prueba como esta, ya que el objetivo es averiguar qué prefiere Google. Como mínimo, creemos que deben combinarse con los datos de tráfico porque:
- Es difícil identificar la larga cola de palabras clave para rastrear en un mundo (no proporcionado)
- Algunos cambios podrían mejorar la tasa de clics sin mejorar la posición en la clasificación, y ciertamente queremos evitar lo contrario
Puede configurar una prueba para medir la mejora en las conversiones totales entre los grupos de páginas, pero es probable que converja demasiado lentamente en la práctica en muchos sitios. En general, adoptamos la visión pragmática de que mientras la página permanezca enfocada en el mismo tema, el aumento del tráfico de búsqueda es un objetivo válido. En particular, es importante tener en cuenta que, a diferencia de una prueba CRO (donde se supone que el tráfico no se ve afectado por la prueba), la tasa de conversión es una métrica muy mala para las pruebas de SEO, ya que es probable que los visitantes que ya está recibiendo sean los más los calificados, y duplicar el tráfico aumentará (pero no duplicará) el número total de conversiones (es decir, habrá una tasa de conversión más baja aunque sea una acción sensata).
¿Cuánto tiempo deben durar las pruebas?
Una ventaja de las pruebas de SEO es que Google es más «racional» y coherente que la colección de visitantes humanos que deciden el resultado de una prueba de CRO. Esto significa que (salvo las actualizaciones de algoritmos que se dirigen a lo que está probando) debería poder determinar rápidamente si está sucediendo algo dramático como resultado de una prueba.
Al decidir durante cuánto tiempo ejecutar las pruebas, primero debe decidir un enfoque. Si simplemente desea verificar que las pruebas tienen un impacto positivo, debido a la naturaleza racional y coherente de Google, puede adoptar un enfoque bastante pragmático para evaluar si hay una mejora, buscando cualquier aumento en la clasificación de las páginas variantes. el grupo de control en cualquier momento después de la implementación, y aplique ese cambio rápidamente.
Sin embargo, si es más cauteloso o desea medir la escala de impacto para poder priorizar futuros tipos de pruebas, debe preocuparse más por la significación estadística. La rapidez con la que verá el efecto de un cambio es un factor de la cantidad de páginas en la prueba, la cantidad de tráfico a esas páginas y la escala del impacto del cambio que ha realizado. Todas las pruebas van a ser diferentes.
A los sitios pequeños les resultará difícil obtener significación estadística para las pruebas con aumentos más pequeños, pero incluso allí, es probable que se detecten aumentos del 5 al 10% (para ese conjunto de páginas, recuerde) en cuestión de semanas. Para sitios más grandes con más páginas y más tráfico, se deberían poder detectar aumentos más pequeños.
Revise el articulo completo en MOZ: Pruebas divididas de SEO: Como realizar pruebas A/B de cambios para Google
0 comentarios