Aplicaciones del test A/B en Email Marketing


El A/B testing es el modo de testeo más habitual entre los profesionales del marketing dada su simplicidad y eficacia para validar hipótesis en las que interviene una sola variable.

El A/B testing consiste en confrontar dos o más versiones de un mismo mensaje con la particularidad de que existe una misma variable que cambiará en cada una de las distintas versiones. Ejemplos de A/B testing son:

 

Asunto.

Largo vs corto

Personalizado vs sin personalizar

Mencionando la oferta vs mencionando la marca

Imperativo vs declarativo

Etc…

 

Ofertas

Descuento vs incentivo en especie

Descuento en el precio vs gratuidad de los costes de envío

Incentivo A vs Incentivo B

Etc…

 

CTA´s

Copy: imperativo vs declarativo

Personal vs impersonal

Incluyendo el beneficio vs no incluyendo el beneficio

Distintos diseños y colores

Etc.

Imágenes y colores

 

From Email

Otro elemento a testear es el from email tanto en la parte del nombre del remitente como del email. Así, por ejemplo, podemos testear el From Name:

Nombre real de una persona vs nombre de la marca

Nombre de la marca vs nombre del producto

 

Momento del envío

Una hora de la mañana vs una hora de la tarde

Un día de la semana vs otro día de la semana

 

 

Para que el A/B testing sea eficaz, hay que tener en cuenta los siguientes puntos:

– Tan solo hay que introducir una única variable en la prueba, de lo contrario, las conclusiones a las que llegaremos pueden ser equivocadas. Imaginemos que queremos testear cuál de dos asuntos nos da una mayor tasa de aperturas. Si lanzamos la versión A a las 09.00 y la versión B a las 12.00, no sabremos si el incremento de aperturas de la versión ganadora se debe al asunto o a la hora en la que se ha lanzado la campaña.

 

 

–  Los A/B Testing de copies, calls to action, ofertas e imágenes, han de controlarse  con el Click Through Rate y/o el Click To Open Rate (también llamado reactividad).

 

– Cuando tras un test una versión resulta ganadora, hay que utilizarla como versión alternativa a un nuevo test. De este modo, siempre estarán concurriendo versiones mejoradas, con lo que las mejoras de los resultados serán sostenidas

Una vez tenemos los resultados, hemos de asegurarnos de que las diferencias entre la versión ganadora y el resto son estadísticamente significativas. Para ello, hay que recurrir a cálculos estadísticos como vemos a continuación:

Supongamos que la versión A de un creativo ha generado 163 ventas y la versión B 210. Para saber si el  intervalo de confianza es significativo aplicaremos el siguiente cálculo:

 

Share on FacebookTweet about this on TwitterShare on LinkedInGoogle+Email to someonePrint this page