Aplicaciones del test A/B en Email Marketing



El A/B testing es el modo de testeo más habitual entre los profesionales del marketing dada su simplicidad y eficacia para validar hipótesis en las que interviene una sola variable.
El A/B testing consiste en confrontar dos o más versiones de un mismo mensaje con la particularidad de que existe una misma variable que cambiará en cada una de las distintas versiones. Ejemplos de A/B testing son:
 
Asunto.
Largo vs corto
Personalizado vs sin personalizar
Mencionando la oferta vs mencionando la marca
Imperativo vs declarativo
Etc…
 
Ofertas
Descuento vs incentivo en especie
Descuento en el precio vs gratuidad de los costes de envío
Incentivo A vs Incentivo B
Etc…
 
CTA´s
Copy: imperativo vs declarativo
Personal vs impersonal
Incluyendo el beneficio vs no incluyendo el beneficio
Distintos diseños y colores
Etc.
Imágenes y colores
 
From Email
Otro elemento a testear es el from email tanto en la parte del nombre del remitente como del email. Así, por ejemplo, podemos testear el From Name:
Nombre real de una persona vs nombre de la marca
Nombre de la marca vs nombre del producto
 
Momento del envío
Una hora de la mañana vs una hora de la tarde
Un día de la semana vs otro día de la semana
 
 
Para que el A/B testing sea eficaz, hay que tener en cuenta los siguientes puntos:
– Tan solo hay que introducir una única variable en la prueba, de lo contrario, las conclusiones a las que llegaremos pueden ser equivocadas. Imaginemos que queremos testear cuál de dos asuntos nos da una mayor tasa de aperturas. Si lanzamos la versión A a las 09.00 y la versión B a las 12.00, no sabremos si el incremento de aperturas de la versión ganadora se debe al asunto o a la hora en la que se ha lanzado la campaña.
 

 
–  Los A/B Testing de copies, calls to action, ofertas e imágenes, han de controlarse  con el Click Through Rate y/o el Click To Open Rate (también llamado reactividad).
 
– Cuando tras un test una versión resulta ganadora, hay que utilizarla como versión alternativa a un nuevo test. De este modo, siempre estarán concurriendo versiones mejoradas, con lo que las mejoras de los resultados serán sostenidas
Una vez tenemos los resultados, hemos de asegurarnos de que las diferencias entre la versión ganadora y el resto son estadísticamente significativas. Para ello, hay que recurrir a cálculos estadísticos como vemos a continuación:
Supongamos que la versión A de un creativo ha generado 163 ventas y la versión B 210. Para saber si el  intervalo de confianza es significativo aplicaremos el siguiente cálculo: