volver al blog

A/B testing en email marketing: qué probar y qué métrica usar

Autor Sergio Gallego
Sergio Gallego

9 de mayo de 2024

10 min. lectura
Responsive image
Indice de contenidos

El A/B testing en email marketing no va de probar dos versiones “a ver cuál gana”. Va de contrastar una hipótesis concreta antes de enviar una campaña a toda tu lista.

La diferencia parece pequeña, pero cambia todo el enfoque. Si pruebas un asunto, una plantilla y una oferta a la vez, quizá consigas más clics, pero no sabrás qué ha funcionado. Si eliges ganador por aperturas cuando querías vender, el resultado puede llevarte en la dirección equivocada.

Una buena prueba A/B responde a cuatro preguntas: qué cambio vas a hacer, en qué segmento, qué métrica decide el resultado y qué harás con el aprendizaje después.

Qué es un test A/B en email marketing

Un test A/B en email marketing compara dos o más variantes de una campaña para ver cuál responde mejor a una hipótesis. La comparación puede afectar al asunto, el remitente, el preheader, el CTA, la oferta o la plantilla. La clave es aislar una variable y medirla con una métrica que encaje con el objetivo.

En una campaña de email, el test suele enviarse primero a una parte de la lista. Después, la versión ganadora se envía al resto o se usa como aprendizaje para la siguiente campaña.

Easymailing documenta campañas test A/B con variantes desde A/B hasta A/B/C/D/E en pruebas de asunto y remitente. También permite definir el tamaño del grupo de prueba, elegir ganador por aperturas o clics y fijar un periodo de espera antes de enviar la versión ganadora al resto de suscriptores.

El punto editorial es este: la herramienta ejecuta el test, pero la calidad del aprendizaje depende de la hipótesis. Si la pregunta está mal planteada, el resultado será ruido con apariencia de dato.

Cuándo merece la pena hacer A/B testing y cuándo no

Un test A/B merece la pena cuando hay volumen suficiente, una decisión real que tomar y una métrica clara. Si la lista es pequeña, la campaña es urgente o cambias demasiadas cosas a la vez, suele ser mejor enviar una versión sólida y guardar el aprendizaje para otro momento.

Situación

¿Test A/B?

Motivo

Lista pequeña y pocos envíos

Con cuidado

Puede no haber muestra suficiente para leer diferencias pequeñas.

Duda entre dos asuntos

La variable es clara y la apertura puede servir como señal inicial.

Quieres validar una oferta

Conviene medir clic, conversión o ingresos, no la apertura aislada.

Cambias asunto, diseño y CTA a la vez

No

No sabrás qué causó el resultado.

Campaña urgente a toda la base

Depende

El tiempo de espera puede penalizar el momento del envío.

Newsletter recurrente con audiencia estable

Puedes aprender de forma acumulada sin arriesgar toda la campaña.

La privacidad también importa. Apple explica en su documentación de Mail Privacy Protection que su sistema puede ocultar la dirección IP y cargar contenido remoto de forma privada. En la práctica, las aperturas pueden quedar infladas o ser menos fiables en algunos clientes de correo, así que no deberían decidir tests orientados a clic o venta.

No declares ganador por una diferencia mínima si el test tiene poca muestra. Un 21% frente a un 20% de apertura puede parecer una victoria, pero quizá no cambie nada en negocio ni sea replicable en el siguiente envío.

Diseña campañas de email marketing con pruebas A/B más claras
Obtén una prueba gratuita de 30 días de las funciones premium No se requiere tarjeta de crédito

Qué deberías probar primero en una campaña de email

Empieza por la variable más cercana al bloqueo real. Si poca gente abre, prueba asunto, preheader o remitente. Si abren pero no hacen clic, prueba CTA, oferta, estructura o promesa. Si hacen clic pero no convierten, el problema quizá está después del email.

1. Asunto

El asunto afecta a la atención inicial. Tiene sentido probarlo cuando la campaña necesita más aperturas o cuando dudas entre dos enfoques: beneficio directo, curiosidad, urgencia, personalización o claridad.

Hipótesis útil: “Creo que un asunto con beneficio concreto aumentará la apertura en leads nuevos porque reduce la ambigüedad del contenido”.

Métrica principal: apertura. Métricas de control: clics, bajas y quejas.

Error común: elegir un asunto que abre más porque promete demasiado y luego consigue menos clics. Un asunto agresivo puede ganar la primera métrica y perder la confianza.

2. Preheader

El preheader completa el asunto. Suele tener menos protagonismo, pero puede aclarar la promesa o añadir contexto en bandeja de entrada.

Hipótesis útil: “Creo que un preheader con prueba social aumentará aperturas en contactos fríos porque reduce la duda inicial”.

Métrica principal: apertura. Métrica de control: clic posterior. Si la apertura sube y el clic cae, quizá el mensaje atrae curiosidad pero no intención.

3. Remitente

El remitente influye en confianza y reconocimiento. Puedes probar nombre de marca, persona concreta, equipo o combinación de persona más marca.

Hipótesis útil: “Creo que un remitente personal aumentará aperturas en clientes activos porque ya reconocen al equipo”.

Métrica principal: apertura. Métricas de control: respuestas, bajas y quejas. Si un remitente personal aumenta respuesta pero también confusión, el aprendizaje no es tan claro.

4. CTA

El CTA conecta el email con la acción. Tiene sentido probarlo cuando la campaña abre bien pero no consigue visitas o leads.

Hipótesis útil: “Creo que un CTA más específico aumentará clics en clientes activos porque expresa mejor el siguiente paso”.

Métrica principal: CTR. Métrica secundaria: CTOR, conversión posterior y calidad del clic. No todos los clics valen lo mismo.

5. Oferta o propuesta de valor

La oferta es una de las pruebas con más impacto, pero también una de las más delicadas. Cambiar el incentivo puede cambiar la intención del contacto, el margen y la calidad de la conversión.

Hipótesis útil: “Creo que una oferta centrada en ahorro de tiempo aumentará conversiones en pymes porque conecta con su principal fricción”.

Métrica principal: conversión o ingresos. Métricas de control: clics, bajas, margen y calidad del lead.

6. Creatividad o plantilla

La plantilla afecta a lectura, jerarquía visual y confianza. Tiene sentido probarla cuando el mensaje es claro pero el email no guía bien hacia la acción.

Hipótesis útil: “Creo que una plantilla más breve aumentará clics útiles en móvil porque reduce el número de decisiones dentro del email”.

Métrica principal: clic útil. Métrica secundaria: scroll, conversión y bajas, si tienes esos datos disponibles.

7. Segmento o timing

Segmento y timing no son pruebas pequeñas. Cambian el contexto completo del envío, así que solo conviene testearlos si tienes volumen y una razón clara.

Hipótesis útil: “Creo que enviar la oferta a compradores recientes tendrá más conversión que enviarla a leads fríos porque ya conocen el producto”.

Métrica principal: conversión por segmento. Métricas de control: ingresos, bajas y repetición de compra.

Regla práctica

Si no puedes explicar en una frase qué aprendizaje esperas obtener, todavía no tienes un test. Tienes dos versiones de una campaña.

Qué métrica usar según el objetivo del test

La métrica correcta depende del objetivo. Las aperturas sirven para comparar atención inicial, pero no responden a preguntas de venta. Los clics leen intención. Las conversiones leen negocio. Las bajas y quejas ayudan a detectar si el test gana a costa de dañar la relación con la lista.

Objetivo

Variable típica

Métrica primaria

Métrica secundaria

Mejorar atención inicial

Asunto, remitente o preheader

Apertura

Clics, bajas y quejas

Conseguir visitas

CTA o propuesta

CTR

CTOR y clic útil

Vender

Oferta o incentivo

Conversiones o ingresos

CTR, margen y bajas

Reducir fricción

Diseño o estructura

Clics útiles

Tiempo hasta conversión

Aprender mensaje

Enfoque de copy

Clic por segmento

Respuestas y bajas

Validar newsletter

Asunto o bloque principal

Clics por bloque

Apertura y respuestas

Google recomienda en sus directrices para remitentes enviar correo solo a personas que quieran recibirlo y vigilar señales como spam, bajas y engagement. Esa lectura afecta al A/B testing: una variante que gana clics pero aumenta quejas puede no ser una buena decisión a medio plazo.

Para leer mejor cada indicador, conviene separar los KPIs de email marketing por objetivo. No es lo mismo medir una newsletter, una campaña comercial, una reactivación o una prueba de asunto.

Prueba asuntos, remitentes y métricas sin complicar cada envío
Obtén una prueba gratuita de 30 días de las funciones premium No se requiere tarjeta de crédito

Cómo plantear una hipótesis útil

Una hipótesis útil tiene cambio, métrica, segmento y razón. Si falta una de esas piezas, el test se vuelve interpretativo. La fórmula más simple es: “Creo que [cambio] mejorará [métrica] en [segmento] porque [razón]”.

Ejemplos válidos:

  • Creo que un asunto con beneficio concreto aumentará aperturas en leads nuevos porque entenderán antes qué van a recibir.

  • Creo que un CTA con acción específica aumentará el CTR en clientes activos porque reduce la duda sobre el siguiente paso.

  • Creo que una oferta sin descuento aumentará leads cualificados en pymes B2B porque evita atraer solo a usuarios sensibles al precio.

  • Creo que una plantilla más corta aumentará clics en móvil porque elimina bloques secundarios.

Ejemplos débiles:

  • “Vamos a probar dos asuntos para mejorar la campaña”. No hay razón ni aprendizaje esperado.

  • “Vamos a cambiar asunto, diseño y CTA para ver qué pasa”. Hay demasiadas variables.

  • “Gana la versión con más aperturas”. Puede estar bien si el objetivo era abrir; no si buscabas ventas.

Si necesitas priorizar ideas antes de testear, el content scoring ayuda a decidir qué mensaje merece pasar por una campaña y cuál debería quedarse fuera.

Errores frecuentes al hacer A/B testing en email marketing

La mayoría de errores en A/B testing no son técnicos. Son decisiones mal planteadas antes del envío: demasiadas variables, poca muestra, métrica equivocada o conclusiones demasiado grandes para un test pequeño.

  1. Probar demasiadas cosas a la vez. Si cambias asunto, diseño, CTA y oferta, no sabrás qué causó el resultado.

  2. Elegir ganador por apertura cuando el objetivo era clic o venta. La métrica debe responder a la pregunta de negocio.

  3. Usar una muestra demasiado pequeña. Las diferencias pequeñas necesitan volumen para ser fiables.

  4. Esperar poco tiempo antes de decidir. Algunas campañas reciben clics horas después de la apertura inicial.

  5. Copiar el resultado a otro segmento sin validar. Lo que funciona en clientes activos puede no funcionar en leads fríos.

  6. Declarar ganador por diferencias mínimas. No todas las diferencias merecen cambiar tu estrategia.

  7. Repetir tests de asuntos sin mejorar oferta o contenido. A veces el problema no está en la bandeja de entrada, sino en el valor del email.

Un buen test deja una decisión concreta: mantener un enfoque, ajustar un mensaje, descartar una oferta o diseñar la siguiente prueba. Si solo deja una captura con dos porcentajes, se queda corto.

Cómo encaja Easymailing en tus pruebas A/B

Easymailing encaja cuando quieres pasar de intuición a pruebas controladas sin convertir cada campaña en un proyecto técnico. La documentación pública de la plataforma de email marketing confirma campañas test A/B con variantes de asunto y remitente, tamaño de grupo de prueba, criterio ganador por aperturas o clics y periodo de espera antes de enviar la versión ganadora.

Dentro de una estrategia de email marketing, esto permite probar decisiones concretas antes de escalar un envío. También puedes conectar el aprendizaje con tus campañas de email marketing: newsletter, promoción, lanzamiento, reactivación o comunicación a clientes.

No hace falta convertir cada envío en un experimento. Lo sensato es elegir campañas donde el aprendizaje tenga valor futuro: una newsletter recurrente, una oferta que repetirás, un asunto para un segmento importante o una propuesta comercial que quieres afinar.

Crea campañas de email marketing con pruebas A/B más claras
Obtén una prueba gratuita de 30 días de las funciones premium No se requiere tarjeta de crédito

Cierre: mide la decisión, no la curiosidad

Un test A/B útil no demuestra que una versión “sea mejor” para siempre. Demuestra que, en una campaña, para un segmento y con una métrica concreta, una opción respondió mejor que otra.

Esa lectura es suficiente si la usas bien. Prueba una variable, mide la métrica que toca y convierte el resultado en una decisión para el siguiente envío.

No gana quien hace más tests. Gana quien aprende algo accionable de cada campaña.

¿Qué es A/B testing en email marketing?

El A/B testing en email marketing compara dos o más variantes de una campaña para medir cuál responde mejor a una hipótesis. Puede aplicarse al asunto, remitente, preheader, CTA, oferta o plantilla. La clave es probar una variable y elegir una métrica que encaje con el objetivo.

¿Qué puedo probar en un test A/B de email?

¿Es mejor medir aperturas o clics en un test A/B?

¿Cuánta lista necesito para hacer un test A/B?

¿Puedo hacer test A/B con una newsletter?

¿Qué diferencia hay entre test A/B y segmentación?