La mayoría de las cuentas de Google Ads se basan en suposiciones. «Performance Max necesita el 60% del presupuesto». «Las campañas de búsqueda y compras compiten por los mismos clics». «Demand Gen canibaliza las conversiones existentes».
¿Qué pasaría si pudieras probar estas suposiciones en lugar de adivinar? Experimentos con múltiples campañas es una función de versión beta cerrada que te permite probar diferentes estructuras de cuentas de forma simultánea, comparar las divisiones de Search + Performance Max, probar estrategias de pujas de cartera en varias campañas o medir si añadir Demand Gen realmente genera conversiones incrementales.
A diferencia de los experimentos estándar que prueban los cambios en una sola campaña, los experimentos con varias campañas evalúan las decisiones estratégicas a nivel de cuenta. Además, los resultados suelen contradecir la sabiduría convencional sobre lo que funciona.
Lo que pasan por alto los experimentos estándar
Tradicional Experimentos de Google Ads funcionan a la perfección para probar estrategias de puja, variaciones de anuncios o páginas de destino en una sola campaña. Cambia tu CPA objetivo por un ROAS objetivo, divide el tráfico 50/50 y comprueba cuál funciona mejor.
Sin embargo, ese enfoque se estropea cuando necesitas probar las interacciones entre varias campañas:
- La cuestión de la canibalización: ¿Performance Max roba las conversiones de tus campañas de búsqueda o encuentra tráfico realmente incremental? Un experimento con una sola campaña no puede responder a esta pregunta porque ambas campañas deben ejecutarse simultáneamente con los grupos de control adecuados.
- La cuestión de la asignación presupuestaria: ¿Deberías ejecutar 3 campañas de búsqueda + 1 de rendimiento máximo o 2 de búsqueda + 2 de rendimiento máximo? Probar esto requiere comparar configuraciones estratégicas completas, no cambios aislados en la campaña.
- La pregunta sobre la licitación de la cartera: ¿Agrupar 5 campañas en una cartera de ROAS objetivo supera las estrategias individuales de CPA objetivo? No puedes probar una campaña a la vez cuando el objetivo es probar el efecto del portafolio.
Eso es lo que resuelven los experimentos de campañas múltiples. Según Documentación de Google, «permiten que las campañas experimentales que cumplen ciertos criterios se traten como un grupo», y los usuarios se asignan de manera uniforme a todo el grupo mediante divisiones basadas en cookies.
Cómo funcionan realmente los experimentos de múltiples campañas
Creas dos «brazos» de experimentos y considéralos como configuraciones de cuentas completas que se ejecutan en paralelo.
Brazo de control (configuración A):
- 3 campañas de búsqueda con el CPA objetivo
- 1 Campaña Performance Max con un presupuesto de 5000$ al mes
- Todas las campañas en portafolios individuales
Brazo de tratamiento (configuración B):
- 2 campañas de búsqueda con Target ROAS
- 2 campañas de Performance Max con un presupuesto total de 7.500 USD al mes
- Todas las campañas agrupadas en una estrategia de cartera compartida
Google divide a los usuarios 50/50. La mitad del tráfico ve la configuración A y la otra mitad ve la configuración B. Después de 4 a 6 semanas, comparas las conversiones totales, el ROAS y el coste por adquisición en ambas divisiones.
El ganador no es que «esta campaña individual tuvo un mejor desempeño», sino que «todo este enfoque estratégico generó más ingresos con una mayor eficiencia».

Por qué son importantes las divisiones basadas en cookies
Los experimentos de campañas múltiples utilizan la asignación basada en cookies. Una vez que Google asigna a un usuario la función de control o tratamiento, ese usuario solo verá de forma sistemática las campañas de esa rama en todas las búsquedas y sesiones de navegación futuras.
Esto evita la contaminación cruzada. Si el usuario A está asignado a Control y ve tu anuncio de Búsqueda el lunes, no verá de repente tu anuncio de Treatment Performance Max el miércoles. Experimentan una estrategia coherente.
Las divisiones basadas en búsquedas (en las que cada consulta de búsqueda individual se asigna aleatoriamente a Control o Tratamiento) dañarían la prueba al permitir que el mismo usuario interactúe con configuraciones de campaña de la competencia.
Casos de uso
Comparando Performance Max con las compras tradicionales
Una marca de comercio electrónico llevó a cabo campañas de compras estándar durante tres años con un ROAS constante. Performance Max prometió mejores resultados, pero cambiarlo todo parecía arriesgado.
Configuración de experimentos de campañas múltiples:
- Controlar: 4 campañas de compras existentes + 2 campañas de búsqueda
- Tratamiento: Las mismas 2 campañas de búsqueda y 1 nueva campaña de Performance Max (en sustitución de Shopping)
Resultado: Performance Max generó un 18% más de conversiones con un CPA un 12% más bajo. Sin embargo, las campañas de búsqueda de la rama de tratamiento registraron un 8% menos de conversiones. Performance Max estaba captando parte de la demanda de búsqueda. El total de conversiones de cuentas siguió aumentando un 11%, lo que demuestra que Performance Max añadió un nuevo valor neto a pesar de una pequeña canibalización.
Sin experimentos de múltiples campañas, nunca habrían medido ese efecto de interacción.
Asignación del presupuesto entre los tipos de campaña
Una empresa de SaaS B2B gastó 40 000$ al mes en 5 campañas de búsqueda y 1 campaña de Performance Max. La pregunta: ¿Performance Max debería tener más presupuesto?
Configuración:
- Controlar: 70% de búsqueda/30% de rendimiento máximo (28 000$/12 000$)
- Tratamiento: 40% de búsqueda, 60% de rendimiento máximo (16 000 dólares/24 000 dólares)
Resultado: el grupo de tratamiento generó un 23% más de clientes potenciales calificados (rastreados a través de seguimiento de conversiones adecuado) a un costo similar por cliente potencial. Performance Max necesitaba más presupuesto para desarrollar todo su potencial.
La empresa pasó gradualmente a una asignación de 45/55 en función de los resultados del experimento.
Prueba de estrategia de oferta de cartera
Este es el principal caso de uso documentado en la ayuda oficial de Google. Un anunciante con 8 campañas que generaban un volumen de conversión individual limitado quería probar el ROAS objetivo, pero no pudo alcanzar la significación estadística probando una campaña a la vez.
Experimento de campañas múltiples:
- Controlar: Las 8 campañas que utilizan el CPA objetivo de la cartera existente
- Tratamiento: Las 8 campañas que utilizan Target ROAS en la nueva cartera
Tras seis semanas con el volumen agregado de todas las campañas, los resultados mostraron que el ROAS objetivo generó un 9% más de valor de conversión con el mismo gasto total. Las campañas individuales habrían necesitado de 4 a 5 meses cada una para alcanzar su relevancia.
Cómo obtener acceso (no es público)
Los experimentos de varias campañas permanecerán en fase beta cerrada a partir de enero de 2026. No puedes activarlos sin más en tu cuenta de Google Ads.
Para solicitar acceso:
- Ponte en contacto directamente con tu representante de Google Ads y solicita unirte a la beta de experimentos de varias campañas
- Alternativa: Envía una solicitud de asistencia a través de la Ayuda de Google Ads mencionando específicamente los experimentos con varias campañas
- Prepárate para explicar tu caso de uso: Google prioriza las cuentas con necesidades claras de pruebas estratégicas y un volumen de conversión suficiente
La documentación de Google establece explícitamente que debes «preguntar al representante de tu cuenta o ponerte en contacto con el servicio de asistencia para poder participar».
¿Quién debería molestarse en solicitarlo?
Esta función tiene sentido para:
- Cuentas que ejecutan varios tipos de campañas donde los efectos de interacción importan (Search + Performance Max, Shopping + Demand Gen)
- Agencias que prueban las estructuras de cuentas en varios clientes que necesitan pruebas antes de realizar grandes cambios
- Anunciantes con un volumen limitado por campaña pero suficientes conversiones agregadas (los experimentos de varias campañas agrupan el volumen para obtener una significación estadística más rápida)
Si publicas una sola campaña de Performance Max sin presencia en la Búsqueda, los experimentos estándar te serán más útiles.
Requisitos de configuración
Si bien la configuración exacta varía (se trata de una versión beta con documentación limitada), los artículos de ayuda de Google revelan los requisitos principales:
Las estrategias de oferta de cartera son obligatorias
No puedes realizar experimentos con varias campañas sin estrategias de puja de cartera. Tanto las ramas de control como las de tratamiento necesitan campañas agrupadas en portafolios.
Ejemplo de estructura:
- Control Arm: campañas de 1 a 4 en «Portafolio A» con el CPA objetivo
- Grupo de tratamiento: campañas 1 a 4 en el «Portafolio B» con el ROAS objetivo
Limitación crítica: Los presupuestos compartidos no funcionan con experimentos. Cada campaña necesita un presupuesto individual, no un fondo común.
Volumen de conversión suficiente
Google recomienda tener al menos 10 000 usuarios en las listas de audiencia cuando utilice divisiones basadas en cookies. Para las pruebas de estrategia de pujas, necesitas suficientes conversiones agregadas para alcanzar la significación estadística en un plazo de 4 a 6 semanas.
Guía general: si tus campañas individuales carecen de volumen de conversiones para los experimentos estándar, los experimentos con varias campañas ayudan a agrupar el volumen. Sin embargo, el total debe seguir siendo significativo.
Configuración uniforme del experimento
Google recomienda:
- Las mismas fechas de inicio para todas las campañas del experimento
- Mismas fechas de finalización
- División 50/50 entre control y tratamiento
- Divisiones basadas en cookies (no basadas en búsquedas)
Esto garantiza que las audiencias experimenten el Control o el Tratamiento de manera consistente, nunca una combinación de ambos.
Lo que realmente se prueba con esto
El caso de uso más documentado es comparación de estrategias de oferta de cartera, probando el ROAS objetivo con el CPA objetivo en varias campañas simultáneamente.
Sin embargo, la versión beta también admite pruebas:
- Mezclas de tipos de campaña: Búsqueda + Compras + Rendimiento máximo (control) frente a Búsqueda + Rendimiento máximo + Generación de demanda (tratamiento)
- Distribuciones presupuestarias: Las mismas campañas con diferentes límites presupuestarios para ver qué asignación maximiza las conversiones totales
- Expansiones geográficas: Campañas actuales (Control) frente a campañas actuales y nuevas campañas con segmentación geográfica (Tratamiento)
La restricción clave: pruebe una variable a la vez. Si cambias los tipos de campaña y las estrategias de puja simultáneamente, no podrás saber qué variable generó resultados.
Por qué los resultados tardan de 4 a 6 semanas
Las estrategias de pujas automatizadas de Google necesitan tiempo para aprenderse. Las campañas de CPA objetivo y ROAS objetivo entran en una fase de aprendizaje durante las primeras 2 a 3 semanas, a medida que el algoritmo recopila datos.
Probar las estrategias de oferta antes de que finalice la fase de aprendizaje produce resultados poco fiables.
Además, el volumen de conversión necesita tiempo para acumularse para obtener significación estadística. Un experimento que muestre una mejora del 8% después de 10 días podría retroceder hasta el 1% en la cuarta semana a medida que lleguen más datos.
La interfaz de experimentos de Google calcula la confianza estadística y declara ganadores cuando se alcanzan los umbrales, pero cumplir con el mínimo completo de 4 a 6 semanas evita que se produzcan falsos positivos en una variación aleatoria temprana.
Seguimiento de experimentos de múltiples campañas con Dataslayer
Google Ads muestra una comparación básica de experimentos (conversiones, coste, ROAS para el control y el tratamiento), pero al conectar esos datos con informes más amplios se obtienen conocimientos más detallados.
Capa de datos sincroniza automáticamente los datos de Google Ads, incluidas las métricas de los experimentos, con Google Sheets, Looker Studio, BigQuery o Power BI. Esto permite:
Contexto histórico de desempeño
Compara los resultados de los experimentos con el rendimiento de tu cuenta antes de la prueba para ver si el brazo ganador realmente supera tu punto de referencia histórico o simplemente supera al brazo perdedor del experimento.
Ejemplo: El grupo de tratamiento muestra un ROAS un 12% más alto que el grupo de control. ¡Genial! Sin embargo, el ROAS de tu cuenta antes del experimento era un 15% más alto que el de Treatment. El experimento te ayudó a elegir la mejor de dos configuraciones mediocres. Ahora sabes que ninguna de las dos opciones se ajusta a tu rendimiento máximo.
Correlación multiplataforma
Los experimentos con varias campañas ponen a prueba la estructura de Google Ads, pero el éxito final depende de lo que suceda después del clic. Conecta los datos del experimento de Google Ads con GA4 para ver:
- ¿El brazo ganador del experimento generó tráfico de mayor calidad que generó mejores conversiones en tu sitio?
- ¿Atrajo a diferentes segmentos de audiencia?
- ¿Cuál fue el impacto en los ingresos posteriores, más allá de las conversiones de Google Ads?
Paneles de informes automatizados
Cree paneles de control automatizados que se actualizan a diario con el rendimiento de los experimentos, lo que elimina las exportaciones manuales. Trayectoria:
- Rendimiento diario del experimento durante todo el período de prueba
- Desgloses por dispositivo, ubicación y audiencia para cada brazo experimental
- Métricas comparativas que muestran el control frente al tratamiento en todas las dimensiones
El generador de consultas de Dataslayer te permite filtrar por la dimensión «Tipo de experimento de campaña» para separar los datos de tratamiento y control en tus informes.

Errores comunes
También de pruebas Muchos Variables
Configuración incorrecta:
- Control: campañas de búsqueda con el CPA objetivo, Performance Max con Maximizar las conversiones
- Tratamiento: generación de demanda con el ROAS objetivo, rendimiento máximo con el CPA objetivo
Se trata de probar 3 variables: los tipos de campaña, las estrategias de oferta y las interacciones de las campañas. No tendrás ni idea de qué cambio provocó los resultados.
Mejor configuración:
- Control: Búsqueda y rendimiento máximo, ambos con el CPA objetivo
- Tratamiento: Search + Performance Max, ambos con Target ROAS
Ahora estás probando una variable (estrategia de pujas) mientras controlas el tipo y la estructura de la campaña.
Finalizar las pruebas demasiado pronto
Ver resultados positivos después de 12 días te tienta a declarar la victoria y aplicar el Tratamiento a toda tu cuenta. Eso es un error.
Los algoritmos de puja no se han estabilizado. No se ha tenido en cuenta la estacionalidad semanal. La significación estadística puede estar impulsada por una variación aleatoria.
Ejecute de 4 a 6 semanas completas, incluso si la interfaz de Google muestra una significación estadística antes. La paciencia adicional evita errores costosos derivados de falsos positivos.
Olvidarse de los efectos de interacción
En realidad, esto es lo que resuelven los experimentos de varias campañas, pero es necesario interpretar los resultados correctamente.
Si la rama de tratamiento (con más presupuesto de Performance Max) gana, no significa necesariamente que «Performance Max sea mejor que Search». Podría significar que «Performance Max con un 60% de presupuesto y Search con un 40% de presupuesto funciona mejor que a la inversa».
La configuración ganadora es el paquete completo, no los tipos de campaña individuales de forma aislada.
Experimentos de múltiples campañas frente a otros métodos de prueba
frente a los experimentos estándar
Experimentos estándar: Prueba los cambios en una campaña. Disponible para todos. Ideal para pruebas tácticas (ofertas, anuncios, palabras clave).
Experimentos con varias campañas: Prueba campañas agrupadas. La beta cerrada requiere aprobación. Ideal para pruebas estratégicas (estructura de campañas, ofertas de cartera).
contra Performance Max Uplift Experiments
Mejora máxima del rendimiento: Prueba preconfigurada que mide el valor incremental de agregar Performance Max a su cuenta. Disponible para todos.
Experimentos con varias campañas: Agrupaciones de campañas totalmente personalizables. Diseñas tanto los brazos de control como los de tratamiento. Requiere acceso a la versión beta.
frente a Conversion Lift Studies
Elevador de conversión: Comprueba si la publicidad genera conversiones incrementales comparando a los usuarios expuestos con los del grupo de control que no vio anuncios. Mide la incrementalidad total de la publicidad.
Experimentos con varias campañas: Compara diferentes estrategias publicitarias. Ambos brazos incluyen anuncios. Mide qué enfoque estratégico funciona mejor.
Cuándo es probable que esta función no lo ayude
Los experimentos con varias campañas resuelven problemas específicos. No los obligues a usar en situaciones en las que los experimentos estándar funcionan bien:
Cuentas de un solo tipo de campaña: Si solo publicas campañas de búsqueda, prueba las estrategias de puja, las variaciones de anuncios y las palabras clave en campañas individuales. No es necesario recurrir a la complejidad de varias campañas.
Volumen de conversión extremadamente bajo: Si tu cuenta genera menos de 20 conversiones por semana en total, ni siquiera la agrupación de varias campañas alcanzará significación estadística en 6 semanas. Céntrate en aumentar las conversiones antes de realizar las pruebas.
Cambios tácticos: ¿Estás probando el texto de los anuncios, las páginas de destino o los tipos de concordancia de palabras clave? Los experimentos estándar son más rápidos y sencillos. Guarda los experimentos de varias campañas para tomar decisiones estratégicas a nivel de cuenta.
El panorama general: pensamiento a nivel de cuenta
La mayoría de los anunciantes optimizan a nivel de campaña. ¿Esta campaña de búsqueda debe utilizar el CPA objetivo o maximizar los clics? ¿Cuál es la oferta óptima para esta campaña de compras?
Los experimentos con varias campañas obligan a pensar a nivel de cuenta. No «qué campaña es la mejor», sino «qué enfoque estratégico completo es el mejor».
Ese cambio es importante porque las campañas interactúan. Performance Max compite con Search en las subastas. Las campañas de compras y Performance Max se centran en las mismas búsquedas de productos. Generación de demanda puede atraer a las audiencias que se convierten más adelante a través de la Búsqueda.
Al probar las campañas de forma aislada se pierden esas interacciones. Los experimentos con varias campañas las capturan poniendo a prueba configuraciones estratégicas completas unas contra otras.
La función permanece en versión beta cerrada con un calendario poco claro para su lanzamiento más amplio a partir de enero de 2026. Sin embargo, comprender cómo funciona te prepara para solicitar el acceso de forma eficaz y diseñar pruebas estratégicas cuando estén disponibles.
Por ahora, la mayoría de los anunciantes seguirán utilizando experimentos estándar para las pruebas tácticas. Sin embargo, las cuentas con varios tipos de campañas, con un volumen limitado por campaña o con preguntas estratégicas claras sobre las interacciones de la campaña deberían solicitar el acceso a la versión beta.
Las respuestas pueden contradecir todo lo que supuso acerca de la estructura de su cuenta.
¿Está preparado para realizar un mejor seguimiento de sus datos de Google Ads?
Ya sea que estés probando campañas individuales o preparándote para experimentos con varias campañas cuando obtengas acceso a la versión beta, Dataslayer sincroniza automáticamente los datos de Google Ads con Google Sheets, Looker Studio, BigQuery o Power BI.
Conecta Google Ads con GA4, Meta Ads, LinkedIn y más de 50 plataformas para realizar análisis de marketing unificados sin exportaciones manuales.
Pruebe Dataslayer gratis durante 15 días para crear paneles automatizados que se actualicen a diario en función del rendimiento de su publicidad. No se requiere tarjeta de crédito.
PREGUNTAS MÁS FRECUENTES
¿Puedo acceder a los experimentos de varias campañas ahora mismo?
No. Se trata de una versión beta cerrada que requiere la aprobación de tu representante o equipo de asistencia de Google Ads. Para solicitar el acceso, ponte en contacto con ellos directamente y explica tus necesidades de prueba.
¿En qué se diferencia esto de los experimentos habituales?
Los experimentos regulares prueban los cambios en una sola campaña. Los experimentos con varias campañas prueban las campañas agrupadas como unidades estratégicas y miden las decisiones a nivel de cuenta, como las combinaciones de tipos de campaña o las estrategias de pujas de cartera.
¿Qué tipos de campañas puedo probar?
Campañas de búsqueda, rendimiento máximo, compras, generación de demanda, vídeo y aplicaciones. Puedes mezclar diferentes tipos en cada brazo experimental para probar las configuraciones estratégicas.
¿Cuánto tiempo deben durar las pruebas?
Mínimo de 4 a 6 semanas. Las pujas automatizadas necesitan de 2 a 3 semanas para salir de las fases de aprendizaje, y necesitas un volumen de conversiones suficiente para que sean significativas desde el punto de vista estadístico. No termines antes de tiempo, aunque los resultados parezcan claros.
¿Necesito una configuración especial para el seguimiento de conversiones?
No específicamente para experimentos de múltiples campañas, pero seguimiento de conversiones adecuado es obviamente fundamental para que cualquier experimento produzca resultados significativos.
¿Puedo probar más de dos configuraciones simultáneamente?
La documentación de Google menciona probar «hasta 5» configuraciones estratégicas diferentes, pero la mayoría de las pruebas utilizan 2 brazos (control y tratamiento) para una comparación más clara.
¿Qué ocurre si mi experimento no muestra ningún ganador?
Si los resultados no son estadísticamente significativos después de 6 semanas, significa que ambos enfoques estratégicos funcionan aproximadamente igual. O bien está bien, o necesita probar configuraciones diferentes de manera más radical.
¿Esta función estará disponible para todos en algún momento?
Probablemente. Por lo general, Google cambia las funciones de la beta cerrada a la beta abierta y luego a la disponibilidad general. Sin embargo, no hay un cronograma oficial para los experimentos con varias campañas.







