En la Tierra a lunes, diciembre 23, 2024

Cómo predecimos la conversión con big data y machine learning

PorJosé Manuel Sánchez, Head of Web & Mobile Development en el Dpto. de Tecnología de T2O media; y Álvaro Sánchez, CTO en T2O media.

En T2O media amamos el storydoing más que el storytelling y por eso hemos querido ponernos manos a la obra para entender cómo aplicar a la realidad de las campañas estas nuevas oportunidades tecnológicas. Big Data y Machine Learning suenan muy bien, pero el objetivo es siempre uno: ¿cómo podemos potenciar el negocio de nuestro cliente? ¿De qué manera nos ayudan a mejorar el rendimiento de nuestras acciones de comunicación y publicidad?

Hace años que el equipo se puso manos a la obra para entender cómo aplicar el Big Data a la los proyectos de la agencia, y nuestro grupo de trabajo multidisciplinar llegó a la conclusión de que el Big Data no era el fin sino el medio: lo verdaderamente valioso del poseer esa gran cantidad de información es “ponerla a trabajar”. ¿Cómo hacerlo? A través de algoritmos de Machine Learning, capaces de encontrar patrones y relaciones entre esa infinidad de pistas que deja la interacción usuario-marca, y a partir de ahí, “predecir el futuro” de las próximas interacciones.

Big Data y Machine Learning: primeros pasos

¿Qué fue necesario para ponernos en marcha?

  • Elegimos con quién lanzar el proyecto piloto: uno de los clientes que más apuestan por la innovación y que pertenece a uno de los sectores más competitivos, Travel.
  • Identificamos las principales fuentes de datos: DoubleClick Campaign Manager resultó ser perfecta para ello, debido al histórico con el que ya contábamos. ¡Solamente para el mercado español disponíamos de unas 500 mil filas/usuarios con 110 columnas/carácteristicas!
  • Nos marcamos la meta: predecir la probabilidad de conversión de un usuario (es decir, en este caso, adivinar si iba a reservar o no en alguno de los hoteles de nuestro cliente).

Preparación del Data, elección del algoritmo y entrenamiento

  • 1. Recolectamos la gran variedad de información de la que disponíamos: identificador del usuario, tipo de dispositivo, geolocalización, estacionalidad o medio desde el que llega el consumidor.
  • 2. Tratamos todos los datos y los dejamos listos para el algoritmo gracias al Big Data: para ello contamos con Google Cloud Platform y su producto DataProc (implementación de Spark, para los lectores más avanzados).
  • 3. Después de realizar una labor de investigación encontramos el algoritmo que mejor funcionaba para problemas de clasificación: Random Forest. ¿En qué consiste este algoritmo? Clasifica a los usuarios conversores y no conversores en base a las distintas variables escogidas anteriormente, generando árboles de decisión donde estas características se distribuyen de forma aleatoria.
  • 4. Afinamos el algoritmo lo máximo posible. Eliminamos los outliers, datos “raros” que en lugar de mejorar el algoritmo lo que hacen es introducir ruido, como por ejemplo los datos generados por usuarios de prueba o arañas de los buscadores.

Otra de las técnicas fue cambiar los pesos para que los datos estuviesen correctamente balanceados: hay muchos más usuarios que no convierten de los que convierten, pero los conversores – a pesar de ser menos – merecen toda nuestra atención. Para ello ajustamos los pesos de modo que el algoritmo encontrara a los usuarios más importantes, es decir a aquellos que convierten.

Del mismo modo pensamos que no todas las columnas eran igual de importantes: de hecho comprobamos que es más beneficioso centrarse en algunas variables relevantes que contemplar una mayor cantidad de características alrededor del usuario y su comportamiento. Incluso en un contexto de Big Data, a veces menos es más: “podar algunas de las ramas” en los árboles de decisión facilitaba el trabajo de la inteligencia artificial.

  • 5. Llevamos nuestro algoritmo al “mundo real”: lo configuramos para que predijese si un usuario iba a convertir al día siguiente en base a los datos que habíamos recogido. Resultado: el modelo había clasificado correctamente al 85% de los usuarios conversores.

Cómo aplicamos el algoritmo a la compra de medios digitales

Nuestro enfoque de Big Data y Machine Learning es bastante pragmático, en línea con nuestra filosofía, donde el foco está siempre en la búsqueda de resultados.

En este sentido, el objetivo era activar la información que habíamos conseguido en el entorno digital y llevar el algoritmo a la compra de medios.

Para ello generamos listas de audiencia en DoubleClick Campaign Manager agrupando a aquellos usuarios con mayores probabilidades de conversión (dato que nos facilitaba el modelo) y por otro lado a los usuarios que – según lo aprendido con Machine Learning – no tenían ninguna probabilidad de hacerlo.

Este último dato resultó ser muy útil ya que, en el caso de la cadena hotelera, hay muchos usuarios que hacen sus reservas a través de un comparador y luego visitan la web sólo para consultar servicios y/o fotos. De esta manera podíamos identificar a este público y negativizarloen nuestras estrategias de remarketing (¿para qué buscarte y hablarte de mi hotel si en realidad ya tienes tu reserva hecha?).

Dejamos funcionar a estas listas de audiencia en el DSP de DoubleClick a la vez que las listas tradicionales y los resultados fueron los esperados: en la campaña de publicidad programática las Smart Lists de usuarios conversores funcionaban mejor que la listas “tradicionales” – en algunos casos hasta multiplicamos por 5 la eficiencia de nuestras acciones de remarketing según reflejado en algunas de las métricas más relevantes como el CPO – y por otro lado, la de los usuarios no conversores confirmaba que esa audiencia no convertía en ningún momento.

¿Qué nos permite todo esto? Optimizar la compra de medios de una manera mucho más inteligente y automatizada de lo que estábamos haciendo hasta ahora.
En general Big Data y Machine Learning nos ayudan a sofisticar y potenciar nuestro performance en varios ámbitos:

  • Mejora la experiencia del usuario, porque podemos mostrarle un contenido más adaptado a partir de lo que aprendemos
  • Mejora la tasa de conversión, con acciones específicas para cada tipo de usuario y la fase en la que esté
  • La compra de medios es más eficiente, dado que no consumimos presupuesto en usuarios no conversores
  • Detectamos puntos fuertes o débiles del site, viendo qué elementos de la página web influyen más en la decisión del usuario

Big Data y Machine Learning: futuro y mejoras

Con este caso práctico hemos podido comprobar muchas de las ventajas de estas tecnologías y el aprendizaje no termina aquí: el proyecto sigue avanzando cada día 😉

Ya estamos subiendo las Smart Lists a nuevas plataformas como Google Analytics 360 (que nos permite impactar a estas audiencias en Google Adwords y Youtube) y próximamente se podrán cargar en otros DSPs como Mediamath.

Por otro lado, estamos testando nuevos algoritmos como Redes Neuronales Profundas con TensorFlow (que es la tecnología marco de Google para Deep Learning).

Por último ampliamos el alcance del proyecto con la integración de Big Data procedente de más puntos de contacto: los datos del call center son una de las nuevas fuentes de información que estamos implementando para tener en cuenta cómo interactúan los usuarios en el mundo offline e ir completando la visión global del consumidor y su comportamiento.

Trabajar con Big Data y Machine Learning nos ha llevado a iniciar el desarrollo de otros servicios como motores de recomendación de productos, cualificación de los usuarios conversores (no se puja igual por un usuario con una cesta de la compra de 1000 € y por uno con una cesta de 10.000 € etc.) y plataformas integradas donde personalizar el mensaje en función de este conocimiento más profundo de la audiencia (creatividades y landings dinámicas).

 

NOTICIAS RELACIONADAS

Relacionados Posts

Premiados de la XX edición de 'Los mejores de PR'

Noticias recientes

Newsletter
Logo prnoticias

Suscríbete a nuestro newsletter!

Recibirás nuestro boletín de noticias y contenido exclusivo.