Quando non sei soddisfatto dell’andamento di una tua campagna, il modo migliore per aumentare il tasso di conversione è eseguire un AB test.
L’AB test non è altro che un esperimento (eseguito su una landing page, su un’inserzione, etc) che si divide in due versioni molto simili, dove si va variare un elemento mostrandolo a due sezioni di pubblico per capire quale versione funziona meglio.
Nel web marketing, questo tipo di esperimento, è molto importante e non a tutti è presente la sua enorme potenzialità: l’AB test, se ben eseguito, può fornire vantaggi determinanti.
Con questo articolo, voglio mostrarti quali sono gli errori più frequenti da non commettere quando si esegue un AB test.
Indice
I 4 errori da non commettere in un AB test
L’AB test, come abbiamo visto, è quindi molto utile nel web marketing. Tuttavia, spesso si tende a commettere errori comuni ma che è possibile identificare e correggere mediante un processo molto semplice. Vediamo insieme quali sono.
#1 Trarre conclusioni affrettate
L’AB test ha bisogno di tempo: necessiti di dati effettivi, visite, statistiche reali. Trarre conclusioni affrettate non porterà a nulla. Come risolvere questo problema?
- assicurati di avere abbastanza dati per avere statistiche reali sulle varie versioni;
- esegui test per minimo 7 giorni consecutivi: il comportamento degli acquirenti può variare in base ai giorni della settimana, ad esempio;
- raggiungi un elevato traffico: solo con un buon numero di visitatori potrai capire quale versione è effettivamente la migliore.
#2 Testare troppe variazioni in un’unico AB test
Un errore molto frequente è quello di creare due versioni con molte variazioni l’una rispetto all’altra. Sbagliatissimo! Cambiando troppi elementi, non capirai mai qual è quello che porta una benefici all’andamento. Come risolvere questo problema?
- sii paziente, cambia un elemento alla volta per ogni AB test;
- concentrati prima sulle best practices prima delle prove complesse: colori, grandezze, call to action, offerta, testi.
#3 Pensare che tutti i visitatori siano uguali
Spesso e volentieri, il comportamento e le preferenze dei vari gruppi di utenti sono diversi. Pensare che siano tutti uguali, è un errore madornale. Come risolvere questo problema?
- monitora quali segmenti di utente funzionano meglio: gruppi di utenti nuovi, utenti che ritornano, se la versione A ha avuto un rendimento migliore ma la versione B è molto affine ai visitatori degli annunci PPC.. informazioni molto utili;
- monitora le preferenze dei vari gruppi di utenti;
- monitora il comportamento dei vari gruppi di utenti.
#4 Eseguire test senza ipotesi e processo
Questa tipologia di test dev’essere necessariamente basato su un processo prestabilito e delle ipotesi ben strutturate, non si tratta di test fatti a caso.
Inoltre, un altro errore affine è quello di basarsi su ciò che si ottiene su un singolo passaggio di esperimento: mi spiego meglio, eseguire un solo AB test ed applicare la versione che ha ricevuto risultati migliori tra le due è un errore, dovrà essere canalizzata in altri test. Come risolvere questi problemi?
- prestabilisci un processo accurato prima di eseguire gli esperimenti;
- struttura delle ipotesi di test prima di eseguire qualsiasi operazione;
- canalizza le varie versioni in altri AB test.