Da RFM (Recency, Frequency, Monetary) al Machine Learning

 

Introduzione

Tradizionalmente la classificazione dei clienti in gruppi omogenei e la scelta delle promozioni più pertinenti avvengono in base ai parametri “RFM”, dove R sta per Recency, cioè quanto recente è stato l’ultimo acquisto, F per Frequency, la frequenza di acquisto (oppure la media dei giorni tra un acquisto e l’altro) e M di Monetary indica infine il valore medio di ogni singolo acquisto. Con sistemi informativi tradizionali era importante descrivere i comportamenti di acquisto con pochi e significativi dati, in modo da scrivere facilmente programmi per computer in grado di prendere le decisioni più rilevanti e gradite per ogni cliente.

Ora si può fare molto di più per mezzo del Machine Learning (ML), un sottoinsieme dell’Intelligenza Artificiale (AI) che, come descritto in http://akite.net/it/news/intelli-tail-intelligenza-artificiale-nel-retail, si sta imponendo rapidamente per merito di servizi sempre più accessibili in quanto erogati dal Cloud.

 

Visione ampia e proiettata in avanti

Includendo dati aggiuntivi come, ad esempio, la storia dettagliata degli acquisti di ogni singolo cliente, la risposta alle precedenti promozioni e, se disponibili, dati come età, sesso, professione, … è possibile creare delle liste di raccomandazione (chi ha comperato il prodotto A, spesso compera anche il prodotto B) cui ci hanno abituati i siti più avanzati di eCommerce. Inoltre è possibile definire dei raggruppamenti di clienti (cluster) molto più significativi di quanto avveniva con la semplice metodologia RFM, estraendo significato da insiemi complessi di dati (pattern) attraverso tecniche di ML. Nello stesso modo un computer riesce oggi a valutare sesso, età e addirittura umore di una persona, analizzando i punti colorati (pixel) che compongono l’immagine e addirittura a riconoscere, nel pieno rispetto della privacy, se lo stesso volto è già stato inquadrato qualche minuto prima in altre zone del Punto di Vendita. Rispetto ad un “pattern recognition” di quest’ultimo tipo, distinguere le diverse tipologie di clienti dai loro atti di acquisto è più semplice. E’ altresì evidente che gli algoritmi tradizionali sarebbero troppo complessi da programmare e, ammesso che qualcuno ci riuscisse, una volta messi a punto sarebbero già vecchi perché i consumatori evolvono continuamente.

Inoltre le tradizionali tecniche di BI (Business Intelligence) guardano al passato e, anche se le visualizzazioni grafiche dei dati sono sempre più efficaci, richiedono comunque tempo e attenzione per prendere delle decisioni. Un moderno sistema informativo deve essere in grado di fare proposte rilevanti, come se fosse un consulente esperto e capace di vedere cosa sta per succedere.

Infine tutte queste elaborazioni spesso devono essere istantanee, mentre il cliente sta scegliendo un articolo oppure è già alla cassa e si desidera stampare un coupon che tenga conto non solo della storia passata, ma anche dei prodotti appena acquistati.

 

Dati: più numerosi possibile, ma significativi

Il ML consiste nel fornire grandi volumi di dati a speciali sistemi che, analizzando le correlazioni, creano un modello matematico capace di descrivere, in modo più o meno completo e preciso, il fenomeno in esame. Questa fase di apprendimento (training) o, in altre parole, di “ingestione, digestione e metabolizzazione” dei dati, richiede molte risorse di calcolo. Una volta creato l’algoritmo, “dandogli in pasto” un nuovo dato, si ottiene quasi istantaneamente la previsione, la classificazione, il riconoscimento o la comprensione delle intenzioni.

Come siamo, in una certa misura, quello che mangiamo, allo stesso modo un algoritmo è più o meno efficiente ed efficace in funzione dei dati che gli sono stati forniti nella fase di apprendimento. Un problema sorge quando i dati sono soggetti a pregiudizi o errori, consapevoli o inconsapevoli. I risultati non faranno altro che perpetuare queste deformazioni della realtà. Un altro tipo di problema è quando i dati sono poco significativi e non coprono l’intera gamma di fattori che influenzano il fenomeno o, in altre parole, contengono poca “sostanza e varietà”. Se alcuni dati in ingresso sono mutuamente dipendenti tra loro, l’algoritmo sarà sovraccaricato inutilmente senza ricevere informazioni utili. Il tasso di rotazione delle scorte e i giorni di giacenza media dei prodotti a magazzino, ad esempio, sono lo stesso concetto visto da due punti di vista diversi (giorni giacenza media = 365 / rotazione). Fornire entrambi appesantisce inutilmente il processo di apprendimento. Se invece il tempo fosse quello di disponibilità delle scorte calcolato sulla base della previsione di vendita, si aggiungerebbero nuove informazioni, in quanto l’andamento passato e futuro possono differire anche sensibilmente, e la visione deve essere proiettata in avanti.

Incrociando i desideri dei clienti con le disponibilità di magazzino e i rischi di obsolescenza della merce, si può riuscire meglio nella difficile impresa di far quadrare i conti di un’impresa Retail.

 

Perché ora e nel Cloud, con qualche avvertenza

La convergenza del progresso scientifico con la potenza di calcolo disponibile nel Cloud senza investimenti iniziali e a costi ragionevoli, ha provocato un’autentica esplosione di AI e ML, rimasti più o meno latenti per 50 anni. Come già accennato in http://akite.net/it/news/intelli-tail-intelligenza-artificiale-nel-retail, i grandi volumi di dati necessari al ML richiedono tempo per essere spostati da cloud a on-premise e viceversa. Per questo i migliori risultati si ottengono quando sia il software per la gestione dei punti di vendita che i servizi cognitivi risiedono sullo stesso Cloud, come accade per aKite.

Anche se il ML-as-a-Service dal Cloud semplifica molto l’uso di queste tecniche innovative, non si deve sottovalutare la complessità della matematica sottostante, dimenticando l’approccio scientifico e lo spirito critico che lo accompagna. Senza metodo scientifico è facile rimanere vittime di miraggi o abbagli. Tanto per citarne uno, l’overfitting, cioè l’uso di un modello eccessivamente complesso rispetto ai dati disponibili riuscendo a calzare fin troppo bene i dati di test a spese dei dati futuri, è sempre in agguato. Ma allo stesso tempo la “Data Science” non può però essere disgiunta da una profonda conoscenza del Retail per fornire risultati di valore, attuabili e di impatto immediato. L’ampiezza delle competenze è probabilmente l’aspetto più critico.

Inoltre molti gestionali eccellono nel presentare il passato, ma sono lacunosi nel mostrare come sta evolvendo la situazione e non sono in grado di fornire una “dieta ricca ed equilibrata” ai sistemi di ML. L’integrazione by design tra dati di vendita e ML assicura automazione e massima qualità dei risultati.

Quanto descritto rappresenta solo i primi passi del ML nel Retail, come sta dimostrando Amazon con il nuovo concept di negozio “Amazon Go” senza casse né self-scanning, basato sul riconoscimento visivo di ogni persona e dei prodotti che preleva o rimette negli scaffali. Il futuro è appena cominciato.