- 05/11/2019
Oggi vi presentiamo l'intervista a Alberto Scavino, CEO di Irion, software house italiana, nata nel 2004, con una lunga e consolidata esperienza nel mondo delle soluzioni per la finanza e la gestione dei dati.
Le banche da sempre hanno avuto accesso ai dati dei loro clienti. Perché adesso la gestione e l'analisi dei dati è diventata centrale nelle loro strategie?
I fattori sono molti. C’è sicuramente una spinta regolamentare di intensità crescente, sia nel settore, sia in generale per tutte le imprese.
Normative come il regolamento per la protezione dei dati personali, o le circolari di Banca d’Italia e BCE impongono una serie di adempimenti sempre più risk oriented e data driven. Ma la ragione più importante è sicuramente la pressione competitiva sia interna al settore, sia ad opera di nuovi operatori.
Le strategie digitali che le banche stanno progettando e attuando in risposta a queste minacce non possono prescindere da un governo consapevole ed efficace del patrimonio informativo disponibile, l’unica strada per la sua effettiva valorizzazione.
La gestione e la conoscenza del dato, della sua qualità e affidabilità sono condizioni necessarie per il successo di qualunque investimento in analytics, machine learning e intelligenza artificiale. I dati che servono devono essere “corretti” ma soprattutto “giusti”.
Cosa si intende per data driven banking?
Senza voler riportare una definizione scolastica, pensiamo che questa definizione intenda ribaltare o meglio integrare una visione ormai storica di una banca gestita per prodotti e processi con un modello che riconosce la centralità del rapporto con il cliente e dei dati che permettono di governarlo.
Sono i dati di cui la banca dispone a condizionare e sostenere il funzionamento dei processi decisionali e operativi, la scelta dei canali di relazione, dei prodotti da proporre, dei servizi da erogare.
Si capovolgono i ruoli tra dati e processi: prima erano questi ultimi a movimentare i dati, ora sono le informazioni che pilotano il comportamento della banca, a tutti i livelli, dalle strategie all'operatività corrente.
Che ruolo gioca un player come Irion in questo nuovo panorama?
Irion è nata per fornire prodotti e servizi, in particolare agli operatori finanziari, finalizzati alla gestione, al governo, alla valorizzazione degli asset informativi.
Nel tempo questa offerta non solo è sempre rimasta al passo, ma ha anche a volte anticipato l’evoluzione delle dinamiche del mercato. La nostra piattaforma di Enterprise Data Management e le soluzioni che con essa realizziamo sono completamente metadata driven, basate su un paradigma originale, il “declarative thinking” che consente risparmi di tempi e di costi nell'implementazione e nella gestione fino al 70%.
Per questa ragione la quasi totalità delle principali banche operanti in Italia utilizza i nostri prodotti e soluzioni.
Cosa serve ad una organizzazione per gestire al meglio i dati: talento o cultura aziendale?
Servono entrambi. La corretta gestione dei dati in un’organizzazione richiede un impegno collettivo, si esercita attraverso la collaborazione di tutti i comparti aziendali; in questo senso una cultura omogenea, una consapevolezza condivisa a tutti i livelli è un imperativo. Ma senza una guida, un sostegno ai più alti livelli e competenze specifiche questa cultura non si sviluppa.
Perché è importante la data governance in ambito finanziario?
Anche per la data governance c’è da una parte un obbligo di compliance ai requisiti regolamentari, ma anche e soprattutto una necessità di conoscere bene e gestire con modalità e responsabilità chiare il patrimonio informativo per sfruttare il valore competitivo dei dati. Questa duplice motivazione ha in effetti rappresentato un paradosso nel settore Finance.
La spinta normativa ha alimentato l’impegno delle banche a dotarsi di presidi, processi e strumenti per il governo dei dati prima di altre imprese, ma è ad oggi un ostacolo per un suo sviluppo che vada al di là della compliance; ostacolo che ad oggi non presentano altri settori, ad esempio l’Energy, dove le imprese affrontano la data governance in modo più consapevole, non condizionate da esigenze regolamentari.
Come si possono valorizzare gli investimenti in data governance?
L’esperienza ci conferma che quella del valore è una delle maggiori sfide che chi si occupa di data governance deve affrontare. Abbiamo capito che questo valore è anche e soprattutto conseguenza di come essa viene presentata ed esercitata all'interno di una organizzazione. Per questa ragione proponiamo ai nostri clienti un approccio service oriented: organizzare i processi, i metadati e le tecnologie di data governance secondo un modello di funzionamento che eroga servizi pensati per rispondere a concrete esigenze di chi nell'organizzazione lavora con i dati, cioè praticamente di tutti.
Molte di queste necessità informative trovano risposte dall'incrocio di metadati che il sistema di data governance deve gestire. Abbiamo disegnato la nostra piattaforma in modo che possa abilitare anche questo modello di funzionamento. L’identificazione dei “clienti interni” e la predisposizione di servizi informativi a loro dedicati basati su metadati è la chiave di successo di queste iniziative e la risposta alla sua domanda: Data Owner, Data Scientist, Data Protection Officer, anche rappresentanti del top management impegnati nella definizione e nell'attuazione di una digital strategy sono solo alcune delle figure che possono beneficiare di servizi di data governance.
L'automazione e i big data mettono in pericolo i posti di lavoro nel settore bancario e assicurativo?
Penso sia necessario distinguere tra automazione e big data. L’automazione, in particolare la cosiddetta Robotic Process Automation (RPA), può avere sicuramente un impatto in termini di efficienza sui processi, limitando o eliminando del tutto parti a basso valore aggiunto. In questo senso certamente risorse ora impiegate su lavori di questo tipo potranno essere liberate e destinate a compiti di maggior interesse. In questo senso potrebbero avere una ricaduta in termini occupazionali. È però evidente che queste risorse dovranno seguire percorsi formativi importanti per dimostrare il possesso delle competenze necessarie.
Relativamente ai big data, invece, penso che possa essere proprio il contrario. L’opportunità di sfruttare bene questa massa di informazioni richiede sempre più figure specializzate, sia in termini tecnici (pensiamo ad esempio alle architetture cloud, alla security, alla privacy) che in termini business (analisti, statistici, data scientist, marketing, ecc.), oltre alla nascita di profili misti tecnici-business (quali i data engineer). Per rispondere a questa esigenza, che già è presente sul mercato, il sistema deve mettere in campo una serie di politiche formative adeguate. Ma credo sia un altro discorso…
L’utilizzo di entrambe queste tecnologie potrebbe avere ricadute serie anche dal punto di vista degli stakeholder, legate ai rischi di un loro utilizzo improprio in termini di qualità, di reputazione, di perdite economiche.
Che impatto hanno la PSD2 e le fintech sulle banche tradizionali?
Oltre all'impatto competitivo, evidente, ma che esula dalla nostra esperienza e competenza diretta, vediamo soprattutto degli effetti dal punto di vista delle tecnologie e dei processi.
Le banche tradizionali ereditano un’architettura a “silos” informativi – che si parlano con difficoltà – e tipicamente con lavorazioni notturne dei dati, i cosiddetti “batch”.
Gli investimenti, importanti, devono essere indirizzati a superare le limitazioni di questi approcci per andare verso sistemi integrati, con dati affidabili e di qualità, in cui le informazioni sono catalogate e governate, con capacità di risposta quasi in real-time alle richieste che provengono non solo dall'interno ma anche dal sistema. Una sfida sicuramente non facile che richiede anche un “mindset” nuovo.
Grazie Alberto per la tua disponibilità e alla prossima!