Lavorando in prima persona con i dati in una serie di organizzazioni, strumenti e settori diversi, abbiamo scoperto un modo migliore per sviluppare e presentare analisi: lo chiamiamo DataOps.
Che la si chiami scienza dei dati, ingegneria dei dati, gestione dei dati, scienza dei megadati, business intelligence o in altro modo, con il nostro lavoro abbiamo compreso, nell’analisi dei dati, l’importanza di:
- Individui e interazioni rispetto a processi e strumenti
- Analisi operative rispetto a documentazione completa
- Collaborazione con il cliente rispetto alla negoziazione del contratto
- Sperimentazione, iterazione e feedback rispetto a un’ampia progettazione iniziale
- Proprietà interfunzionale delle operazioni rispetto a responsabilità a compartimenti stagni
Principi DataOps
1
Soddisfazione continua del cliente:
La nostra massima priorità è quella di soddisfare il cliente attraverso la consegna continua e tempestiva di preziose informazioni analitiche relative a intervalli di tempo di un paio di minuti o di settimane.
2
Analitica operativa di valore:
Crediamo che la misura primaria delle performance dell’analisi dei dati sia il grado in cui vengono fornite analisi approfondite, che incorporano dati accurati e si basano su strutture e sistemi robusti.
3
Abbracciare il cambiamento:
L’evoluzione delle necessità dei clienti è la benvenuta, anzi, la accogliamo a braccia aperte per generare un vantaggio competitivo. Crediamo inoltre che il metodo più efficiente, efficace e agile per comunicare con i clienti sia la conversazione faccia a faccia.
4
Lavoro di squadra:
I team analitici avranno sempre una varietà di ruoli, abilità, strumenti preferiti e titoli. Una varietà di sfondi e opinioni aumenta l’innovazione e la produttività.
5
Interazioni quotidiane:
È indispensabile la collaborazione quotidiana di clienti, team di analisi e funzioni operative per tutto il progetto.
6
Auto-organizzazione:
Crediamo che i risultati, gli algoritmi, le architetture, i requisiti e le strutture di analisi migliori emergano dai team auto-organizzati.
7
Ridurre l’eroismo:
Poiché il bisogno di informazioni analitiche è in continua evoluzione, sia dal punto di vista delle tempistiche sia dal punto di vista della portata, crediamo che i team di analisi debbano impegnarsi per ridurre l’eroismo e creare team e processi di analisi dei dati sostenibili e scalabili.
8
Riflessione:
I team di analisi devono mettere a punto le proprie performance operative riflettendo su sé stessi, a intervalli regolari, sulla base dei feedback forniti dai clienti, da sé stessi e dalle statistiche operative.
9
L’analisi è codice:
I team di analisi utilizzano una serie di singoli strumenti per accedere, integrare, modellare e visualizzare i dati. Fondamentalmente, ognuno di questi strumenti genera un codice e una configurazione che descrivono le azioni effettuate sui dati per ottenere il risultato.
10
Orchestrazione:
L’orchestrazione dall’inizio alla fine di dati, strumenti, codici, ambienti e del lavoro dei team di analisi è un fattore chiave per il successo dell’analisi stessa.
11
Riproducibilità:
I risultati devono essere riproducibili, per questo versioniamo tutto: dati, configurazioni software e hardware di basso livello, oltre al codice e alla configurazione specifici a ogni strumento nella toolchain.
12
Ambienti usa e getta:
Crediamo sia importante ridurre al minimo i costi di sperimentazione per i membri dei team di analisi, mettendo loro a disposizione ambienti tecnici facili da creare, isolati, sicuri e monouso che riflettano lo specifico ambiente di produzione.
13
Semplicità:
Crediamo che l’attenzione continua all’eccellenza tecnica e alla buona progettazione migliori l’agilità; allo stesso modo la semplicità, ovvero l’arte di massimizzare la quantità di lavoro evitato, è essenziale.
14
L’analisi è produzione:
Le pipeline di analisi sono analoghe alle linee di produzione snella. Crediamo che un concetto fondamentale di DataOps sia l’attenzione per il process thinking mirato al raggiungimento di efficienze costanti nella produzione di risultati analitici.
15
La qualità è di primaria importanza:
Le pipeline di analisi devono essere costruite su fondamenta in grado di rilevare in maniera automatizzata le anomalie (jidoka) e i problemi di sicurezza nel codice, nella configurazione e nei dati, oltre a dover fornire agli operatori un feedback costante per evitare errori (poka yoke).
16
Monitoraggio della qualità e delle performance:
Il nostro obiettivo è quello di ottenere misure di qualità performance e sicurezza costantemente monitorate per rilevare variazioni impreviste e generare statistiche operative.
17
Riutilizzo:
Crediamo che un aspetto fondamentale per una produzione efficiente di risultati analitici sia quello di evitare la ripetizione del lavoro già fatto dal singolo o dal team.
18
Migliorare i tempi di ciclo:
Ci impegniamo per ridurre al minimo i tempi e gli sforzi per trasformare un’esigenza del cliente in un’idea di analisi, crearla in divenire, diffonderla come processo di produzione ripetibile e, infine, rifattorizzarla e riutilizzarla.
Unisciti alle oltre 10.000 persone che hanno già firmato il Manifesto
2021 | Creative Commons (CC) license | Privacy Policy