Par l’intermédiaire de notre expérience de travail direct avec des données à travers les organisations, les outils, et les industries, nous avons découvert une meilleure façon de développer et de délivrer des analyses de données que nous appelons DataOps.

Qu’elles soient appelées sciences des données, ingénierie des données, gestion des données, big data, veille économique, ou autres, par l’intermédiaire de notre travail, nous avons pu évaluer ce qui suit dans les analyses de données:

  • Individus et interactions sur les processus et outils
  • Fonctionnement des analyses de données sur l’intégralité de la documentation
  • Collaboration du client sur la négociation du contrat
  • Expérimentation, itération, et feedback sur la conception approfondie initiale
  • Propriété transversale des opérations sur les responsabilités compartimentées

Principes des DataOps

1

Satisfaire votre client de manière continue:

Notre priorité absolue est de satisfaire le client par l’intermédiaire d’une livraison anticipée et continue de précieuses observations analytiques allant de quelques minutes à des semaines.

2

Valeur du fonctionnement de l’analyse:

Nous pensons que la mesure principale de la performance de l’analyse des données est le degré avec lequel les analyses perspicaces sont délivrées, y compris les données précises, au sommet de cadres et systèmes robustes.

3

Être ouvert au changement:

Nous accueillons volontiers les besoins évolutifs du client, et, en fait, nous leur préconisons de générer un avantage concurrentiel. Nous pensons que le mode de communication avec les clients le plus efficient, efficace et agile est la conversation de visu.

4

Il s’agit d’un sport d’équipe:

Les équipes analytiques auront toujours une variété de rôles, de compétences, d’outils préférés et de titres. Une diversité d’horizons et d’opinions augmente l’innovation et la productivité.

5

Interactions quotidiennes:

Les clients, les équipes analytiques et les opérations doivent travailler ensemble tous les jours, et ce tout au long du projet.

6

Auto-organisation:

Nous pensons que les meilleurs algorithmes, observations, architectures, exigences et designs analytiques émergent d’équipes s’organisant elles-mêmes.

7

Réduire l’héroïsme:

Puisque le rythme et l’ampleur du besoin en observation analytique augmentent toujours, nous pensons que les équipes analytiques doivent faire de leur mieux pour réduire l’héroïsme et créer des équipes et processus d’analyse de données durables et évolutifs.

8

Faire son auto-critique:

Les équipes analytiques doivent perfectionner leur performance opérationnelle en faisant une introspection, à des intervalles réguliers, grâce au feedback fourni par leurs clients, par eux-mêmes, et par les statistiques opérationnelles.

9

L’analyse en tant que code:

Les équipes analytiques utilisent une multitude d’outils individuels pour accéder, intégrer, modéliser et visualiser des données. Fondamentalement, chacun de ces outils génère un code et une configuration qui décrit les actions prises sur les données pour délivrer des observations.

10

Orchestrer:

L’orchestration des données, outils, code, environnements, du début à la fin, et le travail des équipes analytiques est un moteur essentiel de la réussite de l’analyse des données.

11

Pouvoir reproduire:

Des résultats reproductibles sont demandés et, par conséquent, nous conservons tout : données, configurations de niveau inférieur du matériel informatique et des logiciels, et le code et la configuration spécifiques à chaque outil dans la chaîne de compilation.

12

Environnements disponibles:

Nous pensons qu’une attention continue à l’excellence technique et à la bonne conception améliore l’agilité ; de même, la simplicité (l’art de maximiser le volume de travail non réalisé) est essentielle.

13

Simplicité:

Nous pensons qu’une attention continue à l’excellence technique et à la bonne conception améliore l’agilité ; de même, la simplicité (l’art de maximiser le volume de travail non réalisé) est essentielle.

14

L’analyse en tant que fabrication:

Les pipelines analytiques sont analogues aux lignes de fabrication optimisées. Nous pensons que l’intérêt porté à la réflexion sur le processus visant à atteindre une efficacité continue dans la fabrication d’observations analytiques représente un concept fondamental des DataOps.

15

La qualité est primordiale:

Les pipelines analytiques doivent être construits sur un socle capable de détecter les anomalies de manière automatisée (jidoka) ainsi que les problèmes de sécurité dans le code, la configuration et les données, et doivent fournir un feedback en continu aux opérateurs pour éviter les erreurs (poka yoke).

16

Surveiller la qualité et la performance:

Notre but est d’avoir des mesures de la performance, de la sécurité et de la qualité qui sont surveillées de manière continue pour détecter une variation inattendue et générer des statistiques opérationnelles.

17

Réutiliser:

Nous pensons que le fait d’éviter la répétition du travail précédent par l’individu ou l’équipe représente un aspect fondamental de l’efficacité de la fabrication des observations analytiques.

18

Améliorer les temps de cycle:

Nous devons nous efforcer de minimiser le temps et l’effort pour transformer un client en une idée analytique, promouvoir son développement, et le sortir en tant que processus de production répétable, et, enfin, refactoriser et réutiliser ce produit.

Rejoignez plus de 10 000 Personnes qui ont déjà signé Le Manifeste

2021 | Creative Commons (CC) license | Privacy Policy