L’importance de la donnée et des bases de données dans l’activité des entreprises d’assurance ne cesse de croître : reportings prudentiels, reportings financiers, analyse de la performance et utilisation de données pour développer de nouveaux produits, les usages qui en sont faits sont aussi divers que complexes.

Au coeur de cette problématique de la donnée, un autre enjeu émerge : comment réaliser efficacement des réconciliations et des rapprochements de données afin d’en assurer la fiabilité ?

Beaucoup d’entreprises utilisent encore Excel pour traiter, analyser et mettre en forme les données. Excel a l’avantage d’être connu de tous et d’avoir une utilisation simple et intuitive. Mais il ne s’agit pas d’un outil de Data Science : il n’est pas capable de gérer le traitement d’un grand nombre de données, et ne devrait être utilisé aujourd’hui que pour présenter des résultats.

Les tâches de réconciliation ont pris une importance croissante et mettent en lumière les limites d’Excel : des traitements très longs, peu flexibles, et impliquant un degré de manualité générateur de risques opérationnels.

Il existe aujourd’hui des outils dédiés à la Data Science qui permettent de fiabiliser, d’analyser et de réconcilier efficacement les données. Les plus importants – Knime, SAS, Alteryx, Dataiku et RapidMiner – ont l’avantage de traiter des bases de données de très grande taille, dépassant largement la limit de 2^20 (environ 1 million) de lignes pour Excel.

L’objectif de ce benchmark est de fournir des informations clés d’aide à la décision pour choisir un outil de réconciliation de données et de fournir des conseils d’implémentation et d’usages.

Après une brève présentation des outils, il présente ainsi une analyse comparative et un focus détaillant notre appréciation pour chaque outil. En conclusion figurent des retours d’expérience de nos consultants en mission.

#Digital #Data science