Big Data [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Master FCA | S7 Nouvelles Technologies d’Information & de Communication AU: 2020-2021 Thème du rapport:

Impact de Big Data sur la Finance Encadré par: Mme Leila ALAMI

Réalisé par: Tahouri Zakariae GHAFFOULI Soufian EN-NAJARY Imad

Sommaire: Introduction général ………………………….…..1 Chapitre 1 : Concept du Big Data ……..…….3 Section 1 : Définition du Big Data …………..3 Section 2 : Caractéristiques du Big Data….4 Section 3 : Avantages & Inconvénients du Big Data………………………………………..……7 Chapitre 2 : Impact et enjeux du Big Data sur la finance…………………………………………..9 Section 1 : Le big data appliqué à la finance………………………………………………..9 Section 2 : Grands défis en matière de big data dans la finance………………………………11 Section 3 : Comment le big data a révolutionné la finance ………………………..13 Conclusion…………………………………………….14

Introduction Aujourd'hui, nombre d'employés ne travaillent pas dans l'informatique, mais sont néanmoins tout à fait conscients de l'existence des Big Data, au vu de leur caractère vraiment révolutionnaire du point de vue du modèle d'entreprise. Certaines sociétés ont même fait de cette collecte de jeux de données (ou au moins des résultats) un élément essentiel de leur stratégie d'entreprise. Avec les Big Data, les défis à relever sont nombreux et variés, mais le plus important est peut-être la compréhension de leur signification pour chaque société. Il est nécessaire d'avoir une vision illimitée de ce que pourrait être l'avenir, sans les freins que les technologies ont imposés sur le concept du mode de pensée d'une société. Cela signifie ne pas limiter la pensée à ce qui était auparavant considéré comme l'art du possible. En ce sens se dessine la possibilité de se concentrer sur la signification de tout cela pour les réalités de l'entreprise, contrairement à ce que le secteur dit et donc sur les idées prévisibles que les individus pourraient avoir. En examinant la mise en œuvre d'une initiative de Big Data, la toute première considération concerne les règles d'intégration au sein de l'organisation d'entreprise et informatique existante. D'un point de vue commercial, il n'y a aucune raison de créer de nouvelles visions qui ne peuvent pas être analysées en plus des informations fondamentales continuant à faire fonctionner l'entreprise. D'un point de vue informatique, il est nécessaire d'être cohérent dans la mise en œuvre, de telle sorte que la solution des Big Data puisse s'adapter sans problème à la structure informatique existante. La discipline de l'architecture joue un rôle majeur pour les aspects clés des Big Data. Des techniques, telles que la planification des capacités d'entreprise, fournissent une structure permettant à la société d'exprimer ses capacités et, dans ce contexte, les résultats qui sont imaginés de manière implicite ou explicite par les Big Data 1

seront inclus. L'architecture de l'information est elle aussi importante: la dimension des informations est l'endroit idéal où les nouvelles opportunités peuvent se matérialiser, mais aussi l'un des

Domaines dans lesquels la cohérence offre de la valeur à long terme. Enfin, l'architecture de la technologie est essentielle à une mise en œuvre qui réalise la vision d'ensemble. Dans l'application d'une solution de Big Data, il convient de prévoir tout d'abord une validation de principe. Bien qu'une majorité de ce qu'on appelle les phases de « validation de principe » mette en lumière peu de choses qui sont déjà connues, le problème posé par la solution des Big Data aurait pu rester irrésolu en suivant la méthode qu'a tentée la société. Une validation de principe devrait également envisager une combinaison des besoins d'analyse des Big Data et d'autres nouveaux domaines liés, tant au niveau des informations qu'au niveau général. Dans le secteur des informations, il existe d'autres tendances relatives aux concepts, comme une véritable intelligence opérationnelle en temps réel, ainsi que la virtualisation des données et des technologies en mémoire. Dans l'espace plus général, les Big Data peuvent être liées de manière plutôt significative à l'ensemble du Cloud Computing, à l'Internet des objets et aux médias sociaux. La solution des Big Data doit être considérée comme un voyage plutôt que comme la destination à atteindre, car la technologie qui permet ce paradigme ne cesse d'évoluer, à l'image de l'opportunité de la combiner avec des technologies telles que Complex Event Processing et Business Rules Engines pour obtenir des résultats encore plus utiles, qui sont parfois considérés comme irréalisables et d'autres parfois qui ne sont même pas pris en compte.

2

Chapitre 1: Concept du Big Data Section 1: Définition du Big Data Le terme Big Data réfère à l’accroissement exponentielle des données, au traitement de ces dernières ou de manière plus générale à toutes les étapes entrant en jeu dans le processus d’extraction d’informations utiles à partir d’énormes lots de données brutes. Pour comprendre le « Big Data », vous devez d’abord connaître Qu’est-ce que les données? Les données désignent les quantités, les caractères ou les symboles sur lesquels les opérations sont effectuées par un ordinateur, qui peuvent être stockés et transmis sous forme de signaux électriques et enregistrés sur des supports d’enregistrement magnétiques, optiques ou mécaniques. Le Big Data c’est aussi des données mais avec une taille énorme. C’est un terme utilisé pour décrire une collection de données de grande taille et qui croît de façon exponentielle avec le temps. En bref, ces données sont si volumineuses et complexes qu’aucun des outils traditionnels de gestion des données n’est capable de les stocker ou de les traiter efficacement. Les données sont une combinaison de données structurées, semistructurées et non structurées collectées par des organisations qui sont extraites pour des informations et utilisées dans des projets d’apprentissage automatique, de modélisation prédictive et d’autres applications d’analyse avancées. Le domaine du Big Data nombreux métiers tendance.

3

regorge

cependant

de

Section 2: Caractéristiques du Big Data Le Big Data fait désormais partie du quotidien de toutes les entreprises. Et pour utiliser les volumes de données massifs au mieux dans son organisation et son processus décisionnel, il est essentiel de maîtriser les principes et caractéristiques clés du Big Data. Ces principes sont traduits en un concept communément appelé « les 5 V du Big Data ». Quels sont ces 5 V ? Et à quoi correspondent-ils ? Talend vous apporte toutes les réponses pour mieux appréhender cette notion des 5 V et ses enjeux. La liste des 5 V du Big Data Les 5 V du Big Data englobe 5 principes clés qui définissent les ensembles massifs de données : • • • • •

Le volume La variété La vitesse (ou vélocité) La véracité La valeur

Volume Le Volume du principe des 5V fait référence aux énormes quantités de data générées à chaque instant. Ces volumes sont devenus tellement massifs que nous ne parlons plus en Téraoctets mais en Zettaoctets pour les quantifier. D’ailleurs le volume annuel de data numériques créé à l’échelle mondiale a été multiplié par plus de vingt durant les dix dernières années et s’approche de 50 zettaoctets en 2020 selon Statista. Toute entreprise qui prévoit d’utiliser ces volumes de données massifs doit donc développer des solutions Big Data Analytics pour gérer la quantité et le volume de data à stocker et traiter.

4

Variété La Variété désigne la multiplicité des types de données disponibles. Auparavant, les data étaient majoritairement des données structurées, faciles à classer et organiser. Aujourd’hui, de nombreuses data non-structurée comme les données textuelles sont générées à chaque seconde. Pour utiliser le Big Data il faut donc être en mesure d’identifier tous les différents types de données générées, ingérées et stockées dans l’écosystème numérique de l’entreprise. Vitesse La Vitesse, également appelée Vélocité, correspond à la rapidité à laquelle les data sont générées et circulent. Le Big Data permet l’analyse d’informations en temps réel et leur transmission à un rythme effréné. Ainsi, les entreprises peuvent faire preuve d’une réactivité et d’une agilité incomparables. Utiliser le Big Data et son principe de vélocité implique la recherche et le déploiement de technologies pour s’assurer que les volumes massifs de données soient traités de manière à être utilisées quasiment instantanément. Véracité La Véracité est un élément indispensable des 5 V du Big Data. Elle désigne à la fiabilité de la data qui est essentielle pour pouvoir en tirer profit et la transformer en information utilisable dans l’entreprise. Cette notion des 5V désigne donc le fait nettoyer les données (data cleansing) et faire en sorte qu’elles soient exactes, prêtes à l’emploi et utilisées à des fins business dans le processus décisionnel. Valeur La Valeur est le dernier élément des 5 V du Big Data et il désigne le fait que chaque donnée doit apporter une valeur ajoutée à l’entreprise. Il est donc crucial que les entreprises, avant de lancer 5

leur projet Big Data, sachent pourquoi et comment elles vont le mener afin d’évaluer la future rentabilité. La Valeur des 5 V rejoint le concept de Business Intelligence qui consiste à rendre la data exploitable et stratégique dans le processus décisionnel afin de prioriser les informations essentielles et stratégiques à chaque équipe de l’organisation. Le 6ème V du Big Data Au vu de l’évolution de la gouvernance des données et des réglementations, nous ajoutons une 6ème caractéristique essentielle à ce concept des 5 V du Big Data : la Vertu. La vertu fait référence aux réglementations en matière de confidentialité et de conformité des data. Pour nous, l’aspect éthique et le respect des normes en vigueur concernant les données sont cruciaux pour traiter les informations tout en se conformant aux réglementations telles que le RGPD en Europe. C’est pourquoi la Vertu fait désormais partie des éléments clés qui caractérisent le Big Data.

6

Section 3: Avantages et inconvénients du Big Data 1- Avantages du Big Data ▪

Le Big Data, pour optimiser son offre : il permet en effet une analyse complète du comportement et des attentes du consommateur. Google Analytics permet par exemple d’optimiser son site web de par une analyse en temps réel des données liées: nombre de visites, comportement de navigation, taux de rebond, nombre de pages lues, taux de clics…



Le Big Data, pour anticiper les besoins et la demande : le Big Data est à la source du remarketing, cette pratique visant à vous afficher des publicités en fonction de votre navigation. Vous avez consulté les appareils photos sur le site de la Fnac et vous retrouvez des bannières d’appareils photo sur tous les sites que vous fréquentez ? C’est un avantage du Big Data (certains diront que c’est plutôt un inconvénient… !)



Le Big Data, pour optimiser sa logistique et son organisation : il permet, par exemple, de suivre ses ventes en temps réels et donc d’optimiser sa gestion des stocks. Amazon teste même régulièrement des fonctionnalités de livraison intuitive, visant à proposer la livraison à la commande.

2- Inconvénients du Big Data L’évolution du Big Data pose naturellement la question de la protection des données et du respect de la vie privée. C’est le plus gros inconvénient du Big Data et le plus gros challenge que nous devons relever.

Le respect de la vie privée est encadré, de façon toute relative, par la loi « informatique et libertés » de 1995. Elle dit notamment que les données personnelles doivent être collectées dans un but bien précis, explicite et surtout légitime. Elle stipule que la durée de conservation des données ne doit pas excéder l’atteinte de cet objectif. 7

Par ailleurs, l’individu, l’internaute, bénéficie également du droit d’être informé de la collecte des données le concernant. Cette législation sur la protection des données a été complétée par la RGPD ( Règlement général sur la protection des données) . Autre inconvénient du Big Data : la sécurité du stockage des données. Le cloud est sans doute une des inventions majeures de ces dernières années, celle qui a rendu possible le phénomère Big Data. Les fournisseurs de cloud, majoritairement américains, ont l’habitude de créer des « back doors » leur permettant d’accéder à tout moment aux données qu’ils stockent. Ils ont donc théoriquement accès à vos photos, vos textes mais aussi aux données publiques, stockées par les institutions et gouvernement. De plus, le Patriot Act découlant des attentats du 11 Septembre accorde au gouvernement américain un accès total aux données stockées sur le cloud. C’est ce qui fait du Big Data un risque important. Ces failles posent en effet clairement le problème du respect des libertés individuelles. Si vous regardez Person of Interest, série orientée autour d’une machine collectant toutes les données numériques pour pouvoir prédire les crimes, vous comprendrez donc pourquoi le héro attache une grande importance à garder cette machine secrète et inaccessible.

8

Chapitre 2: Impact et enjeux du Big Data sur la finance Section 1: Big data appliqué à la finance Les sociétés financières ont désormais la possibilité d’exploiter le big data pour des cas d’utilisation tels que la génération de nouveaux flux de revenus grâce à des offres data-driven, les recommandations personnalisées selon les audiences, une meilleure efficacité pour obtenir des avantages concurrentiels, une sécurité renforcée et de meilleurs services aux clients. De nombreuses sociétés financières qui savent exploiter le big data en retirent des bénéfices immédiats.

Augmentation des recettes et de la satisfaction des clients Des entreprises comme Sidetrade ont su appliquer des solutions de big data pour développer des plateformes d’analytics qui prédisent les comportements de paiement des clients. En se familiarisant avec les comportements de ses audiences, une entreprise peut réduire les délais de paiement et générer plus de liquidités tout en améliorant la satisfaction des clients.

Accélération des processus manuels Les solutions d’intégration de données ont la capacité de s’adapter à l’évolution des besoins des entreprises. L’accès à une vue d’ensemble de toutes les transactions permet aux sociétés de cartes de crédit comme Qudos Bank d’automatiser les processus manuels, d’économiser les heures de travail du personnel IT et de proposer des insights sur les transactions quotidiennes des clients.

Amélioration du parcours d’achat Les anciens outils n’offrent plus les solutions nécessaires pour les données volumineuses et disparates et ont souvent une flexibilité limitée quant au nombre de serveurs qu’ils permettent de déployer. Les outils de gestion des données dans le cloud ont aidé des entreprises comme MoneySuperMarket à extraire des données à 9

partir de plusieurs services web dans des data warehouses destinés à la consommation par divers services, tels que la finance, le marketing, labusiness intelligence, la veille et le reporting. Des stratégies cloud comme celles-ci améliorent le parcours d’achat des clients, permettent de collecter quotidiennement des indicateurs des prévisions de performance, ainsi que des analyses de données ad hoc.

Workflow rationalisé et traitement fiable du système L’augmentation constante des volumes de données dans le secteur bancaire conduit à la modernisation des données bancaires de base et des systèmes d’application grâce à des plateformes d’intégration uniformes. Grâce à un workflow rationalisé et à un système de traitement fiable, des entreprises comme la Landesbank Berlin ont appliqué l’intégration d’applications pour traiter 2 To de données par jour, mettre en place 1 000 interfaces et utiliser un seul processus pour toute la logistique de l’information et l’interfaçage.

Analyse des performances financières et contrôle de la croissance Avec des milliers d’affectations par an et des dizaines d’unités commerciales, l’analyse de la performance financière et le contrôle de la croissance entre les employés de l’entreprise peuvent être complexes. Les processus d’intégration de données ont permis à des entreprises comme Syndex d’automatiser le reporting quotidien, d’aider les services IT à gagner en productivité et de permettre aux utilisateurs professionnels un accès aux insights stratégiques et à une analyse simplifiée.

10

Section 2: Grands défis en matière de big data dans la finance 1. Exigences règlementaires Le secteur financier est confronté à des exigences règlementaires strictes, comme la proposition de règlementation bancaire Fundamental Review of the Trading Book (FRTB), qui régit l’accès aux données critiques et exige un reporting accéléré. Les technologies innovantes liées au big data permettent aux institutions financières de faire évoluer la gestion des risques de manière rentable, tandis que les indicateurs et le reporting aident à transformer les données à des fins d’analyse.

2. Sécurité des données Avec l’essor des piratages et des menaces avancées et persistantes, les mesures de gouvernance des données sont essentielles pour atténuer les risques associés au secteur des services financiers. Les outils de gestion des données reposant sur le big data garantissent la sécurité et la protection des données, ainsi que la détection immédiate d’activités suspectes.

3. Qualité des données Les sociétés financières ne veulent pas se contenter de stocker leurs données, elles veulent aussi les exploiter au mieux. Comme ces données proviennent d’un grand nombre de systèmes différents, elles ne concordent pas toujours, ce qui constitue un obstacle à la gouvernance des données. Les solutions de gestion des données garantissent des informations exactes, exploitables et sécurisées. Des outils d’analytics en temps réel permettent également d’accéder en simultané aux big data stores, avec précision et rapidité, afin d’aider les entreprises à obtenir des insights de qualité, et de lancer de nouveaux produits, de nouvelles offres de services et de nouvelles fonctionnalités. 11

4. Silos de données Les données financières proviennent de nombreuses sources comme des documents de collaborateurs, des e-mails, des applications d’entreprise, etc. La combinaison et la réconciliation de données volumineuses nécessitent des outils d’intégration de données qui simplifient le processus en termes de stockage et d’accès. Les solutions de données big data et le cloud fonctionnent de concert pour relever et résoudre ces défis majeurs du secteur. Plus les institutions financières adopteront des solutions de cloud computing, plus elles prouveront aux marchés financiers que les solutions de big data sont bénéfiques tant pour l’IT que pour l’activité commerciale.

12

Section 3: Comment le big data a révolutionné la finance Les institutions financières ne sont pas nées dans le paysage digital : elles ont dû subir un long processus de conversion qui a nécessité des mutations comportementales et technologiques. Au cours des dernières années, le big data dans la finance a conduit à d’importantes innovations technologiques qui ont donné lieu à des solutions pratiques, personnalisées et sécurisées pour le secteur. En conséquence, les analyses big data ont permis de transformer non seulement les processus commerciaux individuels, mais aussi l’ensemble du secteur des services financiers.

Aperçu des marchés boursiers en temps réel Le machine learning transforme les transactions et les investissements. Au lieu de se contenter d’analyser le prix des actions, le big data permet désormais de prendre en compte les tendances politiques et sociales susceptibles d’affecter les marchés boursiers. Le machine learning permet de suivre les tendances en temps réel, ce qui permet aux analystes de compiler et d’évaluer des données pertinentes et de prendre des décisions éclairées.

Détection et prévention des fraudes La détection et la prévention des fraudes a été rendue possible en grande partie grâce au machine learning, alimenté par le big data. Les risques de sécurité que représentaient autrefois les cartes de crédit ont été réduits grâce à des processus d’analytics qui interprètent les habitudes d’achat. Désormais, en cas de vol d’informations sécurisées relatives aux cartes bancaires, les banques peuvent instantanément bloquer la carte et la transaction puis informer le client des menaces de sécurité.

13

Analyse précise des risques Les grandes décisions financières, comme les investissements et les prêts, reposent désormais sur des outils de machine learning impartiaux. Les décisions calculées basées sur l’analytics prédictif prennent tout en compte, de l’économie à la segmentation des clients, mais aussi le capital des entreprises, afin d’identifier les risques potentiels tels que les mauvais investissements ou les mauvais payeurs.

Conclusion : le nombre de données numériques continue de croître et le Big Data n’en est toujours qu’à ses balbutiements. Les outils d’analyse et de stockage vont continuer à se perfectionner. A ce stade on peut dire que le Big Data est un écosystème large et complexe. Il nécessite la maitrise des technologies matérielles et logicielles diverses (stockage, parallélisation des traitements, virtualisation, …). Le Big Data demande de la compétence et de l’expertise dans la maitrise et l’analyse des données.

14

Webographie : https://www.reply.com/fr/topics/big-data-and-analytics/un-apercudes-big-data

https://superdatacamp.com/big-data/definition-et-exemples/

https://www.talend.com/fr/resources/5v-big-data/

https://www.ludosln.net/revolution-big-data-les-enjeux-et-les-risquesdu-big-data/

https://www.talend.com/fr/resources/big-data-finance/

Bibliographie : ANF2018_BigData.pdf

Rapport_BigData.pdf

15

16