Véritable manuel pratique, ce livre s'adresse à toute personne qui travaille avec les données (chefs de projets, CDO, Architectes, Ingénieurs Data ou même Data Scientists) et qui rencontre des besoins ponctuels sur des opérations à réaliser ou qui souhaite tout simplement étendre ses connaissances autour de la gestion de données. L'objectif est de présenter tous les concepts et notions utiles dès lors que l'on est impliqué dans un projet intégrant des données. Chaque chapitre peut être lu indépendamment des autres et des exemples viennent étayer les propos de l'auteur.
Le lecteur commence avec une clarification indispensable des différents concepts qui gravitent autour de la donnée. Cette entrée en matière permet de démontrer que la donnée est une notion plus complexe qu'on ne le pense. Le livre aborde ensuite le stockage des données ce qui amène naturellement à la notion d'intégration de ces données avec tous les impacts sur le Système d'Information.
La donnée étant mouvante, l'auteur expose ensuite les moyens à mettre en place pour une gouvernance de données efficace. Cela permet au lecteur de mieux comprendre comment définir un cadre qui sera contrôlé et maîtrisé et d'expliquer en quoi les entreprises qui mettent en oeuvre le Data Fabric ou le Data Mesh sont à même de proposer des services de données pertinents. Le livre détaille ensuite les méthodes d'analyse et de visualisation de données qui permettent de déceler des problèmes de qualité de données nécessitant ensuite de les nettoyer, les transformer et les valoriser en information de confiance.
Le lecteur sera finalement invité à mettre un pied dans le monde de l'IA. Les principes et grandes notions autour du Machine Learning et du Deep Learning sont expliqués avec simplicité afin que le lecteur puisse mieux comprendre comment les algorithmes fonctionnent grâce aux données. Pour terminer, l'auteur explique comment les grandes architectures de données (Data warehouse, Data Lake, MDM, Data Hub et EDI) fonctionnent en détaillant leurs principes et leurs différences.
La datavisualisation est l'art de représenter des données, parfois complexes, sous formes graphiques pour les rendre plus claires et lisibles. Elle est largement utilisée par les médias et les entreprises pour optimiser leur communication, interne ou externe. Enrichi à l'occasion de cette nouvelle édition, destiné aux étudiants comme aux professionnels, ce manuel aborde toutes les étapes, du brief à la livraison, de la conception et de la réalisation d'une datavisualisation, qu'elle soit print ou animée. Il vous permet d'entrer dans l'univers de la visualisation de données, de découvrir les ressources disponibles, d'acquérir les fondamentaux du design d'information et de les mettre en pratique, à travers de nombreux exemples, études de cas et témoignages d'acteurs reconnus de ce domaine.
Cet ouvrage présente les principales caractéristiques de la conception puis de la réalisation d'une chaîne de mesures d'un procédé physique. La première partie décrit le traitement des signaux analogiques. La deuxième est consacrée au traitement des signaux numériques. Enfin, la troisième traite de l'acquisition de données et du choix et de la mise en oeuvre d'une chaîne de mesures. De nombreux exercices et problèmes résolus complètent chaque chapitre. Les exemples de l'ouvrage sont illustrés à l'aide du logiciel d'instrumentation industrielle LabVIEW.
Cette cinquième édition met à jour en profondeur la troisième partie, et se voit agrémentée d'un nouveau chapitre sur la transmission des données numériques.
En 2020, 35% des données numériques seront produites par 212 milliards d'objets connectés. 44 000 milliards de Go seront générés par ces objets et les systèmes informatiques devront être capables de stocker, d'analyser et d'interpréter ces données massives (Big Data).
Aujourd'hui déjà, la visibilité des entreprises comme celle des internautes dépend très largement de la maîtrise et de la compréhension du Big Data, caractérisé par les 4 V (volumétrie, vélocité, variété et valeur). San compter que les enjeux sont multiples et impliquent des domaines divers : informatique, juridique, communication et gestion.
Cette visibilité voulue ou induite est le résultat de l'application de modèles, de choix stratégiques et de tactiques opératoires spécifiques au web. Sa part "invisible" est sollicitée à travers les algorithmes opérant lors de requêtes sur les moteurs de recherche, mais aussi à travers des outils qui autorisent les traitements qualitatifs et quantitatifs des données. Ces activités numériques génèrent des traces, des données de masse qui sont un enjeu économique pour les entreprises digitales et une question de colonisation numérique pour les internautes.
La visibilité sur le web et le traitement automatisé de données de masse s'imposent à tous et ne peut être interrogée que par des entrées disciplinaires multiples et complémentaires. C'est l'objet de cet ouvrage qui rassemble des communications qui reposent principalement sur des études empiriques et qui représentent autant de chemins pour interroger le concept de Big Data et sa réalité plurielle.
Cet ouvrage présente en 5 parties les différentes possibilités offertes par R aux scientifiques des données.
Le cloud, tout le monde l'utilise sans vraiment le savoir ni s'en apercevoir. Cependant, le cloud n'est ni la panacée à tous les défis des entreprises, ni le démon qui ouvre la porte à tous les risques sécuritaires. Confronté aux nombreuses questions et défis de ses clients, l'auteur apporte dans ce livre un éclairage teinté d'expérience.
Après avoir passé en revue les aspects techniques du cloud computing, il en identifie les limites et les contraintes, avant de tordre le cou aux nombreuses « légendes urbaines » qui semblent passer d'un client à l'autre. Il en aborde également la question juridique et légale. Avec le Règlement Général pour la Protection des Données (RGPD) qui entrera en vigueur en mai 2018 en Europe, la question de la protection des données et de leur sécurité dans le cloud n'a jamais été plus d'actualité. L'auteur observe aussi comment le cadre légal est mis en place dans les marchés émergents.
Enfin, les trois derniers chapitres sont consacrés aux bonnes pratiques, aux projets d'entreprises qui peuvent bénéficier du cloud et sur la mise en oeuvre du cloud dans l'entreprise.
Ce livre est le fruit de dix ans d'expérience de mise en oeuvre de projets cloud et apporte une vision à 360 degrés de tous leurs aspects. Il est émaillé de nombreuses références qui permettront d'approfondir certains sujets, comme le RGPD ou les nouveaux métiers du cloud et de l'intelligence artificielle. Pratique et pragmatique, tous les sujets sont abordés sans complaisance et sans tabou, privilégiant la notion de cloud hybride de plus en plus adopté par l'ensemble de la profession.
This book is devoted to the modelling of data approximation and some of its numerical simulations and applications to different fields. The modelling is presented, along with theoretical results (existence and uniqueness, convergence), discretization (using the finite element method) and many applications like surface approximation from rapidly data, from surface patches, from bathymetric data and so on. This book is meant to master's students and to researchers in mathematics, geophysicians, geologists, oceanographs involved in data approximation.
Ces deux livres offrent au lecteur un maximum d'informations sur le RGPD tant d'un point de vue juridique que pour sa mise en oeuvre opérationnelle. 509 pages par nos experts.
Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.
Un livre de la collection DataPro.
Guide Juridique du RGPD (2e édition) - La réglementation sur la protection des données personnelles.
Extrait du résumé : Actuellement, nous générons en une seule journée plus de données qu'il n'en a été produites entre le début de l'humanité et l'an 2000. À l'ère du numérique, les modèles économiques fondés sur l'exploitation des « datas » et, en particulier les données personnelles, constituent un enjeu majeur pour les entreprises.
Assurer la libre circulation des personnes à l'intérieur de l'Union sans unifier totalement la protection de leurs données qui pourtant circulent elles aussi dans toute l'Europe, n'aurait pas été acceptable pour les citoyens européens en ce début du XXIe siècle. Le RGPD est donc la pierre angulaire de l'Europe de la protection des données. La protection des données à caractère personnel constitue l'une des dimensions du droit au respect de la vie privée ; elle est désormais consacrée comme un droit fondamental à part entière dans la Charte des droits fondamentaux de l'Union européenne (article 8). Le nouveau cadre juridique européen renforce les droits des personnes, responsabilise davantage l'ensemble des acteurs qui traitent des données personnelles tout en leur fournissant des outils pour se mettre en conformité (délégué à la protection des données, analyse d'impact, etc.)...
Un livre de la collection DataPro.
RGPD - Le comprendre et le mettre en oeuvre (2e édition) - (retours d'expérience pour les DPO...).
Extrait du résumé : L'économie numérique, au coeur de la croissance et de la compétitivité des entreprises, repose en grande partie sur la confiance des clients et des citoyens. Cette confiance ne peut être accordée ou conservée que si les entreprises, les administrations se comportent de manière loyale et transparente dans le traitement des données personnelles. Le Règlement Général sur la Protection des Données (RGPD) apporte un cadre permettant l'instauration de cette confiance.
Ce livre présente une méthode, des outils et des exemples, adressés aux personnes ayant en charge la mise en oeuvre du règlement, qu'elles soient DPO, responsable administratif et financier, responsable des ressources humaines, responsable informatique, chef de projet, etc. Cette nouvelle édition rend compte de l'évolution du droit en vigueur, présente les évolutions techniques et organisationnelles et permet aux auteurs de partager leurs retours d'expérience acquis auprès des organisations.
Dans le monde d'aujourd'hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux ou e-commerce, ils génèrent tous de l'information qui s'incrémente en temps réel selon les « 3 V » de Gartner : en Volume, en Vitesse et en Variabilité. Afin d'exploiter efficacement et durablement ces données, il est important de respecter la dynamicité de leur évolution chronologique à travers 2 approches : le polymorphisme d'une part, au moyen d'un modèle dynamique capable de supporter le changement de type à chaque instant sans failles de traitement ; d'autre part le support de la volatilité par un modèle intelligent prenant en compte des donnés-clés seulement interprétables à un instant « t », au lieu de traiter toute la volumétrie des données actuelle et historique.
L'objectif premier de cet ouvrage est de pouvoir établir par le biais de ces approches une vision intégratrice du cycle de vie des données qui s'établit selon 3 étapes, (1) la synthèse des données via la sélection des valeurs-clés des micro-données acquises par les différents opérateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clés sélectionnées et les dupliquant suivant un aspect de dé-normalisation pour élaborer un traitement plus rapide des données et (3) la transformation en un format particulier de carte de cartes de cartes, par Hadoop dans le processus classique de MapReduce afin d'obtenir un graphe défini dans la couche applicative.
Ce travail illustre par la suite le concept théorique par des exemples d'applications dans la vie quotidienne, notamment dans l'univers IoT.De ce fait 2 aspects sont mis en avant, (1) l'usage dans la sphère privée et (2) l'intégration dans le domaine professionnel. Dans ce contexte, des exemples concrets tels que la maison intelligente, la ville intelligente ou encore l'industrie 4.0, sont bien placés pour incarner le processus innovateur de modélisation intégratrice des données BigData.
Ce recueil est la 2e publication du CMNlab, et il se penche sur un sujet devenu incontournable depuis quelques années : la donnée.
Avec la révolution numérique, le volume de données musicales a crû de manière exponentielle. Les données numériques collectées à grande échelle (big data) se sont imposées comme une ressource stratégique, parfois regardée comme indispensable, qui a largement pénétré le champ musical. Les nouveaux usages qui en découlent s'installent petit à petit dans les pratiques professionnelles, tout en restant parfois obscurs pour les acteurs de terrain aussi bien que pour le grand public.
À travers dix contributions d'experts scientifiques, cet ouvrage s'attèle à décoder les mécanismes de la donnée dans la musique, à repérer et analyser les acteurs qui la manient et à étudier leurs relations et leurs pratiques. Chacune des contributions s'appuie sur des expertises pointues et des travaux de recherche, permettant à la fois de comprendre le phénomène en profondeur et de saisir les tendances à venir, entre métadonnées, recommandation algorithmique ou encore intelligence artificielle.
Le cours d'algorithmique et structures de données est destiné aux étudiants de première année du tronc commun de l'option Technologies de l'Informatique. Ce cours définit les enregistrements et la façon de les utiliser afin de pouvoir maîtriser par la suite les structures de données dynamiques. Il introduit ensuite les types de données abstraits pour pouvoir les implémenter dans la représentation des données et les différentes opérations associées. Après avoir spécifier le type de donnée abstrait, ce cours présente les structures linéaires simples, telles que les listes, les piles et les files pour terminer par des structures pour des structures plus complexes telles que les graphes et les arbres. Enfin, ce cours introduit la notion de complexité algorithmique en donnant un aperçu sur la complexité de quelques algorithmes. Mentionnons que ce cours nécessite comme pré-requis l'algorithmique et structures de données 1.