Un tour d'horizon complet de la mise en oeuvre de SQL pour tous vos développements Ce nouveau livre de la collection Pour les Nuls va vous donner en quelque 400 pages toutes les connaissances qui vous permettront de maîtriser SQL et de construire des requêtes fiables et puissantes.
SQL (Structured Query Language) est un langage qui permet de construire de puissantes bases de données relationnelles. Vous apprendrez toutes les techniques pour concevoir et administrer une base de données, et même à créer des bases de données Internet.
Au programme de ce livre : Les bases de données relationnelles, les composantes de SQL, les bases de données relationnelles multitables, manipuler les données, les opérateurs relationnels, les requêtes récursives, sécuriser les bases de données, protéger les données, ODBC et JDBC, SQL et Internet, SQL en Intranet, Dynamic SQL.
Comment intégrer les obligations du RGPD dans votre organisation, gérer vos données, concevoir vos parcours utilisateur et sécuriser vos données ? Ce guide vous donne les clés pour vous mettre en conformité et faire de la protection de la vie privée un avantage concurrentiel pour votre activité. En effet, le numérique doit être au service des citoyens ; son développement doit garantir l'identité humaine, les droits de l'homme, la vie privée et les libertés individuelles ou publiques.
Plus que jamais, c'est le respect d'un équilibre entre accompagnement de la transformation numérique et protection des droits des personnes qui permettra de relever les défis soulevés par la numérisation de notre environnement quotidien.
Après avoir décrit le contexte de l'adoption de la nouvelle Loi Informatique et libertés et du RGPD et expliqué le concept d'Accountability, l'ouvrage s'intéresse à l'identification des traitements de données à caractère personnel (Chapitre 1) puis à déterminer comment le responsable de traitement doit s'assurer de la licéité des traitements (Chapitre 2), quels sont les outils dont il dispose pour sa « compliance » (Chapitre 3) et pour sécuriser les traitements (Chapitre 4) et les mesures de cybersécurité à mettre en place en cas de violations des données personnelles (Chapite5).
Cette troisième édition du guide est à jour de la réglementation sur la protection des données, il tient compte également des récentes positions doctrinales de la CNIL. Son objectif est d'aider les entreprises à faire de la loi Informatique et libertés, une opportunité, et non une contrainte, au service de l'innovation, de la confiance et de la croissance.
Véritable manuel pratique, ce livre s'adresse à toute personne qui travaille avec les données (chefs de projets, CDO, Architectes, Ingénieurs Data ou même Data Scientists) et qui rencontre des besoins ponctuels sur des opérations à réaliser ou qui souhaite tout simplement étendre ses connaissances autour de la gestion de données. L'objectif est de présenter tous les concepts et notions utiles dès lors que l'on est impliqué dans un projet intégrant des données. Chaque chapitre peut être lu indépendamment des autres et des exemples viennent étayer les propos de l'auteur.
Le lecteur commence avec une clarification indispensable des différents concepts qui gravitent autour de la donnée. Cette entrée en matière permet de démontrer que la donnée est une notion plus complexe qu'on ne le pense. Le livre aborde ensuite le stockage des données ce qui amène naturellement à la notion d'intégration de ces données avec tous les impacts sur le Système d'Information.
La donnée étant mouvante, l'auteur expose ensuite les moyens à mettre en place pour une gouvernance de données efficace. Cela permet au lecteur de mieux comprendre comment définir un cadre qui sera contrôlé et maîtrisé et d'expliquer en quoi les entreprises qui mettent en oeuvre le Data Fabric ou le Data Mesh sont à même de proposer des services de données pertinents. Le livre détaille ensuite les méthodes d'analyse et de visualisation de données qui permettent de déceler des problèmes de qualité de données nécessitant ensuite de les nettoyer, les transformer et les valoriser en information de confiance.
Le lecteur sera finalement invité à mettre un pied dans le monde de l'IA. Les principes et grandes notions autour du Machine Learning et du Deep Learning sont expliqués avec simplicité afin que le lecteur puisse mieux comprendre comment les algorithmes fonctionnent grâce aux données. Pour terminer, l'auteur explique comment les grandes architectures de données (Data warehouse, Data Lake, MDM, Data Hub et EDI) fonctionnent en détaillant leurs principes et leurs différences.
Cet ouvrage interroge le poids et l'usage des données dans les manières de gouverner. La donnée, en ligne ou hors ligne, devient une ressource clé de la gouvernance et représente à ce titre un enjeu politique fort. Le travail sur les données a toujours existé, mais ce qui change c'est la massification de ces données - retranscrite par le terme big data -, rendue possible par le numérique. D'autant plus qu'on laisse de nombreuses traces en ligne sans forcément s'en apercevoir. De manière passive, nos données sont enregistrées. La donnée n'est plus uniquement utilisée pour quantifier la société et l'observer, comme cela était le cas avec les statistiques ou les sondages, mais aussi pour la conduire. Les algorithmes font parler les données et permettraient alors de « prédire » des comportements pour mieux les gouverner. Mais ce ne sont pas des dispositifs neutres et il s'agit alors de les étudier en contexte. C'est l'apport de cet ouvrage qui explore différents domaines d'activité pour saisir comment l'algorithme est mis en place par ses concepteurs et utilisé par des acteurs, pris dans des écosystèmes professionnels variés et des manières de faire habituelles qui résistent au changement de la « gouvernementabilité » algorithmique. Cette approche permet de « défétichiser » l'algorithme et d'éclairer autrement son fonctionnement au regard des croyances qui l'entourent, de ses usages au concret et des luttes de pouvoir extérieures à l'outil lui-même, mais ayant des effets sur ses applications. La force des sciences sociales est bel et bien leur portée critique, au sens où l'analyse empirique permet de déconstruire des savoirs immédiats, des prénotions, des fantasmes. Et du côté des big data, les mythes et croyances, renforcées par ceux qui les vendent, sont nombreux.
S'adressant aux architectes logiciels, chefs de projet, analystes, développeurs, responsables méthode et étudiants en informatique, cet ouvrage explique comment utiliser à bon escient un diagramme conceptuel (casses UML ou modèle entité-association) pour concevoir une base de données, puis comment traduire correctement ce diagramme avec le langage SQL. Sa démarche est indépendante de tout éditeur de logiciel et aisément transposable, quel que soit l'outil de conception choisi.
Le livre expose tout d'abord comment construire un diagramme conceptuel à l'aide de règles permettant de le valider et de le normaliser. Tous les mécanismes de transformation du niveau conceptuel dans un modèle relationnel sont clairement commentés à l'aide d'exemples concrets. Le modèle logique est ensuite optimisé avant l'écriture des scripts SQL. La dernière étape consiste à implémenter les règles métier en programmant des contraintes, des déclencheurs SQL ou des vues.
Enrichie de nouveaux cas réels, cette cinquième édition est commentée par Frédéric Brouard, expert SQL Server et auteur de nombreux ouvrages et articles sur le langage SQL, et complétée par 30 exercices.
Ce livre sur Ansible s'adresse aux administrateurs de systèmes Unix qui souhaitent découvrir les différentes fonctionnalités spécifiques de cet outil DevOps permettant la configuration centralisée de serveurs et applications. À l'aide d'exemples concrets, l'auteur apporte au lecteur les connaissances nécessaires pour bien comprendre l'intérêt de son utilisation.
Certains prérequis sur le langage YAML ou l'utilisation du protocole SSH sont un plus pour une utilisation efficace d'Ansible. Dans les premiers chapitres, l'auteur aide toutefois le lecteur à les acquérir pour qu'il puisse tirer le meilleur profit de la lecture du livre.
Les chapitres qui suivent traitent des différents mécanismes d'Ansible avec une approche de difficulté progressive. Les premiers mécanismes permettent ainsi d'administrer de façon classique les serveurs (Unix ou Windows) alors que les suivants nécessitent des notions plus avancées, notamment sur la programmation Python. Le lecteur y découvre alors comment créer un inventaire, comment réinjecter des informations provenant de sources existantes (ESX, AWS, Docker...) ou comment créer des playbooks. La création de rôles Ansible est également traitée ainsi que quelques bonnes pratiques à suivre (analyse de code et test avec Molecule à l'aide de Podman ou Docker).
À côté des notions purement orientées Ansible, certains chapitres sont consacrés au déroulement du déploiement d'une application MediaWiki. Le lecteur étudie ainsi les problématiques de parallélisation des tâches, l'introduction d'un répartiteur de charge Haproxy et le lancement en séquence des opérations permettant de réaliser les mises à jour avec un impact minimal (rolling update). L'optimisation des tâches sera également un point important avec la mise en place de Mitogen.
La suite du livre détaille plus particulièrement la personnalisation d'Ansible. La restitution d'informations (mécanismes de callback et découverte de ARA), l'écriture de modules pour la gestion d'opérations, les filtres Jinja ou encore la création d'actions sont ainsi étudiés.
Enfin, l'auteur présente dans les derniers chapitres la problématique de la création de machines virtuelles, classiques (via l'hyperviseur ESX/VMware/vCenter) ou dans le cloud (avec AWS), l'utilisation de containers containers Podman/Docker avec Ansible, le pilotage d'applications dans un cluster Kubernetes ainsi que la création d'un opérateur.
Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.
Ce livre décrit les techniques et la méthodologie utilisées par les professionnels de l'analyse de malwares (ou logiciels malveillants). Il s'adresse à des informaticiens passionnés de sécurité, à des professionnels dans le domaine de la sécurité informatique, qui souhaitent une approche opérationnelle et hautement technique.
Les auteurs commencent par l'identification et la classification des malwares, ils décrivent ensuite les collectes rapportées par des investigations numériques légales (inforensiques) puis les analysent. Ces collectes comportent des images disque, des journaux d'évènements, mais aussi des images mémoire. Les outils et techniques permettant d'analyser ces données sont décrits avec de nombreux exemples.
Après avoir identifié le malware, il convient de l'analyser. Les auteurs expliquent le fonctionnement des outils de sandboxes et décrivent des formats de fichier comme les documents PDF, Microsoft Office ou encore les binaires Windows. Afin de réaliser des analyses extrêmement techniques, le livre contient un chapitre entier sur le reverse engineering (ou rétro-ingénierie), les auteurs y expliquent les bases de l'assembleur (x86 et x64) et l'utilisation d'outils d'analyse statique tels que Ghidra et Rizin ou de debuggers tels que x64dbg et WinDBG. En complément sur ce sujet du reverse engineering, un chapitre explique les techniques d'obfuscation utilisées par les malwares, telles que l'obfuscation de chaînes de caractères ou l'utilisation de packers. Les auteurs détaillent les techniques permettant de dépacker des binaires packés. Deux chapitres sont dédiés à l'analyse de malwares sous systèmes mobiles : le système d'exploitation Android de Google et celui d'Apple : iOS. La dernière partie de ce livre décrit la Cyber Threat Intelligence et explique comment stocker les informations acquises durant des investigations mais aussi comment les partager pour améliorer sa connaissance et sa détection.
Le livre est illustré d'exemples d'analyses de véritables malwares et les techniques présentées ont toutes été validées sur des cas réels.
Ce manuel vise un triple objectif : comprendre les concepts théoriques, apprendre à utiliser des bases de données, et enfin savoir en construire de nouvelles.
La première partie explique les notions de base sur les structures de données, les systèmes de gestion de bases de données, le modèle relationnel...
La deuxième décrit le langage SQL et les fonctions qui permettent de tirer le meilleur parti d'une base de données.
La dernière partie détaille les méthodes de construction des bases de données relationnelles puis des bases relationnelles-objet.
Les chapitres sont accompagnés de 80 exercices corrigés.
L'ouvrage papier est complété par un site web comprenant 30 annexes avec des tutoriels, des exercices corrigés, des planches PowerPoint destinées aux enseignants. Ces tutoriels permettent à l'étudiant de mettre en pratique de manière active les notions expliquées dans le livre.
Cette cinquième édition inclut un nouveau chapitre consacré aux fonctions du langage SQL dédiées à l'analyse de données (chapitre 10). Elle comprend également de nombreuses mises à jour, corrections et améliorations de présentation ainsi que de nouveaux matériaux conformes à l'état de l'art en 2022.
De la théorie, qui sert de cours, pour mieux comprendre les bases ;
Des exercices d'entraînement dont les corrigés sont accessibles sur www.sqlparexemple.fr Une mise en pratique professionnelle.
La Business Intelligence (BI) est née d'une exigence de plus en plus pressante : la capacité à analyser un volume de données de plus en plus important - parfois aux limites de ce que peut supporter un tableur - et une lecture optimisée des indicateurs et des informations. Autrefois encadré par des couches intermédiaires et des acteurs souvent informaticiens, c'est aujourd'hui, avec Power BI Desktop de Microsoft, l'ère de la BI en libre-service qui s'ouvre : un accès direct aux sources de données, avec ce que cela exige d'attention, un outil capable de brasser des volumes d'informations bien au-delà d'Excel, et de les restituer sous une forme visuelle claire et efficace.
Ce livre sur Power BI Desktop est destiné à l'utilisateur d'Excel qui souhaite pousser l'analyse de données dans un environnement familier, comme au spécialiste des bases de données qui veut en exploiter les ressources et diffuser l'information. Né de l'expérience de Microsoft dans le domaine des bases de données, dans la continuité d'Excel et de ses compléments (Power Query, Power Pivot), Power BI Desktop est un outil complet de préparation des données et de leur exploitation (qui repose sur le langage DAX) grâce aux langages M.
Toutes les étapes nécessaires à l'élaboration d'un reporting efficace sont abordées : de la connexion aux données et de leur préparation, phase préliminaire de première importance, à l'analyse du besoin qui détermine de manière très concrète la construction du rapport ; de la maîtrise de l'éventail des visuels et de leurs interactions à une approche résolument pragmatique et immédiatement utile du langage essentiel DAX ; et jusqu'à la diffusion du rapport, l'ouvrage dévoile et structure les ressources de l'outil Power BI Desktop pour en faire un révélateur de vos données.
L'approche est à la fois méticuleuse, car chaque étape du parcours est riche de multiples possibilités, et pédagogique, avec la volonté de souligner un cheminement clair vers la construction d'un rapport ou tableau de bord efficace. Ce livre couvre différents scénarios de connexion à vos sources de données (fichier Excel, base de données, dossiers...), il vous permettra d'acquérir les bons réflexes lors du travail de préparation des données, notamment en fonction de la source, mais aussi de découvrir la facilité de sa mise en oeuvre ; il vous guidera pour apprendre à choisir le bon visuel pour faire passer la bonne information et éviter la surcharge ; vous comprendrez les ressorts fondamentaux du calcul dans Power BI pour construire vos indicateurs. En définitive, l'objectif est que vous puissiez prendre plaisir à découvrir et continuer d'explorer cet outil conçu pour vous permettre d'éclairer d'une lumière nouvelle l'information dont vous disposez.
Ce livre, pour lequel deux axes de lecture sont possibles, a pour objectif de proposer une formation complète et opérationnelle sur les data sciences. Le premier axe permet au lecteur d'apprendre à délivrer des solutions complètes via l'usage du langage R et de son écosystème, et le second lui permet d'acquérir une culture approfondie des data sciences tout en faisant abstraction du détail du code R grâce à l'utilisation d'un outillage interactif qui ne nécessite pas d'apprendre à coder en R.
Ainsi, les auteurs proposent un parcours didactique et professionnalisant qui, sans autre prérequis qu'un niveau Bac en mathématiques et une grande curiosité, permet au lecteur :
- de s'intégrer à une équipe de data scientists ;
- d'aborder la lecture d'articles de recherche en IA ou data sciences ;
- de développer en langage R ;
- et de dialoguer avec une équipe projet comprenant des data scientists.
Le livre ne se cantonne pas aux algorithmes classiques du Machine Learning (arbres de décision, réseaux neuronaux...), il aborde divers sujets importants comme le traitement du langage naturel, les séries temporelles, la logique floue ou la manipulation des images.
Les sujets pratiques ou difficiles ne sont pas éludés. Le livre appréhende l'accès aux bases de données, les processus parallèles, la programmation fonctionnelle et la programmation objet, la création d'API, le partage de résultats d'analyse avec R Markdown et les dashboard Shiny, l'étude des représentations cartographiques ou encore l'implémentation du Deep Learning avec TensorFlow-2 et Keras.
À la demande des lecteurs, cette troisième édition présente également une ouverture vers le langage Python et son interface avec R ainsi que l'installation d'une application R/shiny accessible sur internet via un serveur Linux abrité sur un cloud professionnel. Une extension vers l'utilisation de R pour les calculs numériques et les calculs mathématiques pour l'ingénierie dans le même esprit que MatLab ainsi que l'usage basique d'un outil de prototypage rapide de modèles de Machine Learning (BigML) en « ; point and click » permettront au lecteur ne voulant pas utiliser R de produire des modèles de prédiction sans coder !
La dynamique de l'ouvrage soutient le lecteur pas à pas dans sa découverte des data sciences et l'évolution de ses compétences théoriques et pratiques. Le manager pourra surfer sur l'ouvrage après avoir lu attentivement le bestiaire des data sciences de l'introduction, qui sans vulgarisation excessive présente le sujet en faisant l'économie de mathématiques ou de formalismes dissuasifs.
Les programmes R décrits dans le livre sont accessibles en téléchargement sur le site www.editions-eni.fr et peuvent être exécutés pas à pas.
C'est pour répondre à la problématique du Big Data que sont nées les bases de données NoSQL (Not Only SQL), sous l'impulsion de grands acteurs du Web comme Facebook ou Google, qui les ont développées à l'origine pour leurs besoins propres. Grâce à leur flexibilité et leur souplesse, ces bases non relationnelles permettent en effet de gérer de très grands volumes de données disparates sur un ensemble de serveurs de stockage distribués, avec une capacité de montée en charge très élevée. Réservées jusqu'à peu aux ténors du Web, elles tendent aujourd'hui à se poser en successeur du modèle relationnel qui dominait le marché depuis 20 ans. Les bases NoSQL vont-elle sonner le glas des bases de données relationnelles ? La troisième édition de cet ouvrage dresse un panorama complet des bases de données NoSQL : grands concepts, solutions existantes, mise en oeuvre. Après avoir présenté les grands principes de ces bases, elle détaille les principales solutions existantes (Hadoop, MongoDB, Cassandra, DynamoDB...), en précisant spécificités, forces et faiblesses de chacune. Le reste du livre est consacré au déploiement concret de ces bases : dans quel cas choisir une base NoSQL ? laquelle adopter ? quelles données basculer en NoSQL ? comment mettre en place une telle base ? comment la maintenir et superviser ses performances ? L'ouvrage se clôt par deux études de cas réels en collaboration avec des SSII françaises.
Ce livre s'adresse à toute personne qui souhaite découvrir comment capturer des données télémétriques d'une maison (température, humidité, pression atmosphérique, luminosité) et les présenter dans une interface web sous forme de tableaux de bord. L'auteur s'appuie pour cela sur les possibilités offertes par le langage Python, le nano-ordinateur Raspberry Pi et le framework Flask. Bien qu'appliqué au Raspberry Pi, le contenu du livre est suffisamment universel pour être exploité sur d'autres plateformes telles que des ordinateurs.
Pour tirer le meilleur profit de la lecture de ce livre, des notions de programmation orientée objet et quelques rudiments sur le langage Python et en électronique sont nécessaires. Une première expérience avec le Raspberry Pi est également souhaitée.
Les points technologiques du livre sont isolés et vulgarisés avant d'être intégrés dans un projet global qui sert de fil conducteur à la prise en main et l'exploitation des différentes technologies étudiées. L'auteur commence par présenter la collecte de données à l'aide de composants basés sur les microcontrôleurs ESP8266 et ESP32 programmés avec MicroPython. Il détaille ensuite la centralisation de ces données à l'aide d'un broker MQTT fonctionnant sur un Raspberry Pi. Dans la suite du livre, le lecteur découvre comment une base de données SQLite 3 permet d'offrir un stockage persistant des données et comment elle peut être exploitée par une application Flask pour produire des tableaux de bord sur mesure.
En marge d'une solution Python, les objets ESP et le broker MQTT peuvent également être réutilisés avec InfluxDB et Grafana. Le lecteur découvrira alors InfluxDB, une base de données TimeSeries optimisée pour la capture de gros volumes de données en temps réel. Le greffon Telegraph permettra de capturer les données envoyées sur le broker MQTT pour les injecter dans InfluxDB. Enfin, l'outil Grafana permettra de consulter ces données sous forme de graphiques et visualisations attrayants.
à l'issue de ce livre, le lecteur disposera de bases solides pour créer sereinement une grande variété de solutions, plus ou moins sophistiquées, en fonction de ses besoins.
Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.
Comprendre les bases de données via une histoire illustrée.
C'est un ouvrage pédagogique pour les étudiants, pas un livre de vulgarisation.
Le RGPD (règlement général européen sur la protection des données) remplace, depuis le 25 mai 2018, la célèbre loi « informatique et libertés » adoptée il y a plus de 40 ans en France.
Si les grands principes de protection des données restent globalement inchangés, les modalités de gestion de la conformité ont été totalement bouleversées, et les risques en cas de non-conformité (sanctions pénales, sanctions financières de la CNIL et risque d'image) sont significativement renforcés.
Au-delà, le RGPD ambitionne d'améliorer la protection des personnes fichées, dans le contexte du développement exp
Le langage DAX est un langage majeur d'analyse et de modélisation de données utilisé avec Power BI ou Excel appelé à rapidement s'imposer, d'une part grâce à sa capacité à faire le lien entre l'analyse de tous les jours et les énormes volumes de données stockées dans les bases et, d'autre part, grâce à sa capacité à gérer une grande variété de sources de données. C'est un langage particulièrement puissant dans le sens où il permet l'analyse des données (par l'utilisation de fonctions génériques : somme, moyenne... ou spécifiques : analyse temporelle, financière...) mais aussi la modification du modèle de données (de nombreuses fonctions ont pour rôle de créer des tables temporaires ou de changer les relations entre les tables). Enfin c'est un langage dont le ressort principal est un concept clé : le contexte d'évaluation qu'il faut impérativement comprendre et maîtriser pour être à l'aise avec le DAX.
Ce livre sur DAX vient compléter les livres Power BI Desktop, De l'analyse de données au reporting et Renforcer, approfondir, explorer écrits par le même auteur. Le but de cet ouvrage est de vous permettre d'acquérir une très bonne maîtrise de ce langage à travers une alternance de bases théoriques indispensables pour comprendre le fonctionnement du DAX et de nombreux exercices de mise en pratique.
Les chapitres abordent les notions suivantes :
· La définition du modèle.
· Les principes fondamentaux du langage DAX.
· Les variables.
· Les fonctions d'agrégation et d'itération.
· La fonction CALCULATE.
· Les fonctions logiques et les fonctions d'information.
· Les fonctions de manipulation du modèle physique.
· Les fonctions de date et la table du temps.
· Les autres familles de fonctions.
Chaque chapitre comprend une partie sur l'explication des concepts suivi de plusieurs énoncés d'exercices qu'il vous sera possible de réaliser en prenant le temps de réfléchir et de chercher la réponse. Ils sont suivis bien sûr d'une correction détaillée.
Ces exercices illustrent les points développés dans la partie concept et bien souvent, apportent des éléments complémentaires : de nouvelles fonctions, des subtilités de concepts... Bref, ils font intégralement partie du cursus d'apprentissage. Ils sont présentés et commentés dans Power BI qui est incontestablement l'outil fait pour le DAX.
Pour réaliser ces exercices, vous disposez de deux modèles de données, l'un référençant les cours de l'or, l'autre simulant les ventes d'une librairie. Ces fichiers sont disponibles en téléchargement ainsi que les fichiers corrigés.
Vous cherchez un produit sur Internet? Vous n'avez probablement scrollé vers le bas de la page. Vous n'êtes à coup sûr pas allé sur la deuxième page de votre moteur de recherche préféré. Non, comme l'immense majorité des internautes vous avez arrêté votre choix parmi les quatre ou cinq premiers résultats proposés par un moteur de recherche. Se positionner en tête de liste d'un moteur comme Google est donc stratégique pour tout site web, car c'est à ces positions que l'on peut capter une audience, interagir avec elle et la convertir en prospects ou clients.
Mais comment certains sites ont-ils réussi à atteindre ces positions si convoitées? Se retrouver en tête des résultats pour des expressions concurrentielles n'est qu'exceptionnellement le fruit du hasard. Répondre aux critères de pertinence de google (et au passage de tous les autres moteurs) est un métier à part entière, très demandé dans une économie qui se digitalise toujours plus.
Ce livre a pour vocation de vous initier au référencement et vous permettre d'appréhender les enjeux et grands principes à l'oeuvre dans le Search Engine Marketing.
Le SaaS est devenu pour les éditeurs logiciels une transformation nécessaire à leur survie et la R&D impulse de cette évolution. Ce livre propose aux CTOs, managers R&D, architectes, lead tech ou tout autre membre d'un service R&D un fil conducteur permettant de se repérer dans ce foisonnement chaotique de techniques et de technologies de développement.
Les auteurs proposent dans ce livre une analyse de ces techniques et un approfondissement sur celles qui leur apparaissent essentielles. Si l'agilité est devenue de facto la méthodologie qui s'est imposée largement dans les équipes, les autres clés pour devenir un éditeur SaaS compétitif sont souvent décrites de manière parcellaire et compartimentée (Commerce, Marketing) et paradoxalement peu sur l'ensemble du périmètre des métiers de la R&D.
La maîtrise de ces techniques et la compréhension de leur synergie doivent permettre de construire une vision partagée et consistante de bout en bout qui puisse générer l'adhésion par tous les niveaux de l'entreprise.
Les auteurs commencent par établir une cartographie de ces pratiques dans une vision globale ayant pour but de soutenir la création et l'exploitation d'un logiciel SaaS d'envergure avec une visée B2B. Celle-ci servira de base de discussion et de conciliation entre les parties prenantes managériales, techniques et plus globalement pour l'ensemble de l'entreprise. Ils détaillent ensuite la transformation DevOps et ses enjeux, notamment avec l'utilisation du Cloud comme levier d'innovation.
L'importance de l'usine logicielle comme colonne vertébrale de l'éditeur sera démontrée et vous découvrirez en quoi sa modélisation peut assurer la pérennité et l'efficacité opérationnelle du service SaaS.
Quelques patterns d'architecture et concepts incontournables pour la réussite de ce type de projet seront étudiés avant d'observer l'organisation des équipes devant entrer en résonance avec l'ensemble de ces pratiques.
"La conception des algorithmes : une science !
L'algorithmique est l'art et la science de concevoir des algorithmes corrects et efficaces. Pour beaucoup d'informaticiens, c'est l'aspect artistique qui prédomine : on cherche l'idée lumineuse, la structure cachée, la réponse astucieuse. Mais la conception des algorithmes est d'abord une science dont il faut posséder les bases et les techniques avant d'exprimer sa créativité. Ce livre invite le lecteur à une approche rigoureuse de la construction d'algorithmes. Il explique comment la même idée peut se retrouver dans plusieurs algorithmes correspondant à des problèmes différents. Il donne les outils pour analyser rationnellement un problème, le classer dans une famille de méthodes et produire une solution exacte.
Un manuel de référence sur la construction raisonnée des algorithmes Dans chaque chapitre de ce livre, les bases théoriques et techniques sont rappelées et illustrées par des exemples. On y trouve ensuite un grand nombre d'exercices, accompagnés d'une correction minutieuse et complète. De la sorte, on y voit comment une démarche rationnelle permet d'atteindre une solution, exacte par construction, à travers une grande variété de cas. Après des rappels sur le raisonnement, les structures de données et la complexité, le livre parcourt les grandes méthodes de construction d'algorithmes : invariants, récursivité, essais successifs, méthodes PSEP, algorithmes gloutons, diviser pour régner, programmation dynamique. Au total, près de 150 exemples d'algorithmes sont ainsi analysés et construits rigoureusement.
Cet ouvrage, pour sa troisième édition, a été entièrement revu et corrigé. Nombre d'exercices ont été remaniés, certains assez largement, en visant une meilleure gradation des difficultés et une argumentation plus complète.
La 1re édition de Conception d'algorithmes a été finaliste du prix Roberval 2017.
À qui s'adresse ce livre ?
- Aux étudiants et enseignants en science informatique - Aux ingénieurs, enseignants-chercheurs, informaticiens et industriels."
La datavisualisation est l'art de représenter des données, parfois complexes, sous formes graphiques pour les rendre plus claires et lisibles. Elle est largement utilisée par les médias et les entreprises pour optimiser leur communication, interne ou externe. Enrichi à l'occasion de cette nouvelle édition, destiné aux étudiants comme aux professionnels, ce manuel aborde toutes les étapes, du brief à la livraison, de la conception et de la réalisation d'une datavisualisation, qu'elle soit print ou animée. Il vous permet d'entrer dans l'univers de la visualisation de données, de découvrir les ressources disponibles, d'acquérir les fondamentaux du design d'information et de les mettre en pratique, à travers de nombreux exemples, études de cas et témoignages d'acteurs reconnus de ce domaine.
Ce livre sur Power BI Desktop a été rédigé dans la continuité du livre Power BI Desktop - De l'analyse de données au reporting du même auteur.
Renforcer et approfondir, parce que son objectif est d'aller plus loin dans l'utilisation de Power BI et d'aborder cet outil, non pas comme un auxiliaire à Excel ou à d'autres applications, mais comme l'outil central d'analyse de l'information. L'auteur s'est appuyé sur une approche propre à Power BI, tant pour l'extraction des données et la mise en place du modèle, que pour l'utilisation du langage DAX ; il s'est donné comme objectif de montrer toutes les possibilités offerte par cet outil tout en suivant une perspective pratique : les exemples de code M ou de langage R rendront votre travail plus efficient, c'est-à-dire plus simple et plus rapide.
Explorer parce que cet outil, qui évolue de mois en mois, offre une richesse d'utilisation impressionnante, et nous incite à essayer de nouvelles pistes pour extraire, transformer et analyser l'information. Ainsi, les efforts que met l'éditeur sur la partie IA sont tout à fait significatifs et offrent déjà des possibilités très utiles.
Entre autres thèmes seront donc abordés :
- l'importation de données à partir d'Internet, à partir de fichiers source complexes et les bases des langages M et R pour accélérer l'importation et la transformation des données ;
- les meilleures pratiques pour la mise en place d'un modèle de données conforme au fonctionnement optimal de cet outil et l'importance du modèle « en étoile » ;
- une plongée dans la fonction CALCULATE, pour en maîtriser les subtilités, les « motifs », c'est-à-dire les formes fréquentes, et une mise en pratique pour effectuer des analyses courantes ;
- un tour d'horizon des visuels reposant sur l'intelligence artificielle.
L'auteur vous invite dans ce livre à un saut qualitatif dans l'utilisation de cet outil qui s'est imposé en quelques années comme le leader dans son domaine.
Dans tous les métiers en lien avec le numérique, il est aujourd'hui nécessaire de savoir exploiter les données pour les représenter et ainsi mieux les analyser. Google Data Studio (ou GDS) est l'outil le plus simple et le plus ludique à utiliser pour gérer, visualiser et présenter ses données à travers des rapports graphiques et visuels.
L'objectif de ce livre est de vous apprendre à construire pas à pas vos rapports afin que vous puissiez mettre rapidement en pratique les conseils et les recommandations qui s'y trouvent. Il est destiné à tous ceux qui utilisent de près ou de loin les données dans un contexte commercial et marketing : chef d'entreprise, commercial, professionnel du marketing et du digital, responsable financier...
Les premiers chapitres sont destinés à la compréhension et à la présentation des enjeux de la donnée. Nous avons pris le temps de détailler toutes les subtilités autour de ce domaine d'avenir que sont les disciplines et métiers de la donnée.
Les chapitres suivants vont vous permettre de découvrir l'interface puis d'exploiter pas à pas les fonctionnalités de Google Data Studio : connecteurs, sources de données, représentation graphique, mise en forme... L'ensemble des fonctionnalités de cet outil, pensé et construit pour être ergonomique et facile à prendre en main, sont abordées.
Un chapitre est dédié à des sujets plus complexes tels que l'utilisation des champs calculés, des expressions régulières, des thèmes afin de vous permettre d'aller plus loin dans la mise en forme et l'utilisation des dimensions et des statistiques sur Google Data Studio. Il présente également les outils qui vous permettront d'élargir vos connaissances à savoir la communauté et le blog GDS.
Le livre se termine par une mise en pratique réalisée pas à pas permettant la réalisation de tableaux de bord marketing web et SEO exploitant les données issues de Google Analytics.
Ce livre s'adresse à toute personne désireuse d'apprendre à administrer une base de données transactionnelle SQL Server 2019 ; administrateur de base de données mais aussi développeur.
Il présente les différents éléments nécessaires à cette administration ainsi que l'ensemble des manipulations à réaliser par l'administrateur, depuis l'installation jusqu'aux opérations de sauvegarde et de restauration, en passant par la gestion de l'espace disque, la gestion des utilisateurs, la gestion de la réplication.
Les différents outils permettant l'optimisation du serveur sont présentés, tels que l'analyseur de performances, SQL Profiler et l'assistant de paramétrage de base de données.
Les différentes opérations sont réalisées depuis SQL Server Management Studio et en Transact SQL.
Des exercices avec leurs corrigés sont proposés au lecteur pour une mise en pratique immédiate des concepts présentés. Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.
Ce livre sur Power BI Desktop est organisé en trois parties, correspondant à trois livres existants issus de la collection Solutions Business : le premier détaille toutes les étapes nécessaires à l'élaboration d'un reporting efficace, de la connexion aux données et de leur préparation à la construction puis à la diffusion du rapport. Le second livre a comme objectif d'aller plus loin dans l'utilisation de Power BI Desktop et d'aborder cet outil, non pas comme un auxiliaire à Excel ou à d'autres applications, mais comme l'outil central d'analyse de l'information. Le troisième livre est un focus sur le langage DAX et doit vous permettre d'acquérir une très bonne maîtrise de ce langage à travers une alternance de bases théoriques indispensables pour comprendre le fonctionnement du DAX et de nombreux exercices de mise en pratique.
1e partie : Power BI Desktop De l'analyse de données au reporting (2e édition) Ce livre sur Power BI Desktop est destiné à l'utilisateur d'Excel qui souhaite pousser l'analyse de données dans un environnement familier, comme au spécialiste des bases de données qui veut en exploiter les ressources et diffuser l'information. Né de l'expérience de Microsoft dans le domaine des bases de données, dans la continuité d'Excel et de ses compléments (Power Query, Power Pivot), Power BI Desktop est un outil complet de préparation des données et de leur exploitation (qui repose sur le langage DAX) grâce aux langages M...
2e partie : Power BI Desktop Renforcer, approfondir, explorer Ce livre sur Power BI Desktop a été rédigé dans la continuité du livre Power BI Desktop - De l'analyse de données au reporting du même auteur.
Renforcer et approfondir, parce que son objectif est d'aller plus loin dans l'utilisation de Power BI. L'auteur s'est appuyé sur une approche propre à Power BI, tant pour l'extraction des données et la mise en place du modèle, que pour l'utilisation du langage DAX ; il s'est donné comme objectif de montrer toutes les possibilités offerte par cet outil tout en suivant une perspective pratique : les exemples de code M ou de langage R rendront votre travail plus efficient, c'est-à-dire plus simple et plus rapide...
3e partie : Le langage DAX - Maîtrisez l'analyse et la modélisation de données dans Power BI et Excel Ce livre sur DAX vient compléter les livres Power BI Desktop, De l'analyse de données au reporting et Renforcer, approfondir, explorer écrits par le même auteur. Le but de cet ouvrage est de vous permettre d'acquérir une très bonne maîtrise de ce langage à travers une alternance de bases théoriques indispensables pour comprendre le fonctionnement du DAX et de nombreux exercices de mise en pratique...