Les métaheuristiques sont utilisées pour résoudre des problèmes d'optimisation complexes, à chaque fois que l'on veut identifier, avec un temps de calcul raisonnable, des solutions efficaces. Il s'agit donc d'une approche pragmatique, qui a des sources d'inspiration multiples. L'objectif de cette série est d'étendre le champ d'application des métaheuristiques, en proposant des approches transversales du domaine, des études centrées sur des applications spécifiques ou encore des analyses consacrées à des familles de métaheuristiques particulières.
Métaheuristiques pour les réseaux électriques intelligents analyse l'usage des métaheuristiques au travers d'applications indépendantes mais fédérées par la même méthodologie.
Il aborde l'ouverture vers les SmartGrid et MicroGrid. Celle-ci redéfinit l'approche et suscite un engouement quant à la maîtrise de la complexité. La notion d'échelle est étudiée via le couplage de l'information entre niveaux d'échelle.
Dans cet ouvrage, le champ d'investigation est par essence pluridisciplinaire. L'apport massif de la « donnée » renforce la nécessité de coupler problématique physique, champ d'optimisation et valeur quantitative de la donnée.
Faisant suite au premier volume qui introduit la plate-forme NetLogo comme un moyen de prototypage de modèles simples, ce deuxième volume se concentre sur l'utilisation avancée de NetLogo pour connecter les données et les théories, ce qui en fait un outil essentiel pour la communauté scientifique.
Simulation spatiale à base d'agents avec NetLogo 2 se concentre sur la modélisation par agents des phénomènes spatialisés à travers une approche méthodologique et pratique. Il démontre comment les méthodes et les techniques avancées de simulation spatiale basées sur les agents peuvent être mises en oeuvre.
Cet ouvrage permet d'approfondir les bases théoriques et conceptuelles dans le domaine de la modélisation ainsi que les connaissances algorithmiques et techniques de l'informatique en vue de mettre en oeuvre les modèles produits.
La série Systèmes d'information avancés approfondit les nouvelles formes du SI qui est devenu, avec le numérique, le véritable système nerveux de toute organisation.
En quelques décennies, les systèmes d'information (SI) sont devenus un levier majeur d'évolution et de transformation des entreprises. Bien maîtrisés, ils peuvent apporter des avantages concurrentiels décisifs. Mal maîtrisés, ils peuvent être vus comme une charge, voire un frein pour le développement de l'entreprise.
Transformation numérique : évaluation de la gouvernance du SI propose aux DG et DSI une méthode d'évaluation simple, compréhensible et concrète dans le but de mieux piloter leurs investissements SI.
Une première partie analyse l'importance d'une bonne gouvernance du SI pour réussir la transformation numérique et insiste sur la façon dont cette gouvernance doit s'articuler avec la gouvernance d'entreprise.
Une deuxième partie propose un outil concret d'évaluation permettant d'apprécier le niveau de préparation de l'entreprise en la matière et d'en déduire les actions les plus pertinentes et urgentes à mettre en oeuvre.
Un navigateur qui permet l'accès à Internet, une connexion et un peu de temps pour se familiariser avec JavaScript sont les bases pour aborder l'immense réservoir de données du Web.
JavaScript et les données du Web propose une exploration de JavaScript du point de vue de l'accès et de la présentation des données. Cet ouvrage détaille les outils introduits par les normes récentes du JavaScript (ES5, ES6) sur les navigateurs postérieurs à 2015. Dans un premier temps, les parties « Core JavaScript » et « JavaScript Client Web » examinent ces outils, puis la partie « Applications » permet de se familiariser avec les compétences de base du « data scientist ».
Basé sur la norme la plus récente, cet apprentissage du JavaScript permet d'explorer, sans outil complémentaire, l'univers numérique du Web, à l'ère du Big Data, que toute personne est susceptible de pouvoir visiter sans intermédiaire.
Réalité virtuelle (RV), réalité augmentée (RA), deux expressions que nous voyons fréquemment citées dans les médias, mais qui restent le plus souvent inconnues de la grande majorité, tant du grand public que du monde professionnel. En effet, la RV et la RA existent depuis longtemps mais restent jusque-là principalement cantonnées au monde de la recherche et au sein de quelques grandes entreprises. L'apparition de nouveaux matériels peu coûteux (visiocasques, capteurs, etc.) laisse entrevoir de nombreuses applications notamment pour le grand public.
Réalité virtuelle et réalité augmentée a pour objectif d'aider à mieux comprendre ces technologies, leur fonctionnement et surtout les applications qu'elles proposent aux futurs utilisateurs. Afin d'apprécier les véritables avancées et distinguer les défis complexes qui restent à relever, cet ouvrage définit les concepts fondamentaux, décrit des exemples concrets d'utilisation et plonge ces évolutions récentes dans une dynamique temporelle en rappelant les faits majeurs des dix dernières années et en fournissant quelques pistes prospectives pour le futur.
Même si l'intelligence artificielle a, dès sa naissance dans les années 1950, retenu toute l'attention des acteurs de la défense dans de nombreux pays du monde, ce n'est qu'une vingtaine d'années plus tard qu'elle rencontre un réel succès avec l'application des systèmes experts militaires. Aujourd'hui, l'intelligence artificielle participe pleinement à la transformation du cyberespace et à la militarisation de ce dernier.
Cet ouvrage retrace et analyse le parcours réalisé par l'intelligence artificielle dans les domaines de la sécurité et de la défense dans le monde (États-Unis, Russie, Europe, Asie, etc.). À l'ère du cyberespace, de la cybersécurité et de la cyberdéfense, l'intelligence artificielle est mise au service de nouvelles doctrines et stratégies militaires. En raison de leurs potentiels effets et de la difficulté de leur maîtrise, les utilisations envisagées soulèvent cependant de très nombreuses questions aux niveaux tactiques, opérationnels, stratégiques et politiques.
La question des méthodes de recherche en sciences humaines et sociales (SHS) en matière de cybersécurité reste encore à explorer. Pour les SHS, ce nouveau phénomène, complexe et multiforme, génère des lectures différentes mais complémentaires : politiques, stratégiques, militaires, économiques ou juridiques. Se pose donc la question des méthodes de recherche pour analyser les causes et les conséquences, humaines et matérielles, de la cybersécurité.
Cet ouvrage détermine si les méthodes traditionnelles de recherche en SHS sont adaptées à la réalité du cyberespace puis, à l'appui de ce constat, propose des méthodes plus pertinentes qui pourraient être mobilisées pour l'étude de la cybersécurité. Il présente les disciplines des SHS auxquelles la cybersécurité s'intéresse, et précise comment délimiter l'objet cybersécurité pour le traiter analytiquement par les SHS. Il répond enfin à la question de savoir quelle plus-value peut être apportée par les SHS à l'étude de la cybersécurité dans un cadre multidisciplinaire.
Depuis 50 ans, le microprocesseur, forme moderne et intégrée de l'unité centrale, n'a cessé d'évoluer en termes d'intégration de fonctions, de puissance de calcul, de baisse de prix et d'économie d'énergie. Il est aujourd'hui présent dans la quasi-totalité des appareils électroniques. Bien connaître ses mécanismes internes et sa programmation est essentiel pour comprendre et maîtriser le fonctionnement d'un ordinateur et les concepts évolués de programmation.
Le microprocesseur 1 traite des deux premières générations de microprocesseurs, c'est-à-dire celles qui manipulent les entiers aux formats de 4 et 8 bits. Ce volume présente la fonction de calcul, rappelle celle de mémorisation et précise les notions de modèle de calcul et d'architecture des ordinateurs.
Des exemples puisés dans les technologies actuelles et anciennes illustrent et rendent accessibles les concepts théoriques.
La série Applications logicielles certifiables présente de manière concrète et critique les étapes de réalisation d'une application logicielle, un processus complexe nécessitant un travail d'équipe.
Ce deuxième volume est dédié à la description des processus supports. Il en couvre les principales thématiques : la gestion des ressources humaines et de la configuration, l'archivage, la vérification et la validation du logiciel. Cet ouvrage analyse également l'impact de l'utilisation des composants sur étagère (COTS) et des logiciels préexistants sur les applications certifiables.
En s'appuyant sur les définitions présentées dans le premier volume de la série, le lecteur trouvera ici une description essentielle et complète des processus supports qui doivent être mis en oeuvre pour réaliser une application logicielle.
Plébiscités par les différentes plateformes de contenus (livres, musiques, films) et par les sites de ventes en ligne, les systèmes de recommandation sont des éléments-clés des stratégies numériques. Si leur développement visait à l'origine la performance des systèmes d'information, les enjeux se sont aujourd'hui massivement déplacés sur des logiques d'optimisation de la relation client, avec comme objectif principal de maximiser les ventes potentielles. D'approche transdisciplinaire, Les moteurs et systèmes de recommandation réunit des contributions liant sciences de l'information et de la communication, marketing, sociologie, mathématiques et informatique. Il traite de la compréhension des modèles sous-jacents aux systèmes de recommandation et détaille leur mise en perspective historique. Il analyse également leur développement dans les offres de contenus et évalue leur impact sur le comportement des usagers.
Les identités numériques tiennent un rôle prépondérant dans l'actualité, provoquant travaux et débats intenses, au sujet de l'évolution des usages sur Internet comme de l'émergence de nouveaux services numériques. Le manque de maîtrise des technologies utilisées, la recrudescence des délits d'usurpation d'identités, la volonté de l'Europe et de la France de réglementer Internet, de protéger la vie privée des citoyens et de développer des services de confiance, sont autant de problèmes posés par l'informatisation du monde. Cet ouvrage propose un état des lieux des réflexions et travaux sur la gestion des identités numériques dans divers contextes, comme les réseaux sociaux, le Cloud computing et l'Internet des objets. Les avancées techniques et juridiques visant à protéger les identités numériques y sont exposées, en portant une attention particulière sur les techniques d'authentification, les outils de fédération d'identités et les techniques de protection de la vie privée.
Les métaheuristiques sont utilisées pour résoudre des problèmes d'optimisation complexes, à chaque fois que l'on veut identifier, avec un temps de calcul raisonnable, des solutions efficaces. Il s'agit donc d'une approche pragmatique, qui a des sources d'inspiration multiples. La série Les métaheuristiques a pour objectif d'étendre leur champ d'application, en proposant des approches transversales du domaine, des études centrées sur des applications spécifiques ou encore des analyses consacrées à des familles de métaheuristiques particulières. De par leur diversité et leur difficulté, les problèmes logistiques sont, pour la recherche opérationnelle, un sujet d'étude à l'intérêt constamment renouvelé. Alors que les mathématiques semblent à court d'arguments pour les résoudre, une famille de méthodes appelées métaheuristiques permet d'apporter des réponses en proposant une approche à la fois flexible, robuste et efficace. Pour illustrer ces méthodes, ce livre s'appuie sur l'étude de nombreux problèmes logistiques concrets : voyageur de commerce, sac-à-dos, ordonnancement, planification, localisation. Ces problèmes, aussi différents qu'ils puissent paraître, peuvent tous être résolus avec un recuit simulé, une recherche locale itérée, un algorithme génétique ou des essaims particulaires. La présentation d'approches simples et générales aidera les étudiants à programmer leurs premières métaheuristiques, tandis que la description de techniques plus élaborées (implémentation de Taillard, chaînes d'éjection) permettra aux ingénieurs plus aguerris d'approfondir leurs connaissances.
Cet ouvrage présente l'ensemble des moyens permettant de réaliser une application logicielle pour un système critique de sécurité en prenant en compte les besoins de certification, depuis la phase d'analyse du besoin jusqu'à la phase de livraison. Dans les domaines ferroviaire, aéronautique ou nucléaire, le mauvais fonctionnement de certains systèmes peut avoir de graves conséquences, notamment en matière de sécurité. Pour ces systèmes dits « critiques », des procédés de certification, volontaires ou obligatoires, permettent de démontrer la maîtrise de la qualité dans leur réalisation. Or, dans ces systèmes complexes, la sécurité, la fiabilité et la maintenabilité dépendent directement des applications logicielles. La création de ces applications doit donc elle aussi passer par des processus et des méthodes spécifiques afin d'être conforme aux différentes normes métiers. Ce volume détaille les principes mis en oeuvre (sûreté de fonctionnement, techniques de sécurisation, management des exigences.) pour éviter, détecter et corriger les défauts d'une application logicielle et la rendre certifiable.
Les procédés stéréoscopiques, qui permettent de reproduire la perception du relief, sont de plus en plus utilisés en réalité virtuelle et dans les divertissements ; en marge de leur succès, des questions se posent cependant sur la fatigue visuelle qu'ils peuvent engendrer, de plus en plus ressentie par les utilisateurs. Cet ouvrage explique les grands principes de la vision stéréoscopique et les raisons pour lesquelles celle-ci peut être source de fatigue. Il se découpe en quatre parties : la première détaille le fonctionnement naturel de la vision, la seconde étudie la reproduction technique de la perception en relief et la troisième est consacrée aux causes de la fatigue stéréoscopique. Enfin, la dernière partie propose deux techniques de réduction des contraintes visuelles basées sur une modification des stimuli pour amener à une réduction du conflit entre accommodation et vergence : l'une consiste à modifier l'image pour relâcher l'accommodation en gardant le relief ; l'autre propose de modifier le relief en conservant l'accommodation.
La série Systèmes d'information avancés approfondit les nouvelles formes du SI qui est devenu, avec le numérique, le véritable système nerveux de toute organisation.
Cet ouvrage analyse l'impact des systèmes d'information (SI) sur le management des alliances stratégiques asymétriques Nord-Sud et étudie les différentes formes de partenariats à travers une série d'études de cas approfondies.
Il expose les différentes modalités d'intégration des SI, lesquelles sont intimement liées aux choix organisationnels et structurels de l'alliance.
La nature et l'intensité de l'interdépendance des partenaires stratégiques déterminent non seulement la configuration de leur intégration informationnelle mais également les modalités de diffusion de l'information, de coordination et de contrôle des activités développées en commun. Placé au coeur du processus de création de valeur, le choix du type de SI apparaît dès lors comme un enjeu stratégique qui doit s'articuler tant avec les choix organisationnels liés à la forme de l'alliance retenue qu'avec les systèmes de gestion et pratiques managériales propres à chacun des partenaires.
Les applications web sont la cible privilégiée des pirates. Mal conçues, elles leur permettent d'accéder à des informations confidentielles, voire de pénétrer dans le système informatique de l'entreprise.
Sécuriser une application commence par l'estimation du risque qu'elle peut faire courir. Cela passe par une étude des besoins en confidentialité, en intégrité et en disponibilité, puis par une évaluation des impacts en cas d'incident. De plus, l'application doit être correctement structurée - le modèle MVC est une bonne méthode pour l'architecturer - et doit s'appuyer sur une configuration correcte des serveurs web.
Après un rappel sur les bases du chiffrement et la configuration des serveurs web, La sécurisation d'une application web présente les attaques les plus courantes et offre des solutions afin de s'en protéger avec PHP. Il traite de l'identification des utilisateurs, de la gestion des droits ainsi que des mécanismes avancés pour surveiller les actions réalisées. Enfin, il précise comment tester la résistance du logiciel avant sa mise en production.
La société moderne est de plus en plus dominée par la société virtuelle, le nombre d'internautes dans le monde ayant dépassé les trois milliards en 2015. A la différence de leurs homologues séquentiels, les systèmes répartis sont beaucoup plus difficiles à concevoir, et sont donc sujets à de nombreux problèmes.
La cohérence séquentielle fournit la même vue globale à tous les utilisateurs, mais le confort d'utilisation qu'elle apporte est trop coûteux, voire impossible, à mettre en oeuvre à grande échelle. Concurrence et cohérence dans les systèmes répartis examine les meilleures façons de spécifier les objets que l'on peut tout de même implémenter dans ces systèmes.
Cet ouvrage explore la zone grise des systèmes répartis et dresse une carte des critères de cohérence faible, identifiant plusieurs familles et démontrant comment elles peuvent s'intégrer dans un langage de programmation.
Cet ouvrage constitue une introduction à la programmation concurrente, temps réel et distribuée avec le support du langage orienté objet Java comme outil de description d'algorithmes. Il décrit en particulier les mécanismes de synchronisation (coopérative et compétitive) et de partage de données (classe interne, variables de type statique) entre Threads en Java.
Programmation concurrente, temps réel et distribuée en Java présente la programmation distribuée en Java, ainsi que la spécification RTSJ (Real Time Specification for Java) dédiée au développement d'applications temps réel en Java. On s'intéresse en particulier à la communication bas niveau utilisant les Sockets TCP et à la communication haut niveau utilisant le middleware Java RMI (Remote Method Invocation).
Une partie de l'ouvrage est consacrée à un ensemble d'exercices d'applications pratiques.
La série Systèmes d'information avancés approfondit les nouvelles formes du SI qui est devenu, avec le numérique, le véritable système nerveux de toute organisation.
Les Big Data s'affirment tous les jours un peu plus comme le nouvel « or noir ». Les grands acteurs du numérique tels que Google, Amazon, Facebook et Apple, mais aussi les grandes entreprises, en ont fait un axe de développement important.
Leur exploitation reste encore une affaire d'experts, mais l'ère des algorithmes arrive à grands pas, plus précisément celle de l'intelligence artificielle, qui est sans doute la réponse la plus prometteuse à l'exploitation massive, autoapprenante et autonome de ces Big Data.
Cet ouvrage propose de parcourir la face cachée de cette nouvelle ère et permet de comprendre comment, au travers d'exemples concrets, cette intelligence différente de la nôtre va sans doute changer notre perception du monde, nos relations... Reste à savoir jusqu'à quel point nous lui déléguerons nos décisions.
La série Systèmes d'information avancés approfondit les nouvelles formes du SI qui est devenu, avec le numérique, le véritable système nerveux de toute organisation.
Depuis qu'ils communiquent, les hommes ont mis en oeuvre des technologies pour supporter l'échange d'informations. Du réseau de torches de l'armée romaine à l'Internet en passant par l'imprimerie et le télégraphe, ces technologies ont induit des menaces qui ont dû être appréhendées pour assurer la sécurité des informations transmises.
La sécurité des systèmes d'information est souvent regardée au travers d'un prisme se focalisant sur les technologies. Or, depuis toujours, une autre menace existe indépendamment des technologies. La menace intérieure ambitionne de changer de paradigme et traite de la sécurité des systèmes d'information en considérant les individus comme des composants à part entière. Tout comme n'importe quel ordinateur ou technologie, ils peuvent constituer une menace intérieure pour la sécurité du système d'information.
Prenant appui sur la littérature académique et sur des cas réels, cet ouvrage expose des modèles théoriques, des situations pratiques et analyse ce qui peut faire de chacun d'entre nous une menace intérieure pour la sécurité des systèmes d'information.
La série Systèmes d'information avancés approfondit les nouvelles formes du SI qui est devenu, avec le numérique, le véritable système nerveux de toute organisation.
Cet ouvrage propose une nouvelle méthodologie pour la recherche en informatique centrée sur l'humain (RICH). Il présente la méthode THEDRE (Traceable Human Experiment Design Research) qui valorise l'intégration de l'individu dans le processus de recherche dans les phases de construction et d'évaluation des dispositifs numériques.
Dans cet ouvrage, l'approche centrée sur l'utilisateur est présentée en détail et mise en perspective avec la démarche qualité pour la traçabilité des processus. THEDRE propose un langage et des outils pour définir une méthode de recherche adaptée à chaque projet de recherche et permet de gérer un processus de recherche collaborative.
Cet ouvrage permet d'acquérir des connaissances en pratiques expérimentales pour la recherche en informatique centrée sur l'humain. Il s'adresse aux doctorants ou aux chercheurs qui se préoccupent de la traçabilité de leurs résultats dans le contexte de la RICH.
Désirs, insuffisances et améliorations sont trois facteurs qui conditionnent les objectifs à atteindre dans un système industriel.
Cet ouvrage traite du fonctionnement et de l'évolution du système industriel, mais aussi de l'acteur, gestionnaire des objectifs, des actions, et pilote d'exécution vers la performance visée. Il étudie la notion de système et la rattache à celle d'observateur ainsi qu'à ses intentions. Le concept de variable, outil composé des aspects nécessaires à l'atteinte d'un but, y est aussi revisité. Un retour sur ce dernier est effectué sur la base d'une distinction entre le désir et le besoin.
Enfin, la théorie des sous-ensembles flous est utilisée pour représenter les valeurs de l'objectif et l'incertitude de la mesure. Elle permet de calculer l'expression de la performance, selon ses sémantiques de mesure et d'évaluation.
Au-delà de l'intelligence artificielle examine deux modèles qui se complètent et se renforcent mutuellement : le modèle organisationnel de la conscience naturelle et le modèle constructible d'une conscience artificielle.
Cet ouvrage pluridisciplinaire présente une architecture du système psychique humain selon une approche organisationnelle qui mêle les analyses montantes et descendantes, précisant comment se génèrent les faits de conscience dans un système psychique qui s'autocontrôle. Le modèle décrit la façon dont se réalise la sensation d'éprouver ses pensées et de les utiliser avec une mémoire organisationnelle.
Ce modèle est ensuite transposé dans le domaine du calculable, en développant une architecture organisationnelle basée sur des systèmes multi-agents massifs morphologiquement autocontrôlés. L'architecture est développée en montrant comment un système artificiel peut être doté de conscience, générer intentionnellement des pensées en les ressentant avec la notion d'un soi artificiel et comment il peut être déployé en métasystème.
Notre dépendance aux systèmes de systèmes est telle que toute défaillance engendre des conséquences financières et humaines critiques. Leur conception technique, leur complexité fonctionnelle et leurs nombreuses interfaces justifient un investissement important en tests pour pouvoir limiter les anomalies et les dysfonctionnements.Les tests de logiciels 2 s'appuie, sur plus de quarante années de pratique dans le développement et le test des systèmes de systèmes pour présenter des modèles de développement, des méthodologies et des techniques de test. Il expose en détail leurs avantages et leurs inconvénients. Didactique et pragmatique, cet ouvrage analyse également les façons d'améliorer la qualité des systèmes de systèmes de façon efficiente et permet d'identifier les conséquences des décisions prises en amont. Les développements présentés sont complétés dans le troisième volume du même titre.