Consultez le planning des conférences et des ateliers !
Pour en savoir plus sur une conférence ou un atelier, cliquez sur le sujet pour en avoir la description

Salle
IGN
Salle
Talan
Salle
DATAGALAXY
Nantes
Métropole
Salle
NaonedIA
Ateliers Démo 1 Atelier Démo 2 AUTRE ATELIER

PROGRAMME DU MATIN​

9h-9h50
IA, machines autonomes et Ethique : un défi majeur

10h-10h50
Du sourcing à la recommandation, comment Aramis Auto s'appuie sur les différents usages de l'IA pour adapter son offre aux besoins clients ?

11h-11h25
NaonedIA - Roadmap de l'association citoyenne de l'IA dans le grand Nantes

11h30-11h55
INSEE : les données à l'échelle de la ville

12h-12h25
IA et DATA au service de l'agriculture

Salle
IGN
Salle
Talan
Salle
DATAGALAXY
Nantes
Métropole
Salle
NaonedIA
Ateliers Démo 1 Atelier Démo 2 Autre ATELIER

PROGRAMME DE L'APRES-MIDI

14h-14h50
CamemBert ou comment nourrir la satisfaction client

15h-15h25
Anonymisation : vœu pieux ou pierre angulaire de votre Stratégie Data 2025 ?

15h30-16h20
The Language of Data Visualisation

16h30-17h20
REX projets data : le pas de côté avant de démarrer

17h30-17h55
DataOps et FinOps, les clés de l'amélioration continue de la valorisation des données ?

Fermer le menu

10h-12h

PitchMaBoîte

Atelier animé par Serge Blanc.

10h15-11h

DataRobot en action sur un cas d'usage piloté par ASI

Comment évoluera la demande de mes clients ?
C’est l’une des questions récurrentes que les Entreprises se posent. Savoir comment évoluera la demande de ses Clients est clé pour prendre les bonnes décisions opérationnelles et stratégiques.
Pour y répondre, DataRobot est une solution d’Intelligence Artificielle qui génère des prévisions de demande de produits et services sur plusieurs mois. En effet, DataRobot permet de créer et de déployer des modèles prédictifs qui aident votre organisation et vos équipes à faire des prévisions de demande sur des cas d’usage variés.
Dans le cadre de l’atelier, les consultants d’ASI auront à cœur de vous montrer comment DataRobot aide à prédire les ventes qui vont être réalisées dans 10 magasins en France durant les 7 prochains jours en vue d’anticiper au mieux les besoins de ses Clients.

10h30-11h55

INSEE : les données à l'échelle de la ville

Pour comprendre et adapter l’action publique aux problématiques spécifiques de l’espace urbain, il est essentiel d’observer la ville au niveau géographique le plus fin.
Iris, quartiers prioritaires de la ville, carreaux : quelle est l’offre de l’Insee en matière de données infra-communales ? Quelles sont leurs limites ?
Chaque année, l’Insee diffuse davantage de données infra-communales. Les dernières publiées concernent les quartiers prioritaires de la ville ainsi que les données carroyées sur le niveau de vie ; elles sont disponibles notamment sous forme de tableaux et graphiques sur l’outil interactif Statistiques locales de l’Insee.
La conférence sera l’occasion de répondre à ces différentes questions et d’échanger sur cette thématique. Elle sera animée par Agnès Lerenard et Marie-Emmanuelle Faure de l’Insee.

14h30-15h15

Seenovate : SAP Analytics Cloud (SAC)

Présentation de la solution dataviz cloud de SAP • Capacité de restitution • Capacité de calcul, d’aide à la décision et de planification • Valorisation de la données avancée – DataScience Lien avec SAP BusinessObjects BI 4.3

13h30-14h20

Orchestration de pipeline de données en serverless avec Google Workflow

Conférence animée par Guillaume Blaquière.

Les process événementiel sont une nouvelle façon de traiter et d’ingérer les données.
Le serverless est un nouveau paradigme pour faire abstraction de la couche technique et se concentrer sur ce qui compte: les processus métier.
Les deux combinés, vous pouvez créer un pipeline de données puissant et évolutif sur Google Cloud. Vous pouvez réagir à un événement, déclencher l’étape suivante avec facilité et juste à temps.
La réalité n’est pas si belle, et ça devient vite devenu un cauchemar pour comprendre et mettre à jour les pipelines. Workflows est un nouveau produit sur Google Cloud qui orchestre les processus.
Venez découvrir ce qu’était le pipeline de données avant et comment il est plus fluide avec Workflow!

14h-15h30

Pilotez efficacement votre développement commercial

Atelier uniquement en présentiel. Pour vous inscrire, utilisez le lien suivant : https://app.placemeet.fr/salon-de-la-data/registration/wwv66uD0wO2iJweSfZd6
Depuis mars 2020, le comportement des clients a été profondément modifié. Ils aspirent à la fois à une relation humaine et digitale. Les challenges pour les PME sont nombreux. Comment les équipes commerciales peuvent-elles s’adapter en tirant bénéfice de la data ? Quelle méthode pour choisir un CRM adapté à son budget et son activité? Comment garantir un service satisfaisant à mes clients dans un contexte de montée des cyberattaques ?

9h-9h50

Programme « Machine Connectée » : Manitou x ASI ou Comment le groupe Manitou prépare l’avenir en investissant dans les machines connectées ?

Avec une présence internationale et plus de 1000 concessionnaires, le groupe Manitou conçoit, produit, distribue des matériels et des services de manutention, d’élévation de personnes et de terrassement à destination de la construction, de l’agriculture et des industries.
Depuis 2019, Manitou a lancé le programme « Machine Connectée » afin de proposer de nouveaux services à ses distributeurs et clients.
Les équipes ASI sont partenaires du groupe Manitou sur l’accompagnement métier, l’organisation et l’exploitation des données à des fins opérationnelles et décisionnelles : APIsation, qualité des données, event streaming, organisation, accompagnement back office…
Guillaume Lannoo, IT leader / Chef de projet IoT machine connectées Manitou et David Senis, Consultant Senior Data ASI vous propose de partager leurs retours d’expériences de ce projet opérationnel qui associe expertise IoT, Data, Digitale.
Nous décrirons ainsi, durant cette conférence, les enjeux du projet, le détail de la solution retenue ainsi que les leçons apprises après 24 mois de vie du projet : succès, difficultés, perspectives.

9h50-10h15

A la découverte du code source du vaccin Pfizer/BioNTech

nouvelle technologie des vaccins ARNm est composé d’un code source d’un peu plus de 4000 caractères. A travers ce talk, nous allons découvrir section par section le fonctionnement du vaccin et sa ressemblance avec un code informatique traditionnel.
Dans un premier temps, nous allons nous intéresser au fonctionnement d’un vaccin et particulièrement de ceux du type ARNm.
Nous verrons ensuite les multiples similitudes entre le « code » composant un vaccin et celui d’un logiciel informatique : entête, EOF, nous passerons tout le code au peigne fin.

10h25-11h15

Témoignages de Nantes Métropole et Orléans Métropole : datavisualisation, applications Web cartographiques

De la data à l’analyse et la visualisation, 2 exemples concrets de réalisations par 2 métropoles de l’Ouest. Les intervenants exposeront brièvement leurs enjeux, leur méthodologie, le choix des données et des outils pour construire des applications web utiles au domaine public, à la gestion des risques, à la sécurité des citoyens et à la prise de décision rapide.

11h30-12h20

Comment la data améliore l'efficacité des processus - Témoignage d'une PME mutualiste en forte croissance

Conférence animée par Erwan Josse, DataScientist à Business&Decision, et Bastien Philippe, Responsable actuariat – Territoria Mutuelle.

Si pour vous fin de mois rime avec émois ! Si pour vous, une grande partie de vos process reste encore manuelle, si la remontée et la transmission d’information sont plus longues qu’une mission de Thomas Pesquet, alors cette conférence est faite pour vous !
Nous verrons ensemble comment automatiser vos processus, améliorer la qualité de vos remontées d’information et propager la donnée au cœur de votre entreprise. Nous aborderons également les difficultés et les freins rencontrés lors de la mise en place d’un projet d’une telle envergure.
Cela sera également l’occasion de découvrir Knime et Tableau, outils qui ont rendus cette optimisation de process possible.

11h15-12h

Seenovate : Les nouveautés SAP BusinessObjects BI 4.3

Présentation de la dernière version de SAP BusinessObjects Présentation des chemins de migration Retour d’expérience de mise en œuvre et de projets de migration

10h15-11h

Datagalaxy : Réconcilier Métier et IT comment activer le levier du crowdsourcing pour la Data Gouvernance

Réconcilier Métier et IT comment activer le levier du crowdsourcing pour la Data Gouvernance

9h30-10h

Révolutionnez vos data visualization avec les technologies du jeu vidéo

Le jeu vidéo propose de nombreuses technologies et méthodes pour faire ressortir instantanément les données pertinentes. S’adressant aux programmeurs, cette présentation fait découvrir des librairies de jeux vidéo et des moyens accessibles, pour rendre la Data Visualization plus efficace et plus fun.

9h05-9h30

How Data Analytics & AI/ML can transform the insurance industry?

The Data Analytics and AI/ML solutions are not only technology enablers, they can transform the business and the way that financial companies can operate. After a presentation of the main AWS services for Data Analytics and AI/ML, we will focus on how these services can impact and transform the business. What are the use cases and the benefits?

11h15-12h

Enjeux Data et Numérique Responsable, le défi impossible ?

Le Numérique Responsable devient un enjeu de plus en plus majeur dans les organisations qui construisent et s’orientent vers une démarche Data Driven.
Pourquoi ? Car la data et ses usages peut se placer au cœur du Numérique Responsable, visant à réduire l’empreinte environnementale, économique et sociale de nos usages numériques.
Dans ce contexte, nous allons vous démontrer à chaque étape de vos projets, par des retours d’expérience, des cas d’usages et beaucoup de bienveillance, qu’avoir une démarche Numérique Responsable est une opportunité mesurable que l’on peut estimer et calculer et non qu’une contrainte sans ROI ni point de valeur pour l’entreprise.

9h15-10h

Kleegroup : Are you "AI Ready" ? Et si vous rendiez vos applications métiers intelligentes ?

Vous êtes convaincu(e) qu’intégrer l’IA dans votre application métier aidera vos collaborateurs au quotidien, et ainsi vous fera gagner en efficacité mais (oui, il y a un « mais »), l’équipe de développement ne compte pas de data scientist, votre IT rechigne à installer des technologies qui ne figure pas à son offre de services, vous ne savez pas par quel bout vous y prendre…
La marche semble trop haute. Nous vous proposons un outil et une méthode pour injecter de l’IA, utiliser les algorithmes les plus courants sur vos données, embarquer vos développeurs motivés et créer une dynamique data.

16h30-17h15

DigDash : Comment concilier pilotage, exploitation et communication des données grâce à un logiciel de tableaux de bord

DigDash est un éditeur français d’un logiciel agile de tableaux de bord, de visualisation de données, d’exploration et d’analytique.
Après une présentation de Digdash et de son contexte, nous aborderons plusieurs points au travers d’exemples concrets.
Les tableaux de bord de pilotage, l’exploration et la manipulation de données, la communication à une audience large autour de ces données.
Découvrez notre outil qui révolutionne la façon de travailler de nos clients. Tous secteurs confondus, il permet aux entreprises d’obtenir une visibilité claire sur leurs données.

12h-12h25

Compromis entre performance de l'algorithme et explicabilité des résultats ? La donne a changé !

Conférence animée par Pierre Girardeau 

Jusqu’à récemment, **plus les algorithmes de machine learning étaient performants, moins ils étaient explicables !** Or, si vous souhaitez que vos équipes fassent confiance aux prédictions des algorithmes (que ce soit un chiffre d’affaires ou bien un risque de pannes), **mieux vaut être capable de leur expliquer comment celui-ci arrive à sa conclusion**.

Cependant, de récents travaux de recherche, remettant élégamment au gout du jour les contributions de Shapley en économie, permettent **maintenant de mettre en avant la contribution de chacun des facteurs à la prédiction** d’algorithmes même complexes (comme les forêts aléatoires ou bien les réseaux de neurones).

Par exemple, nous sommes maintenant capables, dans le cas de la prospection commerciale, **non seulement de prédire le chiffre d’affaires futur d’un prospect, mais de montrer pourquoi l’algorithme arrive à cette prédiction** :

* les achats fournisseurs de l’entreprise sont plus élevés que la moyenne,

* elle est située dans une zone favorable à son business,

* et plus encore.

Nous montrerons en particulier une application à la **conquête commerciale pour le secteur de la pièce détachée agricole**. 

11h-11h50

Retour d'expérience sur le déploiement d'un Use Case avec DataGalaxy

Conférence animée par Julie Sartoretti et les équipes data de My Money Bank.

Retour d’expérience avec un de nos clients sur le déploiement de la solution de gouvernance des données DataGalaxy.

10h30-10h55

L'utilisation de l'analytique embarquée par [email protected]

The Information Lab accompagne [email protected] pour le déploiement de la solution analytique embarquée auprès des 15 000 agents immobiliers. Le groupe [email protected], 13e licorne française, a retenu la solution Tableau hébergée sur AWS.

10h-10h25

Comment rendre opérationnelle la gouvernance data ?

La gouvernance data est faite de process, documentations, définition et contrôle des rôles. Des travaux qui ont souvent du mal à s’inscrire au sein du quotidien des équipes opérationnelles et qui sont souvent un travail de l’ombre.
L’idée est de discuter de la manière dont la gouvernance data doit devenir plus sexy aux yeux de tous pour devenir une aide au quotidien de ces équipes.

9h30-9h55

Quand la dataviz interroge le menu des cantines

À partir d’un jeu de données ouvertes originale – celui du menu des cantines – deux experts en visualisation de données, Edith et Florian, vous proposent de suivre pas à pas toutes les étapes d’analyse des données et de conception de visualisations, qu’il s’agisse des réussites ou des déconvenues.
Dans ce cas d’étude, il s’agira de mettre les mains dans le cambouis et d’explorer **comment la dataviz sous différents formats peut créer de la valeur à partir d’un jeu de données**.

9h-9h25

OSMdata : faciliter l'exploration de la donnée d'OpenStreetMap

Conférence animée par Antoine Riche.

OpenStreetMap est une base de données géographiques participative et libre du monde. On peut y trouver les données allant d’une rue (passage piéton, recyclage, etc..) à celles d’un territoire (occupation du sol, divisions administratives, bâtiments, etc…).
Cette base est beaucoup utilisée pour la création de cartes (que ce soit en fond de carte, que pour découvrir les contributions des communautés locales).
Seulement chaque carte créée avec OpenStreetMap, ne montre qu’une partie limitée des données que son concepteur a voulu montrer en fonction des informations qu’il a voulu valoriser.
OSM DATA est un espace où l’on peut laisser son imagination s’exprimer en exploitant toute la richesse sémantique des objets contenus dans OSM.
Les rendus sont paramétrables grâce à QGIS, ce qui permet de profiter du moteur de rendu de ce logiciel.
Nous verrons comment OSM DATA fonctionne, comment créer un style et visualiser ceux qui y sont déjà hébergés.
C’est aussi le plaisir de rendre la donnée cliquable pour enfin permettre de valoriser le travail patient des contributeurs qui relient les objets à des ressources externes permettant de photo-illustrer et documenter l’objet en question.

15h-15h25

L’Intelligence Artificielle Comme Outil d’Aide à la Décision en Entreprise

Conférence animée par Sandrine Lunven de la saociété TacEconomics.

Nous proposons de présenter lors de ce salon, quelques exemples d’applications pratiques des méthodes développées par TAC ECONOMICS ces dernières années :
  – Prévision des risques sur les taux de change (Réseaux de neurones)
  – Evaluation de la santé financière des entreprises (Machine learning)
  – Détection de « signaux faibles » dans la presse internationale (Text mining)
  – Evaluation des risques de retournements brutaux sur les marchés financiers (Deep learning)
  – Création d’une base de données structurée, mise en place de solutions d’ETL et développement d’une API sur des sources d’informations sectorielles.

11h - 11h25

Les données de santé sont-elles en sécurité ?

En 2021, les cyberattaques envers les établissements de santé ont augmenté drastiquement. Au-delà de la perturbation d’un service essentiel à la société, les attaquants démontrent un intérêt de plus en plus important pour les données de santé.
Ce phénomène est concomitant avec plusieurs changements dans le contexte du parcours de santé : IA dans l’aide au diagnostic, valorisation des données exploitées par les centres hospitaliers, ouverture des données et des échanges avec les patients et les professionnels libéraux… mais également lié à cette crise du COVID-19 : télétravail des agents hospitaliers, répartition de la prise en charge des patients sur un territoire, vaccination, etc.
Ce contexte d’ouverture lié à l’augmentation de l’intérêt des groupes d’attaquants sur les données de santé implique que les établissements de santé doivent prendre en considération le risque numérique. Cette prise en compte doit passer par des investissements importants, mais également des changements de comportements de nos utilisateurs et de nos patients.

9h30-9h55

Présentation du projet de service public de la donnée de Brest Métropole

Conférence animée par Maël Le-Berre de Brest-Métropole.

Il s’agit de présenter la démarche brestoise dont l’objectif est de structurer une dynamique territoriale large autour de la circulation, de la diffusion, de la mise en partage et de l’utilisation des données publiques et des données d’intérêt général au service des territoires et de leurs acteurs.
Le projet repose notamment sur la création d’une structure dédiée (« tiers de confiance »), associant partenaires publics et privés du territoire. Cette structure aura donc pour objet de traiter des données collectées ou générées par la mise en œuvre des politiques et missions de ses adhérents, pour optimiser la gestion des ressources, dans une logique de développement et de croissance durables, pour comprendre et anticiper les aspirations et les besoins des individus, pour proposer un socle de services innovants aux différents usagers (collectivités territoriales, entreprises, particuliers, associations, etc).
Son objectif est celui de la mutualisation des moyens, des outils et des données.
Les 5 chantiers mis en œuvre :
     – chantier « charte éthique et concertation citoyenne » (conférence de consensus);
     – chantier « définition et mise en œuvre de cas d’usage »,
     – chantier « structuration juridique du 1/3 de confiance » (mutuelle),
     – chantier « technique » : quel(s) hébergement(s) ?, quelle gestion des flux (accès, API…) ?,etc, ;
     – chantier « modèle économique » : budget prévisionnel de l’association de préfiguration, définition du modèle économique du future 1/3 de confiance, modélisation économique des usages et de la valorisation des données d’intérêt général sur le territoire.

9h-9h25

Intelligence économique : de la sécurité économique à la sécurité numérique des entreprises et collectivités

Présentation de l’intelligence économique (triptyque : sécurité économique, veille, influence) et du dispositif en gendarmerie Les différents acteurs de l’intelligence économique en France (DGE, CISSE, SISSE, services de renseignement de la police et de la gendarmerie, INHESJ…) Analyse des risques et identification des menaces (e-réputation, sabotage, rançongiciel, espionnage industriel, entrisme en entreprise…) Principales mesures à mettre en œuvre pour protéger son entreprise ou sa collectivité (désigné un DSI et/ou RSSI, veille sur internet, protection des outils et savoirs faire, secret des affaires…) Conclusion (rappels et ouverture sur la protection physique des entreprises) ?

11h30-12h

L'Intelligence Artificielle Comme Outil d'Aide à la Décision en Entreprise

ETALAB

11h-11h25

Gratuité de toutes les données publiques IGN

Conférence animée par Thierry Blouin, Délégué Régional IGN pour les Pays de la Loire.

Opérateur public de référence pour l’information géographique et forestière en France, l’IGN a décidé de rendre l’ensemble de ses données publiques, gratuites et Open data au 1er Janvier 2021. Alors que l’ouverture de l’ensemble des données publiques demandée par le Gouvernement était prévue en 2022, l’IGN a anticipé et annoncé l’ouverture de ses données publiques à compter du 1er janvier 2021. Cet accès gratuit et libre pour tous, en téléchargement ou par flux, contribue au plan national de relance de l’économie, dans un monde où les usages du numérique et les besoins en matière d’information géo localisée évoluent rapidement.

10h-10h50

Sortez vos données du frigo - Manifeste pour une exploitation intensive ET responsable des données et de l'IA

Conférence animée par Mick Lévy de la société Business&Decision.

Les données sont souvent qualifiées de nouveau pétrole et l’IA de nouvelle électricité… Rien que ça ! Ces deux sujets sont d’ailleurs indissociables, car la matière première de l’IA, ce sont les données. Et ça tombe bien ! Car toutes les entreprises et en particulier les banques, en stockent, mais n’en exploitent que 32 % en moyenne. On peut ainsi affirmer qu’elles constituent l’actif le moins exploité de toute l’entreprise. Alors, il est grand temps de les sortir du frigo pour les faire fructifier et les valoriser.

12h-12h25

IA et DATA au service de l'agriculture

Conférence animée par Xavier Lhostis et Louis Peyron de la société Advanciel.

L’agriculture est confrontée à de nombreux enjeux.
Le premier est l’environnement et la durabilité, l’objectif est la diminution des intrants avec le principe de « la bonne chose/dose, au bon moment, au bon endroit », mais aussi l’optimisation de l’utilisation des ressources « naturelles » telles que le pâturage pour diminuer l’achat d’aliments. Pour répondre à cet enjeu, l’acquisition automatique de la donnée selon différents canaux (capteurs, satellite, météo), le stockage massif de ces données et la valorisation de celles-ci pour agir, prédire dans des outils d’aide à la décision représente un enjeu capital pour les entreprises.
L’agriculture fait aussi face à des enjeux sociétaux, avec une demande accrue de visibilité autour de la traçabilité alimentaire sur toute la supply chain agricole (de la fourche à la fourchette) . Celle-ci a été accélérée avec l’arrivée de chartes de production, de labels (AOC, AOP ….), pour lesquels le numérique doit pouvoir apporter la preuve sur les indicateurs de suivi, que ce soit pour les producteurs ou les transformateurs.
Associé aux enjeux sociétaux, il y a aussi les problématiques liées au suivi et à la factualisation du bien-être animal et de la bien-traitance.
De nombreuses technologies innovantes sont des opportunités pour répondre à ces enjeux : IoT pour la traçabilité et la localisation des animaux, monitoring multi-canal des animaux (photo, vidéo, son) pour suivre le comportement des animaux ceci en utilisant du machine learning et de l’intelligence artificielle, blockchain pour la traçabilité de la supply chain.
Cette conférence a pour objectif de mettre en avant les enjeux de l’agriculture de demain qui doivent accélérer la transformation digitale des entreprises de la filière agricole, mais aussi de vulgariser et de mettre en avant les innovations à travers la présentation d’exemples et de cas d’usages opérationnels (IoT, Monitoring Vidéo ou sonore , Plateformes de partage de données, Blockchain, prédictif agricole ) ceci, à toutes les étapes de la chaîne de valeur de la data.

17h-17h50

Monitoring thousands of business metrics at scale with Thirdeye

Big data is becoming a commodity. Warehousing is a matter of a few clicks in your cloud provider console.
Building dashboard is easier than ever thanks to commercial and open source visualisation tools like Apache Superset.
Intelligent consumption is a few lines of code away thanks to high-level machine learning librairies.
Still, what lies in the middle of all of this is a mess. Trusting the data is harder than ever before.
Sources, pipelines and teams using data are all growing at the same time.
Monitoring data quality, tracing incidents, and testing changes can be daunting and often takes hours to days.
A small data problem makes you at risk of loosing all your client’s trust in your product. At AB Tasty, we allow teams to make important, data informed decision about their product.
In this presentation, we show how we implemented the hourly monitoring of business metrics for all of our clients, using Thirdeye.
Thirdeye is a platform for anomaly detection and root cause analysis on big data, open-sourced by Linkedin 2 years ago. To our knowledge, we are the biggest user of Thirdeye in terms of number of metrics monitored.
We’ll review the technical considerations integrating such a platform, and discuss the impacts it had on our operations.

14h-14h45

Devenez Data Centric et non pas Data Driven

Atelier animé par Cyrille COQUERET – CTO

Être Data Driven c’est l’objectif de toute société. Mais pour réellement bouleverser votre marché rapidement, il faut passer une autre étape : Être Data Centric. Nous vous donnons les éléments pour élaborer votre stratégie Data

17h30-17h55

Le travail c'est la donnée : éclairage pratique sur l'application du RGPD à la relation salariée

L’application de la réglementation en matière de données personnelles (RGPD, loi Informatique et Libertés) dans le monde du travail soulève de nombreuses questions, notamment:
 – jusqu’où aller dans le contrôle de l’activité des salariés (ex: badgeuses, surveillance de la navigation web, messagerie, géolocalisation etc.);
 – comment faire coïncider protection des données et sécurité (vidéosurveillance, biométrie etc.);
 – comment gérer les données sensibles (santé au travail, numéro de sécurité sociale, données d’infraction etc.).
La protection des données doit rester une constante de la relation avec les salariés, du recrutement à la fin du contrat de travail, en passant par la paye, la formation, l’évaluation etc.
Dans cette conférence nous vous proposons un éclairage pratique de ces différentes problématiques avec le regard croisé de deux avocats experts en protection des données et d’un avocat en droit du travail.

11h30-11h55

Comment la data transforme l’Etat : chantiers et défis des Chief Data Officers ministériels

Conférence animée par la directrice d’Etalab, Laure Lucchesi.

Du sourcing à la recommandation, comment Aramis Auto s'appuie sur les différents usages de l'IA pour adapter son offre aux besoins clients ?

Conférence animée par Fabrice SIMON (Lead Data Scientist chez Aramisauto) & Pierre Lofficial (Manager Data Science chez AVISIA) 

L’intérêt de l’usage de l’IA n’est plus à démontrer, mais encore faut-il réussir à la rendre opérationnelle pour son business model. Et pour y parvenir, il faut faire face à de nombreuses problématiques :
• L’adaptation à un environnement changeant (contexte de marché, environnement technique, …),
• L’orientation vers des solutions s’inscrivant de manière pertinente dans un process sans le complexifier,
• La désynchronisation possible entre le moment de l’émergence d’un besoin et celui de la mise à disposition de la solution,
• La mise en production de solutions Data, régulièrement vue comme une contrainte,
• La nécessité de teamwork pour combiner les compétences de chacun,
• …
ARAMISAUTO vous livre, au travers d’un retour d’expérience, ses challenges et les bonnes pratiques identifiées. Ceci au travers d’une ambition portée par le Pôle Data ayant pour mission :
• D’orienter en temps réel le sourcing de véhicules en fonction de la demande client,
• Et de faciliter le parcours client en fonction de son besoin.

16h30-17h20

2021, quels enjeux en matière d'éthique de la donnée

Ethique et data… Le sujet, un temps réservé aux experts, est devenu un véritable enjeu de société (exploitation massive des données des consommateurs à des fins de modélisation des comportements et de ciblage publicitaire, amende record de 265 millions d’euros infligée à WhatsApp et Facebook par les régulateurs européens…). Mais il y de nombreux autres domaines concernés. Celui des données de santé par exemple, dont la crise sanitaire a montré l’importance et révélé au grand public des usages auparavant méconnus.

Les acteurs publics collectent aussi de nombreuses données. Elles permettent de développer des services de plus en plus « intelligents ». Gérer des données de façon éthique, c’est respecter un cadre juridique, mais c’est aussi inventer d’autres formes de régulation, au sein des organisations et dans les relations avec des partenaires. Les initiatives sont nombreuses.

Pour en débattre, la table-ronde donnera la parole à Camille Marini, chief technology officer de la société Owkin qui est au cœur des enjeux de gestion des données santé ; à Francky Trichet, vice-président de Nantes Métropole, territoire pionnier dans l’adoption et la mise en œuvre d’une charte éthique ; Sébastien Soriano, directeur général de l’IGN et auteur du livre « Un avenir pour le service public » qui traite notamment des enjeux propres aux données publiques et à leurs usages.

12h-12h25

ADEME : Partager la richesse des données de la Transition Ecologique

Conférence animée par Benoit Roux et Laurent Morice de la sciété ADEME.

Les silos forts existants entre les Métiers de l’ADEME ont mené à un éparpillement des moyens et des ressources consacrés à la donnée.
Face à ce constat, la direction de l’ADEME a exprimé sa volonté d’instaurer une nouvelle dynamique plus transverse, moins silotée et embarquant les Métiers.
C’est dans ce cadre qu’a été conçue une « stratégie données » et sa matérialisation autour d’un concept clé : une Fabrique de la Donnée dont l’objectif est de consolider, partager et valoriser le riche patrimoine de données de la Transition Écologique de l’ADEME, que ce soit en interne ou en externe.
L’intervention consistera à présenter globalement les enjeux data de l’ADEME et la richesse de son offre d’open data, puis de l’illustrer avec l’exemple du programme SARE (Service d’Accompagnement à la Rénovation Energétique).

17h-17h25

Analyse de risque EBIOS Risk Manager : une démarche innovante pour identifier et qualifier de nouveaux cas d’usage data et IA

Conférence animée par Diane Orain de la société Anaya.

L’identification et la détermination de cas d’usage pertinents reste un des enjeux majeurs du développement de l’Intelligence Artificielle dans les entreprises.
Le dialogue et la compréhension réciproque entre les métiers et les data scientists reste souvent complexe à mettre en œuvre.
Anaya, fort de son expertise dans le monde de la data et dans le domaine de la gestion des risques propose de vous faire partager son approche novatrice pour définir des cas d’usage en utilisant la méthode d’analyse de risque EBIOS RM.
Cette démarche collaborative et agile permet de définir avec les métiers les enjeux et les risques induits auxquels ils sont confrontés, pour élaborer dans un second temps le plan de traitement associé.
Cette approche, basée sur la conduite d’interviews et d’ateliers par nos experts, permet in fine de définir des cas d’usages pertinents permettant de développer les solutions d’Intelligence artificielle validées et légitimées par les directions métiers.

16h30-16h55

GREEN AI

Conférence animée par Guillaume GIMONNET au nom de la société Wavestone.

Le paradigme actuel dans le développement des modèles d’IA repose sur la performance de ceux-ci, mesurée au travers de métriques telles que la précision ou l’erreur des moindres carrés, qui tendent à être maximisées sans prise en compte des contraintes matérielles nécessaires aux calculs.
Avec l’émergence des problématiques d’IA éthique et responsable, cette tendance tend à ne pas chercher systématiquement le modèle le plus précis dans ses prédictions, mais d’obtenir en même temps un modèle robuste, explicable, juste et un minimum performant.
Mais un modèle responsable doit également être un modèle qui s’inscrit dans le cadre des enjeux environnementaux auxquels nous sommes confrontés, et donc un modèle qui consomme le moins possible.
Comment mesurer l’efficience énergétique d’un modèle ? Y a-t-il des moyens simples à mettre en œuvre pour réduire l’empreinte carbone de l’IA ? Comment cet enjeu se conjugue avec les autres ?
1. Quelques chiffres qui montrent l’empreinte carbone de l’IA de nos jours (appui sur l’étude de l’Université du Massachussets sur la consommation du Deep Learning dans le NLP)
2. Comment mesurer la consommation d’énergie ? (estimation d’utilisation des ressources, prise en compte du mix énergétique,…) –> exemple de CodeCarbon.
3. Quels moyens pour réduire la consommation / améliorer l’efficience énergétique des modèles ? (appui sur différents travaux de recherche proposant des pistes)
4. Perspectives

15h30-16h20

Data Mesh & MLOps : nouveaux buzzword ou réelles opportunités ?

Conférence animée par Marc Dimouchy de la société Group Hardis.

Entre technologies émergentes, besoins métier et explosion des volumes de données, il est parfois difficile de définir une orientation quant à sa stratégie de gestion des données.
– Comment mettre à disposition l’information nécessaire à la fidélisation de mes clients ou optimiser mes campagnes marketing ?
– Comment assurer la gouvernance de mes données ?
– Que faire de mon DataLake ?
– Que peut m’apporter le Data Streaming ?
– Dois-je mettre en place des équipes dédiées à la gestion de la donnée ?
Au cours de cette conférence présentée conjointement par **Hardis Group** et **Google**, nous ferons un état des lieux sur les principes et intérêts de ces approches en positionnant :
– Le concept de **Data Mesh**
– L’approche **MLOps**
– Les défis auxquels répondent ces solutions
– Les technologies & les organisations qui entrent en jeu

15h-15h25

Dans les secrets du voyage de la data

Conférence animée par Marion Chaparro, Responsable communication au sein du Groupe Iliad, intervenante à l’université, passionnée par la tech et le partage les savoirs et d’en apprendre de nouveaux chaque jour.

Comment collecter, transporter, héberger, sauvegarder, analyser et performer la data de bout en bout ?
En quoi la sécurité des données est une préoccupation quotidienne à tous les niveaux et à chaque étape du transport de la donnée ?
Les entreprises ont besoin d’adresser les nouveaux enjeux de la donnée, en mode 360°. Chacun a sa part de responsabilité ; et à chaque étape, il est nécessaire de prendre soin de cette ressource primordiale que sont les données. Elles sont aujourd’hui l’or de cette révolution numérique et il faut connaître les secrets de leur voyage pour mieux les appréhender et mieux les valoriser.

14h-14h50

Comment faciliter la navigation dans un catalogue de données ouvertes ?

Conférence animée par Daphnée Bestel de la société OpenDataSoft.

Imaginez si vous pouviez guider les citoyens à travers le maillage administratif. S’ils pouvaient rechercher des données selon leur territoire pour se concentrer sur ce qui les concerne ou les entoure.
L’un des enjeux de l’Open Data est de rendre simple et intuitif l’accès aux données des territoires, mais également d’améliorer leur découvrabilité.
C’est avec cet objectif qu’Opendatasoft accompagne les collectivités, notamment via la fonctionnalité de navigation géographique qui permet :
 – D’effectuer des recherches transversales dans un catalogue de données ouvertes en croisant des mots clés et les territoires,
 – De mettre en avant les données locales des producteurs du territoire tout en laissant la possibilité de naviguer sur d’autres niveaux géographiques.
Rejoignez-nous pour écouter la Région Pays de la Loire, le Département de la Loire Atlantique et Nantes Métropole [à confirmer] partager les facteurs clés de succès d’une démarche Open Data mutualisée sur différentes échelons d’un territoire.

16h30-16h55

Le programme de couverture nationale France ENTIERE en Lidar HD

Conférence animée par Loic Gondol, pilote du programme Lidar HD à l’IGN.

Le programme Lidar HD prévoit d’acquérir en cinq ans, sur tout le territoire national, des données Lidar à une densité d’environ 10 points/m², de coordonner les traitements de ces données, de centraliser leur hébergement, et d’en assurer la diffusion.
La capacité des données Lidar aéroportées à décrire finement le sol même sous couvert végétal, les différents étages de la végétation, les détails architecturaux des bâtiments ou des ouvrages d’art démultiplie son potentiel, dans de nombreux domaines : connaissance fine de la ressource forestière, cartographie des zones exposées au risque d’inondation, aménagement du territoire, révélation de vestiges archéologiques, optimisation de l’implantation d’éoliennes ou de panneaux solaires…
L’accès centralisé et standardisé à des données 3D précises, fiables et denses est un puissant moteur de développements de services avals dans de nombreux champs d’applications.

16h30-17h20

REX projets data : le pas de côté avant de démarrer

Quelles sont les questions à se poser avant tout démarrage de projet « DATA » ? Comment clarifier ses besoins et situer les enjeux ? Comment développer la maturité de son organisation et mettre en place le terreau nécessaire au succès de ses projets data pour atteindre ses objectifs ?
Dans un format table ronde, nous vous proposons de défricher la jungle de la data et de profiter de retours d’expériences concrets. Vous aurez les premières clés pour effectuer le « pas de côté » indispensable avant tout démarrage de projet data !

15h30-16h20

The Language of Data Visualization

You will learn what makes data visualization a language, get to know its main ingredients and building blocks, as well as its underlying visual grammar.

14h-14h50

CamemBert ou comment nourrir la satisfaction client

De plus en plus de verbatims clients sur des supports internes (questionnaires) ou sur des supports externes (avis Google / Twitter) sont postés chaque jour.
Humainement cela n’est plus gérable pour comprendre les attentes de nos clients sur les différents services proposés.
Depuis 2019, l’algorithme BERT développé par GOOGLE a nettement fait progresser le traitement naturel du langage.
La communauté de chercheurs a ensuite pris le relais pour le transposer dans différentes langues.
Ainsi, nous avons utilisé camenBERT qui est la version française pour l’appliquer sur nos données avec des résultats dépassant nos espérances initiales.
En septembre, nous pourrons je l’espère présenter nos différents Use Case déployés sur le cloud AZURE en production.

15h30-16h20

L'éthique, un levier pour le développement du numérique

Alors que le développement du numérique s’est souvent fait en-dehors de tout cadre, ces dernières années une inquiétude est montée sur les usages négatifs du numérique, qui non seulement posent des problèmes pour eux-même mais pourraient également rejaillir négativement sur l’ensemble de la filière.
Occitanie Data a été créé pour construire un cadre de confiance éthique et souverain, pour travailler à poser les bases d’une économie de la donnée responsable.
Dans un tel cadre, l’éthique apparaît comme un levier de développement. Occitanie Data a ainsi créé une charte éthique des usages de la donnée, qui se déclinera dès cet automne en un label pour des cas d’usage et propose des prestations d’accompagnement pour faciliter, en confiance, l’innovation pour l’intérêt général.

14h-14h25

From billions to hundreds - How machine learning helps experts detect sensible data leaks

At CybelAngel we scan the internet looking for data leaks. We bring back billions of candidate alerts only to send very few really sensible leaks to their legitimate owners.
In the process of going from billions to hundreds of alerts to make the work of curation by analysts possible, machine learning is an essential step to filter out false alerts and reduce noise.
As we are looking for a needle in the haystack, one of the challenges we face when training a machine learning model is dealing with highly unbalanced classes.
In this talk I am going to present methods to tackle this problem and have a performant model.

14h30-15h20

Quel modèle de ville intelligente en France et en Europe voulons-nous ?

Deux modèles de smartcity dominent les imaginaires.
Il y a celui né en Chine qui met tous les citoyens sous surveillance.
Et il y a celui imaginé par Google et quelques autres, qui considèrent les citoyens comme des consommateurs de l’espace public et leur fait les poches.
Entre les deux, en France comme en Europe, les acteurs publics et leurs partenaires cherchent à bâtir un nouveau modèle. Le concept même de « smart city » est questionné. Le pilotage des politiques publiques par la donnée inquiète. Même si ses promoteurs s’en défendent, la ville intelligente « à la française » n’est pas totalement exempte de dérapages et de risques d’atteint aux libertés individuelles ou de marchandisation de l’espace public. A bien y regarder pourtant, de nombreuses initiatives émergent. Elles favorisent la souveraineté publique, la transparence et le contrôle démocratique. Elles utilisent les outils « smart », les données massives, des algorithmies de plus en plus sophistiquées ou même de l’IA, au service d’un développement durable et soutenable de nos territoires.
Auteur de plusieurs ouvrages sur le sujet et Président de l’Observatoire Data Publica, Jacques Priol dressera dans cette conférence un état des lieux des smartcities en France et dégagera des enseignements qui pourraient alimenter un modèle français à la fois efficace, éthique, souverain et durable.

13h30-14h20

Cybersécurité, comment se protéger des rançongiciels ​?

La transformation numérique, source d’incroyables opportunités, génére de nouveaux risques : les cyberattaques.
Depuis plusieurs mois, les attaques par rançongiciel se multiplient entraînant des dysfonctionnements informatiques critiques dans de nombreuses entreprises de toutes tailles.
Pour faire face, il est aujourd’hui important de bien comprendre ce type de menace et adopter les bonnes mesures d’hygiène numérique.
Cette intervention, après une présentation de l’état de la menace, abordera l’écosystème des attaquants puis présentera un ensemble de bonnes pratiques à suivre pour se protéger des rançongiciels et réagir en cas d’attaque.
A propos de l’intervenant Régis Dubrulle est le délégué de l’ANSSI pour la région Pays de la Loire. 20 ans d’expériences dans les systèmes d’information et la cybersécurité, il a été notamment le Responsable Sécurité Systèmes d’Information du groupe agroalimentaire Terrena. Aujourd’hui, en tant que délégué régional, il œuvre en synergie avec les structures et les autorités régionales existantes pour prévenir les incidents et sensibiliser les acteurs locaux du public et du privé aux bonnes pratiques informatiques.

17h30-17h55

"Journalisme géospatial" : comment informer avec des images satellites

Conférence animée par Denis Vannier.

Quand les frontières se ferment, l’un des seuls moyens d’observer une zone de conflit est de prendre de la hauteur.
Cette conférence propose de passer en revue les sources d’images satellites et leurs caractéristiques, qu’il s’agisse d’opérateur privés (Maxar, Airbus, Planet…) ou d’agences gouvernementales (ESA, Nasa).
Nous verrons comment les obtenir et les prévisualiser puis nous passerons en revue les méthodes pour les traiter, en extraire des informations.
A travers plusieurs enquêtes publiées par des médias, nous verrons comment des outils simples comme Google Earth ou plus avancés comme les librairies Python permettent à des journalistes de publier des informations inédites.

17h-17h25

Sous Databricks, notebooks et industrialisation se sont enfin réconciliés

Combien de data engineers ont pesté contre les notebooks des data scientists ? La liste des griefs est longue… mais obsolète quand on manipule les notebooks sous Databricks !
Au cours de cette session, nous verrons comment l’industrialisation du code peut être réalisée grâce à Azure DevOps et sa partie « Feed » qui permet d’héberger des packages wheel, visibles depuis les clusters Databricks.
En travaillant depuis un IDE comme Visual Studio Code, assisté par le module databricks-connect, nous revenons dans des standards de développement qui pourront ensuite bénéficier du versionning Git vers Azure Repo ainsi que de pipelines de build, intégrant des tests, et pipelines de release vers d’autres environnement.
En mettant en pratique cette approche, nous garantissons une qualité de livrables qui rassurera bien des product owners !

16h30-16h55

Valorisation des données dans le sport professionnel : Suivi des performances sportives et aide à la gestion des clubs

Conférence animée par Grégory Leroux de la société SeeNovate.

La professionnalisation du sport entraine de nouveaux challenges , tant dans la gestion de la performance des sportifs que dans la gestion des clubs et le pilotages des revenus et aussi dans la gestion de la relation avec les supporters.
A ce titre, Seenovate accompagne dans le monde du sport, plusieurs acteurs en adressant aussi bien le côté gestion des clubs, au même titre qu’une entreprise « classique » que le côté sportif sur l’accompagnement des performances.
Dans le premier cas, les enjeux sont comparables à des problématiques classiques de fidélisation des clients, supporters en l’occurrence.
L’objectif est d’optimiser les revenus des clubs tout en offrant une expérience enrichie et plus proche aux supporters.
Pour la partie sportive, le but reste principalement l’optimisation des performances que cela soit pour la prévention des blessures avant tout jusqu’à la préconisation en termes de charge d’entrainement.
L’objectif de cette présentation est d’exposer le retour d’expérience d’un accompagnement dans le monde du rugby:
Du recueil d’informations auprès des sportifs : quelles informations ? quels moyens de collecte ? à la présentation de la solution de restitution offrant un accès facilité à l’information par le staff.
Puis à l’étape de valorisation des données à l’aide de méthodes statistiques (Data Science) pour créer une solution de prévention des blessures et d’optimisation des entrainements.
Pour finir, avec une solution pour l’optimisation de la gestion du club, avec des recommandations basées sur le profiling des supporters.

16h-16h25

Comment les briques LEGO® peuvent servir votre stratégie data ?

Les organisations ont globalement inscrit la data comme levier dans leur stratégie. Après cette identification, se pose alors la question des enjeux de cette stratégie (gouvernance, contextes technologiques, cas d’usages…).
C’est à ce moment que les choses se complexifient et deviennent abstraites, les interprétations et des attentes différentes selon les parties prenantes.
Il devient alors impératif pour construire cette vision de favoriser de nouveau format d’échange dans l’entreprise par des méthodologies qui permettent d’évacuer les freins technologiques, s’affranchir des silos et favoriser l’intelligence collective pour définir des orientations stratégiques applicables.
Depuis plusieurs années MICROPOLE accompagne les stratégies data des entreprises à travers son approche Data Thinking.
Dans cette conférence, Jérôme CANNAFERINA vous présentera la méthode (facilitateur certifiée) LEGO® SERIOUS PLAY® appliquée au monde de la data qui est l’un des éléments structurels pour les organisations : où, comment, à travers la manipulation de briques LEGO®, solutionner les problématiques complexes ou abstraites liées à l’exploitation des données de l’entreprise.

15h30-15h55

Pour une Gouvernance des données plus impactante : enquête exclusive et retour d'expérience de APRR (Autoroutes Paris-Rhin-Rhône)

Conférence animée par François Le Corre.

– Rappel des fondamentaux de la gouvernance des données
– Où se trouve le problème ? Décryptage des regards croisés des différentes acteurs dans l’entreprise au travers d’une enquête exclusive des points de vues (Direction générale, Directions métiers, DSI, Direction Data, …)
– Quelles clés pour progresser efficacement dans la gouvernance des données ? Et témoignage de la société APRR sur sa recette (ce qui a été mis en place et retour d’expérience)

15h-15h25

Graceful failure, maitrîsez l'art des blameless postmortems en 20mins

Alerte, on a cassé la prod 🚨💀
Fort de dizaines d’interviews avec des ingénieurs logiciels sur des retours d’expériences concrets rencontrés en prod, François Paupier, hôte du [Post Mortem Podcast](https://podcast.ausha.co/postmortem), vous propose un condensé de bonnes pratiques et protips pour consolider votre stratégie de gestion d’incidents.
Les systèmes de traitement de données sont de plus en plus complexes. Malgré tous les efforts de minimisation de risques et même avec les meilleurs outils de monitoring, il arrive un jour où ça crash. Une fois l’incident résolu, deux options sont possibles:
 1. Passer à autre chose et espérer que ça ne se produise plus🤞
 2. Comprendre ce qui a plus ou moins marché dans la résolution et partager cette information avec ses collaborateurs.
L’option 2 c’est faire ce que l’on appelle une [Post Mortem Analysis](https://www.atlassian.com/incident-management/handbook/postmortems#postmortem-meetings) et c’est justement l’objet de ce talk 😉

 **Plan**
1. L’analyse Post Mortem, comment et pourquoi.
2. Blameless Post Mortem? Une question de culture.
3. Étude de cas: retour sur une gestion d’incident.

14h-14h50

Déployer la Data dans une entreprise: l'exemple d'Eureden. (organisation, outils, méthodes..)

Eureden est une coopérative agricole majeure regroupant 20 000 agriculteurs, 9 000 collaborateurs et disposant de 60 sites industriels et 300 magasins.
Le Pôle Data d’Eureden a pour objectif de diffuser l’usage de la Data au sein des différentes entités du groupe à travers une appropriation des bonnes pratiques et des outils par les métiers.
A travers cette conférence, nous souhaitons présenter l’organisation mise en place, les bonnes pratiques et les outils utilisés dans notre objectif de diffusion de la Data.
Présentation réalisée en compagnie de Dataïku, éditeur d’une plateforme data collaborative, et de Valoway, entreprise de conseil qui nous a accompagné dans la démarche d’acculturation de nos collaborateurs.
Nous baserons notre exposé sur des cas concrets, en mode « Retour d’Expérience », de façon à satisfaire aussi bien des personnes techniques que des usagers plutôt axés « métiers » ou « utilisateurs »

17h-17h50

IA et DATA au service de l'agriculture

Conférence animée par Xavier Lhostis et Louis Peyron de la société Advanciel.

L’agriculture est confrontée à de nombreux enjeux. Le premier est l’environnement et la durabilité, l’objectif est la diminution
des intrants avec le principe de « la bonne chose/dose, au bon moment, au bon endroit », mais aussi l’optimisation de l’utilisation
des ressources « naturelles » telles que le pâturage pour diminuer l’achat d’aliments. Pour répondre à cet enjeu, l’acquisition automatique
de la donnée selon différents canaux (capteurs, satellite, météo), le stockage massif de ces données et la valorisation de celles-ci
pour agir, prédire dans des outils d’aide à la décision représente un enjeu capital pour les entreprises.

L’agriculture fait aussi face à des enjeux sociétaux, avec une demande accrue de visibilité autour de la traçabilité alimentaire sur toute
la supply chain agricole (de la fourche à la fourchette) . Celle-ci a été accélérée avec l’arrivée de chartes de production, de labels (AOC, AOP ….),
pour lesquels le numérique doit pouvoir apporter la preuve sur les indicateurs de suivi, que ce soit pour les producteurs ou les transformateurs.

Associé aux enjeux sociétaux, il y a aussi les problématiques liées au suivi et à la factualisation du bien-être animal et de la bien-traitance.

De nombreuses technologies innovantes sont des opportunités pour répondre à ces enjeux : IoT pour la traçabilité et la localisation des animaux, monitoring multi-canal des animaux (photo, vidéo, son) pour suivre le comportement des animaux ceci en utilisant du machine learning et de l’intelligence artificielle, blockchain pour la traçabilité de la supply chain.

Cette conférence a pour objectif de mettre en avant les enjeux de l’agriculture de demain qui doivent accélérer la transformation digitale des entreprises de la filière agricole, mais aussi de vulgariser et de mettre en avant les innovations à travers la présentation d’exemples
et de cas d’usages opérationnels (IoT, Monitoring Vidéo ou sonore , Plateformes de partage de données, Blockchain, prédictif agricole ) ceci, à toutes les étapes de la chaîne de valeur de la data.

15h30-16h20

Du mainframe au machine learning, l'histoire d'une transformation numérique en cours chez CBP

4 ans après ses premiers pas dans le Cloud et 2 ans après y avoir démarré la construction d’un Datalake, CBP est aux portes de ses premiers produits tirant partie du Machine Learning et de la Data Science.
Comment passer ses données d’un mainframe à un Datalake ?
Comment faire cohabiter le legagy et les nouveaux produits
et enfin comment construire une gouvernance et un outillage pour supporter les nouveaux usages ?
Obtenez les réponses dans un échange interactif entre CBP et son partenaire et cloud provider AWS.

15h-15h25

Les enjeux de la gouvernance data de la donnée brute à la datavisualisation

Sur le chemin de la data au travers des SI, la gouvernance data doit intervenir sur différentes étapes : Principes RGPD, Process, Documentation à chaque étape, linéage, qualité, démocratisation. Quel est le rôle de la gouvernance data sur ce chemin (et quel n’est pas son rôle), quels sont les outils, les process etc…

14h30-14h55

Open Data for Accessibility : A challenge for Territories Mobility Strategy

Territories now have to take into account accessibility to their POI (Etablissement Recevant du Public – ERP) if they want to :
 – answer gov policy for open data
 – answer citizen needs for accessibility information, and especially for disabled people
 – get the right value from MaaS (mobility as a service) ecosystem Acceslibre.beta.gouv.fr is the french gov initiative to bridge the devide

9h-9h50

GRT Gaz : REX

Conférence animée par Johan Graujean.

GRTgaz (filiale d’engie) gestionnaire de transport de gaz avec Terega en France, a entrepris l’aventure de l’Open data en 2017 sous l’angle de la loi pour la république numérique et la loi pour la transition énergétique et la croissance verte.
Avec l’obligation réglementaire de publier des données de consommations ou de production de gaz à des mailles géographiques et des pas horaires différents, GRTgaz s’est associé avec RTE et Terega pour proposer une réelle offre de service pour les citoyens : Open Data Réseaux Energies.
Que de chemin depuis 2017, la plateforme compte désormais plus de 150 jeux de données, des datavisualisations, que d’opportunités pour instaurer depuis quelques années une nécessaire gouvernance de données (avec les acteurs associés) pour bien qualifier et mettre en qualité nos données avant publication à l’externe.
L’objet de notre témoignage serait de revenir sur le succès d’Open Data réseaux energies, faire un focus sur notre gouvernance de la donnée, ouvrir sur les perspectives que nous souhaitons partager notamment pour le domaine du gaz (les données environnementales par exemple, la mobilité gazière…)…
Quelques pistes pour le talk : nous envisageons d’intervenir avec notre partenaire open data soft et éventuellement une collectivité territoriale pour appuyer les usages de nos données Open Data.