Connect with us

Data

[Infographie] La mauvaise qualité des données pénalise les entreprises françaises

Selon la dernière étude réalisée par Experian Marketing Services, les entreprises Françaises estiment que 19% de leurs données sont erronées. Cette mauvaise qualité des datas a un impact négatif sur les budgets, les actions marketing et surtout, sur la satisfaction client

Publié

le

Selon la dernière étude réalisée par Experian Marketing Services, les entreprises Françaises estiment que 19% de leurs données sont erronées.

Cette mauvaise qualité des datas a un impact négatif sur les budgets, les actions marketing et surtout, sur la satisfaction client.

 

Experian Marketing Services, vient de publier un nouveau livre blanc « Qualité des données en 2014 : tendances et best practices pour réussir sa stratégie ».

L’enquête montre à quel point les données sont devenues un composant crucial de l’interaction client et de la prise de décision, tout en demeurant fortement pénalisantes pour les organisations en cas d’inexactitude.

En moyenne, les entreprises Françaises estiment que 19% de leurs données sont erronées, avec un impact reconnu sur les stratégies business intelligence, marketing et engagement client. Un tel niveau d’inexactitude est avant tout dû aux erreurs humaines, qui surviennent par manque d’une stratégie de gestion de la qualité des données qui soit cohérente et centralisée. 66% des entreprises n’ont en effet aucune approche centralisée en place, ce qui les empêche d’analyser, d’améliorer et de contrôler les problèmes de données, en divisant les ressources et l’information en silos.

« Le volume croissant de données signifie que davantage d’entreprises cherchent à prendre des décisions plus éclairées à partir des informations qu’elles détiennent » déclare Stéphane Baranzelli, Directeur Général France, Experian Marketing Services. « La qualité des données est le socle de tout effort orienté data, mais son niveau est assez médiocre en général. Les entreprises doivent centraliser leur approche de la gestion des données pour s’assurer que les informations soient correctement collectées et utilisées ensuite de manière efficace dans l’environnement cross-canal actuel » ajoute-t-il.

L’étude révèle que les entreprises cherchent à mieux coordonner leur exécution à travers les différents canaux : 87% des organisations déclarent s’orienter vers le marketing cross-canal. Cependant, la majorité d’entre elles font face à des challenges de taille liés à cette évolution, principalement dus à l’inexactitude des informations ou au manque d’information client. En effet, 94% des organisations sont contraintes d’enrichir leurs données contacts. 

Les autres chiffres à retenir de cette étude sous forme d’infographie:

Infographie qualité des données 2014

 

 

Avis d'experts

Démocratiser l’usage de la data science

Publié

le

Source inépuisable de richesse pour l’entreprise, la data science offre un gain de productivité et de profitabilité important… lorsqu’elle est valorisée…




Une tribune de Stéphane Amarsy, CEO d’Inbox




Une nouvelle approche du marketing prédictif


Les outils de prédiction inquiètent et fascinent tout autant.

Mais à la différence des oracles, ces prévisions sont factuelles et mesurables par une probabilité.

La magie du marketing prédictif consiste à passer de la prédiction basée sur l’intuition – voire l’irrationnel, à celle basée sur des données et des probabilités de réussite.

L’utilisation du marketing prédictif impose une approche radicalement nouvelle : Le ciblage ne se base plus sur ce que l’on pense ou suppose, ni même les études marketing (sondage, panels, …) mais sur les données et ce qu’elles recèlent.

Plus nous disposerons de données, plus tout sera prédictible et plus la qualité des prévisions sera bonne. L’objectif en marketing n’est pas la certitude dans la prévision mais de faire mieux qu’une démarche empirique.

Le principe est simple : choisir les clients avec une forte probabilité d’acheter ce manteau me permettra d’avoir un taux d’achat de ce produit bien supérieur à celui obtenu si je l’avais proposé à une cible basée sur mon expérience et bien plus qu’en considérant tous mes clients.

Cela permet aussi de baisser les coûts de sollicitation car seule une partie des clients sera exposée, et d’éviter l’énervement des clients sollicités pour des produits qui ne les intéressent pas.

L’utilisation généralisée de cette information permettra de travailler la proximité avec chaque client en lui proposant des produits qui lui correspondent.

Le point clé dans cette démarche consiste à accepter de travailler au niveau de l’individu afin de prendre en considération toute sa singularité.

L’erreur, trop souvent vue même en travaillant avec des outils prédictifs, consiste à recomposer une notion de segment pour résumer une tendance dont la projection au niveau individuel est souvent fausse. A quoi bon reproduire les habitudes de travail du passé avec de tels outils ?

Il faut plonger et accepter que chaque client ait son histoire, ses désirs et ses futurs probables…


Appréhender la place du data scientist au cœur de l’entreprise


La data science est évidemment l’outil idéal de cette démarche. Reste qu’elle est systématiquement présentée comme l’apanage des fameux data scientists, les stars du marketing moderne.

Ce temps-là est révolu n’en déplaise aux « experts » et « sachants ».

Evidemment, il y aura toujours des cas où un humain fera mieux que de l’intelligence artificielle mais avec une temporalité interdisant toute démultiplication de son usage.

Un data scientist quel que soit son talent ne peut s’occuper que de quelques modèles de prévision. Est-ce que sa valeur est là ? Clairement non.

L’enjeu n’est plus de disposer de quelques modèles de prévisions mais bien de les démultiplier rapidement avec une approche auto apprenante et industrielle. Le data scientist se recentrera sur la détection de nouvelles opportunités.

Cette double approche est vertueuse et apporte beaucoup plus de valeur.

A titre d’exemple, dans ma société, nous avons développé un logiciel permettant de faire en 15 minutes ce qu’un data scientist faisait en 4 jours.

L’ensemble de nos data scientists s’est repositionné sur plus d’analyses en laissant ainsi la production à l’intelligence artificielle.

En y regardant de plus près, vous vous apercevrez que 80% de la chaîne relationnelle peut être confiée à l’IA.

Le partage de la data science est la clé d’un marketing client efficace.

Bombarder des offres promotionnelles indifférenciées à tous les consommateurs devient une dépense inutile, peu efficace et contre-productive qui suscite, au mieux, l’agacement des consommateurs que nous sommes.

Sans analyse prédictive, il serait presque impossible de formuler l’idée même de proximité relationnelle. Cette transformation est difficile, elle nécessite une réelle volonté de changement des directions marketing et un accompagnement fort des équipes.

Elles doivent désapprendre leurs métiers et en réapprendre un nouveau dont la collaboration avec les algorithmes est une des clés.

Il faut renoncer pour se transformer…




Lire la suite...

Avis d'experts

La France à l’heure de la GovTech

Publié

le

Numérisation des services publics, Open Data, consultations citoyennes en ligne… Avec ce que l’on nomme désormais la GovTech, la France est entrée de plain pied dans une période de transition numérique…




Une tribune de David Chassan, Chief Communication Officer – OUTSCALE



L’Etat français embrasse la transformation numérique, conscient de la nécessité d’améliorer ses services et de les mettre en adéquation avec la nouvelle façon de vivre et d’interagir de ses concitoyens.

Cette révolution numérique rassemble autour d’elle de nombreuses entreprises innovantes et start-up qui travaillent avec le secteur public (hôpitaux, ministères, conseils généraux, collectivités…).

Dans notre pays, cet écosystème baptisé GovTech est particulièrement dynamique.

Cette transformation à marche forcée, associée à la démocratisation de l’accès à la donnée via les portails d’Open Data, porte en elle un enjeu majeur : celui de la maîtrise, de la sûreté et de la sécurité de ces données.

Et dans ce cadre, la souveraineté doit être la règle…


Le numérique transforme les services publics


La GovTech rassemble toutes les entreprises qui travaillent avec le secteur public et les aide à proposer des services toujours plus pertinents, simples à utiliser et adaptés aux nouveaux usages.

Sur la plate-forme France Numérique, chaque acteur public peut désormais trouver en quelques clics le prestataire capable de l’aider à se transformer.

Et tous les secteurs sont concernés : transport, santé, sécurité, e-gouvernement, engagement civique et citoyen…

Résultat : les applications et nouveaux services se multiplient.

Le site impots.gouv.fr traduit à lui seul l’effet positif de cette transformation sur la vie des contribuables.

Chacun peut désormais facilement dialoguer avec un agent, mais aussi suivre son dossier ou accéder à son historique 24h/24.

De leurs côtés, les fonctionnaires obtiennent une traçabilité de leurs échanges avec le contribuable pour lui apporter les réponses les plus pertinentes possibles.

Alors que tout se passait jusqu’alors de manière verticale, du haut vers le bas, l’information circule désormais dans les deux sens.

Intelligemment utilisée, cette donnée permet d’inscrire le secteur public dans une dynamique d’amélioration continue.  


Open Data et secteur public : un mariage heureux


La politique d’Open Data décidée par le gouvernement, favorable à l’innovation comme à la création de nouvelles solutions utiles à tous, se place au cœur des enjeux de la modernisation de l’action publique.

Des stratégies fondées sur cette data peuvent dès lors être menées, contribuant à la qualité des services proposés, à leur pilotage et à leur évaluation.

Partager et échanger de la donnée constitue une vraie révolution dont les acteurs publics se sont saisis, comprenant tout l’intérêt qu’ils avaient à en retirer.

Ainsi, si le gouvernement a créé son propre portail d’open data (data.gouv.fr), la Mairie de Paris n’a pas tardé à lui emboîter le pas avec opendata.paris.fr, tout comme la métropole de Nantes (data.nantesmetropole.fr) et bien d’autres acteurs publics à leur suite.

Sur ces portails, les GovTech, mais aussi les citoyens, accèdent à des millions de données sur un très grand nombre de sujets : l’agriculture, l’alimentation, la culture, l’économie, l’emploi, l’éducation, la recherche, l’international, l’Europe, le logement, les énergies, la santé, le social, la société, les territoires, le transport, le tourisme, l’urbanisme…

L’exploitation de ces données permet de définir des stratégies publiques efficientes tenant compte des besoins, mais aussi de situations réelles et chiffrées, à l’échelle d’une région, d’un territoire, d’une ville, d’un village, voire même d’un bâtiment…


La confiance : un critère de choix majeur à prendre en compte


L’ensemble de cette chaîne d’informations doit cependant être fiable, sécurisée et transparente, afin d’être pleinement acceptée.

Il y a là un véritable enjeu de responsabilité sociétale.

Si je suis un acteur public et que je décide de mettre mes data à la disposition de mes citoyens, celles-ci doivent respecter les règles de protection des données en vigueur dans mon pays. 

Choisir un éditeur de données français qui va héberger mes data sur un Cloud sécurisé, audité chaque année et répondant à des normes réglementaires garantissant la sécurité et la sûreté des informations, semble donc une évidence.

Cette précaution va en effet renforcer la responsabilité de l’acteur public vis-à-vis de la qualité de cette donnée qui ne doit pouvoir être ni falsifiée, ni détournée.

Il semble y avoir une réelle prise de conscience des pouvoirs publics sur ce sujet.

Une récente circulaire du gouvernement autour de la doctrine Cloud de l’Etat rappelle ainsi aux collectivités que les documents et données numériques qu’elles stockent et traitent doivent l’être sur des Clouds souverains, par des entreprises respectant le cadre légal en vigueur. 

Ainsi, l’actuelle plate-forme qui abrite la consultation citoyenne autour du grand débat national est hébergée chez un éditeur français et non pas américain ou chinois. 

Toute la chaîne de traitement de la donnée peut être réalisée par des acteurs français, voire européens sans que l’un d’entre eux ne soit une filiale d’un groupe étranger.

La French GovTech, responsable et transparente, représente une véritable force de compétitivité pour la France. Profitons-en !





Lire la suite...

Avis d'experts

Données : Vers un consentement ‘explicite et volontaire’ ?

Publié

le

Les autorités allemandes sont formelles : le partage des données utilisateur entre applications sera bientôt traité comme les relations sexuelles à l’avenir. Ce sera interdit à moins d’avoir un consentement explicite et volontaire, particulièrement si l’une des deux parties est plus importante que l’autre…



Une tribune proposée par Avira



L’autorité allemande antitrust, le Bundeskartellamt, a décrété que Facebook devrait obtenir le consentement volontaire des utilisateurs avant de recueillir leurs données lorsqu’ils utilisent des services secondaires de l’entreprise, comme WhatsApp, Instagram et d’autres sites.

Sans ce consentement explicite de l’utilisateur, Facebook devra restreindre considérablement le recueil et la combinaison de données entre ses différents services.

Mais le plus intéressant, c’est ce qu’il se passe lorsque les utilisateurs ne donnent pas leur accord.

Andreas Mundt, président du Bundeskartellamt, explique tout sur ce double uppercut :

« Si les utilisateurs ne donnent pas leur consentement, Facebook n’a pas le droit de les exclure de ses services et doit également éviter de recueillir et de fusionner des données provenant de différentes sources. »




Question de domination

Les deux parties – le Bundeskartellamt et Facebook – parlent plus de domination sur le marché que de confidentialité des données.

« La portée avec laquelle Facebook recueille, fusionne et utilise les données des comptes utilisateur constitue un abus de sa position dominante »

, explique le Bundeskartellamt dans un article de son blog.

Selon la réponse de Facebook sur son blog, la popularité et la domination sont deux choses différentes.

L’entreprise pense que le Bundeskartellamt n’est pas bien placé pour leur courir après.

« Le RGPD donne spécifiquement le pouvoir aux organismes de réglementation sur la protection des données – et non aux autorités responsables de la concurrence – pour déterminer si les entreprises respectent leurs responsabilités », lit-on sur le blog de Facebook.

Selon l’entreprise, il existe de nombreuses autres solutions de réseaux sociaux et utiliser les informations provenant de tous ces services permet à Facebook de les améliorer.

Le consentement à combiner les données provenant de plusieurs sources n’a pas été mentionné dans l’article de Facebook…


Courons vers l’incertitude

Les deux parties campent sur leurs positions. Facebook a déclaré qu’elle ferait appel de la décision le mois prochain.

Cette décision survient à un moment teinté d’incertitude pour les géants de la technologie.

Facebook a déjà annoncé ses plans de fusionner les applications de messagerie, Messenger, WhatsApp et Instagram. Google a écopé d’une amende en France pour une infraction au RGPD.

De plus, on ne sait pas encore quand les États-Unis mettront au jour une loi unifiée sur la protection des données, s’ils le font un jour.


Aucune solution automatique par défaut ne sera acceptée

À quoi donc pourraient ressembler des conditions générales acceptables pour l’utilisateur final ?

Dans les mots de M. Mundt :

« Une coche requise dans une case pour accepter les conditions d’utilisation d’une entreprise n’est pas une base adéquate pour un traitement aussi poussé des données. »

On peut donc se demander si les nouveaux niveaux de consentement de Google pour les transferts de données privées des utilisateurs entre ses différents services et dispositifs de suivi passeraient aussi les critères du Bundeskartellamt…

L’heure du consentement volontaire et explicite a sonné

Il ne faudrait qu’une petite extrapolation pour voir un futur possible – du moins en Europe.

Concernant le recueil et l’échange d’informations d’identification personnelle entre applications, il est temps de proposer à l’utilisateur de choisir par lui-même ce qu’il est prêt à accepter.




Lire la suite...

Avis d'experts

Sécurité et numérique : à quoi s’attendre dans les prochains mois ?

Publié

le

Le dernier rapport de Dashlane dévoile 6 prédictions pour le secteur de la sécurité numérique.

Certaines sont les bienvenues, comme l’influence des lois de type RGPD au-delà de l’Europe, tandis que d’autres paraissent nauséabondes, comme la perspective d’une attaque terroriste menée par un criminel assis derrière un bureau sans que l’on sache où il se trouve…



Par Frederic Rivain, directeur de la technologie de Dashlane, et
Cyril Leclerc, responsable de la sécurité de Dashlane.




Les 6 grandes tendances en matière de sécurité numérique


1. Les scandales en matière de protection de la vie privée donneront lieu à des amendes massives.
2. L’influence du RGPD va s’étendre.
3. Les problèmes de confidentialité des données de Facebook
continueront d’affaiblir son emprise en tant que leader des médias
sociaux.
4. Une brèche sera fatale.
5. La cryptographie quantique va changer le paysage.
6. La cryptographie post-quantique suivra de près.


Quoi qu’il advienne, nous sommes tous d’accord : l’évolution de l’industrie de la sécurité numérique en 2019 aura des effets durables sur la façon dont les gouvernements et les entreprises envisagent et abordent les questions de protection des renseignements personnels et de sécurité numérique.


1. Les scandales en matière de protection de la vie privée donneront lieu à des amendes massives

Sur la base du pouvoir réglementaire conféré par la réglementation RGPD (Règlement général sur la Protection des Données), les pays européens vont commencer à infliger des amendes aux contrevenants.

Ils vont utiliser ce levier comme moyen de taxation pour les géants technologiques américains qui utilisent des montages financiers pour échapper à la taxation en Europe.

D’ailleurs, le gouvernement français vient de présenter un projet de loi pour la mise en place d’une taxe ciblant les grandes entreprises du numérique, avec en ligne de mire les GAFA.

En dehors des géants de la technologie, nous nous attendons à des amendes découlant de violations du RGPD – comme l’amende de 400 000 euros infligée à un hôpital au Portugal récemment – pour accélérer les investissements réalisés par les entreprises afin de protéger les données des utilisateurs.


2. L’influence du RGPD va s’étendre

Dans la foulée du déploiement du RGPD par l’Union européenne, un plus grand nombre de pays commencera à adopter des lois pour protéger la vie privée de leurs citoyens.

La Californie a déjà adopté une loi qui entrera en vigueur le 1er janvier 2020. Nous nous attendons à l’apparition de lois similaires en Asie, même si la Chine restera une exception forte à la tendance générale.

Plus il y aura d’infractions et de fuites, plus les organismes de réglementation exerceront des pressions sur les consommateurs pour qu’ils protègent leur vie privée.


3. Les problèmes de confidentialité des données de Facebook continueront d’affaiblir son emprise

C’est probablement la prédiction la plus facile à faire. Pour des raisons de protection de la vie privée et parce que les jeunes générations se tournent vers d’autres canaux de communication et d’autres plateformes de médias sociaux, nous pensons que Facebook sera en déclin en 2019 et aura du mal à se réinventer à l’avenir.


4. Une brèche sera fatale


PREMIERS DÉCÈS DUS À DES CYBERATTAQUES

La cybersécurité deviendra de plus en plus une arme à la fois pour les activités criminelles et pour la guerre.

Nous pourrions voir des rançons de cybersécurité réclamées pour des services vitaux – comme le système informatique d’un hôpital, qui alimente également du matériel de survie, des logiciels de système ferroviaire ou même des logiciels qui contrôlent des centrales nucléaires…

PREMIER ATTENTAT TERRORISTE AVEC UNE FONDATION POUR LA CYBERSÉCURITÉ

Les terroristes pourraient également mettre en place des cyberattaques directes pour menacer et endommager des systèmes essentiels.

Elles sont potentiellement plus inquiétantes que celles déjà advenues, car les terroristes pourraient se livrer à des complots confortablement depuis chez eux, partout dans le monde.


5. La cryptographie quantique va changer le paysage

Il y a actuellement beaucoup de Recherche & Développement autour de l’informatique quantique et de ses applications en matière de cryptographie.

L’aspiration de la cryptographie quantique est de résoudre des problèmes considérés aujourd’hui comme insolubles ou très complexes à résoudre en utilisant l’informatique classique.

Cependant, cela se limite encore aujourd’hui aux expériences et aux laboratoires. En 2019, nous pourrions voir la première application réelle de la cryptographie quantique.

Bien qu’il soit peu susceptible d’avoir des applications dans le monde des consommateurs, nous pourrions voir un scénario où les entreprises de cybersécurité commenceraient à utiliser la cryptographie quantique dans le monde des logiciels d’entreprise.


6. La cryptographie post-quantique suivra de près

Si l’informatique quantique est capable de briser toutes les règles de la cryptographie d’aujourd’hui, certains chercheurs en cryptographie recherchent la technologie qui pourrait alimenter la cryptographie hybride dans un monde où la cryptographie quantique et non quantique existe.

Le but est d’éviter ce qui a été présenté comme “le passage à l’an 2000 quantique » et ses dérives.

Nous nous attendons à ce que 2019 soit l’année où les théories et les applications concrètes commencent à prendre forme…



Lire la suite...

must read