Connect with us

Data

Relation Client et Big Data : la qualité des données en question …

Publié

le

Alors que l’expérience personnalisée et la satisfaction du client sont au cœur des préoccupations des directions marketing, et que la plupart des marques se disent Customer Centric, DQE Software a voulu savoir si elles avaient réellement pris la pleine mesure de la valeur de leurs données clients.

Si, dans leur grande majorité, les répondants sont convaincus que la qualité de la donnée est centrale pour leurs stratégies marketing, dans les faits, peu d’entre eux ont atteint une véritable maturité en la matière.

 

 

 

 

Cette enquête, réalisée par Harris Interactive par téléphone du 7 au 16 mars 2017 auprès de 75 décideurs Marketing, CRM, Data, Relation client au sein d’annonceurs de plus de 50 salariés (hors pure players), permet de déceler trois grandes tendances :

 

1. Des bases de données faiblement enrichies, avec un impact négatif sur les programmes CRM et les taux de conversion

Les professionnels du marketing interrogés lors de cette étude sont convaincus à 76 % du bien-fondé de la qualité des données, préalable nécessaire pour améliorer l’efficacité des programmes marketing relationnels, pérenniser la relation client et maîtriser leurs ROI marketing.

Mieux, 63 % sont capables de quantifier le pourcentage de programmes CRM qui échouent du fait de la mauvaise qualité des données clients dont 24 % estiment que 1 programme sur 2 est même voué à l’échec si la qualité de ces données n’est pas irréprochable.

Pourtant, 46 % des répondants ne collectent toujours pas de données socio-démographiques ou comportementales, sources de précieux insights pour être au plus juste des attentes de leurs clients, et 56 % se contentent de celles déclarées par leurs clients et prospects.

Des données qui pourraient leur permettre de mieux qualifier les leads entrants, alors que 93 % des répondants déclarent ne pas être capables de les scorer en temps réel faute d’une réelle connaissance des données clients.

 

2. Des bases de données clients multiples, rarement réconciliées, au détriment d’une vision unique du client

Alors que le cross-canal est de mise dans l’élaboration de stratégies marketing performantes, les frontières persistent entre les bases de données des différents canaux.

Près de 1 répondant sur 2 (47 %) dispose d’au moins 2 bases de données clients, 1/3 d’au moins 3 bases et 19 % d’au moins 4 bases.

Sauf que 89 % déclarent ne pas synchroniser tout ou partie de leurs bases, leur imposant des dédoublonnages, à des fréquences plus ou moins régulières : si 11 % déclarent les réaliser en temps réel, 49 % y procèdent moins d’une fois par mois, voire jamais, avec des conséquences directes sur la qualité et la pérennité de la relation client.

3. Des outils de Data Quality Management qui brillent par leur absence

Même si la gestion de la qualité des données clients est jugée importante par 93 % des répondants, seuls 29 % disposent d’un outil de Data Quality Management, s’appuyant sur des systèmes d’aide à la saisie en temps réel dans leurs formulaires web ou des systèmes de vérification automatique afin de fiabiliser la collecte des données clients.

En revanche 32 % continuent de contrôler la qualité de leurs données clients et prospects manuellement (identité, adresse postale, téléphone, email) avec des risques d’erreur et une productivité amoindrie, et 46 % ne font rien.

Un constat qui peut être corrélé aux 31 % des répondants qui estiment qu’une solution de Data Quality Management n’est pas un prérequis préalable pour mener à bien une stratégie CRM.

Cette étude permet ainsi de conclure, selon Harris Interactive, que les annonceurs sont conscients des enjeux et des bénéfices apportés par les solutions de collecte et de gestion de la qualité des données clients, à savoir : se doter d’une vision unifiée des données clients, améliorer l’efficacité des programmes marketing relationnels, simplifier le parcours cross-canal du client, pérenniser la relation client et maitriser les budgets marketing.

Mais 75 % se déclarent pas totalement satisfaits* des solutions utilisées pour fiabiliser la collecte et optimiser la qualité et la gestion des données clients, au risque de dégrader l’expérience et la satisfaction client.

 

La gestion de la qualité de la donnée reste donc encore une démarche à démocratiser plus largement au sein des entreprises françaises pour qu’elles soient résolument Data Driven…

 

 


*assez, moyennement, peu ou pas du tout satisfaits

 

 

 

Data

CNIL : Les plaintes se multiplient…

Publié

le

Le nombre de plaintes déposées auprès de la Commission nationale de l’informatique et des libertés (CNIL) a augmenté de plus de 32% en 2018, principalement du fait de l’entrée en vigueur du règlement européen de protection des données (RGPD) en mai dernier…




L’effet RGPD


Sur l’ensemble de l’année, l’instance a enregistré 11.077 plaintes, contre 8.300 en 2017, signe selon elle d’un plus grand intérêt des Français envers la protection de leurs données personnelles, notamment du fait d’une “médiatisation importante du RGPD“, selon un bilan annuel rendu public lundi dernier.


L’heure est désormais aux sanctions

Si, jusqu’ici, la Cnil s’était placée dans une logique d'”accompagnement” des entreprises afin de les aider à appliquer les nouvelles obligations du RGPD, avec une forte hausse des sollicitations de la part de professionnels, elle rappelle dans un communiqué qu’elle devrait désormais être davantage dans une logique de sanction.

A ce sujet, sur les 310 contrôles réalisés en 2018, 49 ont donné lieu à une mise en demeure, avec parmi les premiers secteurs visés l’assurance et les entreprises spécialisées dans le ciblage publicitaire via les applications mobiles.


Données en ligne, prospection marketing et surveillance RH sont les principales causes des plaintes


Onze sanctions ont également été prononcées, dont dix sanctions pécuniaires, sept d’entre elles concernant des atteintes à la sécurité des données personnelles.

Parmi les entreprises concernées figurent Uber, Bouygues Telecom, Dailymotion et Optical Center.

Pour plus d’un tiers d’entre elles (35,7%), les plaintes reçues concernaient la diffusion de données sur internet, avec une demande de suppression de ces données, qu’il s’agisse de données d’identité, de comptes, de photos ou de vidéos.

L’association belge EU Disinfolab concentre à elle seule plusieurs centaines de plaintes à la suite d’une étude réalisée durant l’été sur la provenance des tweets consacrés à l’affaire Benalla.

Le commerce et marketing constitue le second secteur suscitant le plus de plaintes, pour 21% du total, avec en particulier une “très forte hausse des plaintes concernant la prospection par SMS“, qui se fait le plus souvent sans consentement préalable. 

Parmi les autres secteurs concernés, les ressources humaines, en particulier la vidéosurveillance excessive ou la géolocalisation, font l’objet de 16,5% des plaintes.

La CNIL signale en revanche une nette amélioration des pratiques dans le domaine de la santé après la sanction de 10.000 euros prononcée contre un professionnel en 2017.





Source AFP




Lire la suite...

Avis d'experts

Démocratiser l’usage de la data science

Publié

le

Source inépuisable de richesse pour l’entreprise, la data science offre un gain de productivité et de profitabilité important… lorsqu’elle est valorisée…




Une tribune de Stéphane Amarsy, CEO d’Inbox




Une nouvelle approche du marketing prédictif


Les outils de prédiction inquiètent et fascinent tout autant.

Mais à la différence des oracles, ces prévisions sont factuelles et mesurables par une probabilité.

La magie du marketing prédictif consiste à passer de la prédiction basée sur l’intuition – voire l’irrationnel, à celle basée sur des données et des probabilités de réussite.

L’utilisation du marketing prédictif impose une approche radicalement nouvelle : Le ciblage ne se base plus sur ce que l’on pense ou suppose, ni même les études marketing (sondage, panels, …) mais sur les données et ce qu’elles recèlent.

Plus nous disposerons de données, plus tout sera prédictible et plus la qualité des prévisions sera bonne. L’objectif en marketing n’est pas la certitude dans la prévision mais de faire mieux qu’une démarche empirique.

Le principe est simple : choisir les clients avec une forte probabilité d’acheter ce manteau me permettra d’avoir un taux d’achat de ce produit bien supérieur à celui obtenu si je l’avais proposé à une cible basée sur mon expérience et bien plus qu’en considérant tous mes clients.

Cela permet aussi de baisser les coûts de sollicitation car seule une partie des clients sera exposée, et d’éviter l’énervement des clients sollicités pour des produits qui ne les intéressent pas.

L’utilisation généralisée de cette information permettra de travailler la proximité avec chaque client en lui proposant des produits qui lui correspondent.

Le point clé dans cette démarche consiste à accepter de travailler au niveau de l’individu afin de prendre en considération toute sa singularité.

L’erreur, trop souvent vue même en travaillant avec des outils prédictifs, consiste à recomposer une notion de segment pour résumer une tendance dont la projection au niveau individuel est souvent fausse. A quoi bon reproduire les habitudes de travail du passé avec de tels outils ?

Il faut plonger et accepter que chaque client ait son histoire, ses désirs et ses futurs probables…


Appréhender la place du data scientist au cœur de l’entreprise


La data science est évidemment l’outil idéal de cette démarche. Reste qu’elle est systématiquement présentée comme l’apanage des fameux data scientists, les stars du marketing moderne.

Ce temps-là est révolu n’en déplaise aux « experts » et « sachants ».

Evidemment, il y aura toujours des cas où un humain fera mieux que de l’intelligence artificielle mais avec une temporalité interdisant toute démultiplication de son usage.

Un data scientist quel que soit son talent ne peut s’occuper que de quelques modèles de prévision. Est-ce que sa valeur est là ? Clairement non.

L’enjeu n’est plus de disposer de quelques modèles de prévisions mais bien de les démultiplier rapidement avec une approche auto apprenante et industrielle. Le data scientist se recentrera sur la détection de nouvelles opportunités.

Cette double approche est vertueuse et apporte beaucoup plus de valeur.

A titre d’exemple, dans ma société, nous avons développé un logiciel permettant de faire en 15 minutes ce qu’un data scientist faisait en 4 jours.

L’ensemble de nos data scientists s’est repositionné sur plus d’analyses en laissant ainsi la production à l’intelligence artificielle.

En y regardant de plus près, vous vous apercevrez que 80% de la chaîne relationnelle peut être confiée à l’IA.

Le partage de la data science est la clé d’un marketing client efficace.

Bombarder des offres promotionnelles indifférenciées à tous les consommateurs devient une dépense inutile, peu efficace et contre-productive qui suscite, au mieux, l’agacement des consommateurs que nous sommes.

Sans analyse prédictive, il serait presque impossible de formuler l’idée même de proximité relationnelle. Cette transformation est difficile, elle nécessite une réelle volonté de changement des directions marketing et un accompagnement fort des équipes.

Elles doivent désapprendre leurs métiers et en réapprendre un nouveau dont la collaboration avec les algorithmes est une des clés.

Il faut renoncer pour se transformer…




Lire la suite...

Avis d'experts

La France à l’heure de la GovTech

Publié

le

Numérisation des services publics, Open Data, consultations citoyennes en ligne… Avec ce que l’on nomme désormais la GovTech, la France est entrée de plain pied dans une période de transition numérique…




Une tribune de David Chassan, Chief Communication Officer – OUTSCALE



L’Etat français embrasse la transformation numérique, conscient de la nécessité d’améliorer ses services et de les mettre en adéquation avec la nouvelle façon de vivre et d’interagir de ses concitoyens.

Cette révolution numérique rassemble autour d’elle de nombreuses entreprises innovantes et start-up qui travaillent avec le secteur public (hôpitaux, ministères, conseils généraux, collectivités…).

Dans notre pays, cet écosystème baptisé GovTech est particulièrement dynamique.

Cette transformation à marche forcée, associée à la démocratisation de l’accès à la donnée via les portails d’Open Data, porte en elle un enjeu majeur : celui de la maîtrise, de la sûreté et de la sécurité de ces données.

Et dans ce cadre, la souveraineté doit être la règle…


Le numérique transforme les services publics


La GovTech rassemble toutes les entreprises qui travaillent avec le secteur public et les aide à proposer des services toujours plus pertinents, simples à utiliser et adaptés aux nouveaux usages.

Sur la plate-forme France Numérique, chaque acteur public peut désormais trouver en quelques clics le prestataire capable de l’aider à se transformer.

Et tous les secteurs sont concernés : transport, santé, sécurité, e-gouvernement, engagement civique et citoyen…

Résultat : les applications et nouveaux services se multiplient.

Le site impots.gouv.fr traduit à lui seul l’effet positif de cette transformation sur la vie des contribuables.

Chacun peut désormais facilement dialoguer avec un agent, mais aussi suivre son dossier ou accéder à son historique 24h/24.

De leurs côtés, les fonctionnaires obtiennent une traçabilité de leurs échanges avec le contribuable pour lui apporter les réponses les plus pertinentes possibles.

Alors que tout se passait jusqu’alors de manière verticale, du haut vers le bas, l’information circule désormais dans les deux sens.

Intelligemment utilisée, cette donnée permet d’inscrire le secteur public dans une dynamique d’amélioration continue.  


Open Data et secteur public : un mariage heureux


La politique d’Open Data décidée par le gouvernement, favorable à l’innovation comme à la création de nouvelles solutions utiles à tous, se place au cœur des enjeux de la modernisation de l’action publique.

Des stratégies fondées sur cette data peuvent dès lors être menées, contribuant à la qualité des services proposés, à leur pilotage et à leur évaluation.

Partager et échanger de la donnée constitue une vraie révolution dont les acteurs publics se sont saisis, comprenant tout l’intérêt qu’ils avaient à en retirer.

Ainsi, si le gouvernement a créé son propre portail d’open data (data.gouv.fr), la Mairie de Paris n’a pas tardé à lui emboîter le pas avec opendata.paris.fr, tout comme la métropole de Nantes (data.nantesmetropole.fr) et bien d’autres acteurs publics à leur suite.

Sur ces portails, les GovTech, mais aussi les citoyens, accèdent à des millions de données sur un très grand nombre de sujets : l’agriculture, l’alimentation, la culture, l’économie, l’emploi, l’éducation, la recherche, l’international, l’Europe, le logement, les énergies, la santé, le social, la société, les territoires, le transport, le tourisme, l’urbanisme…

L’exploitation de ces données permet de définir des stratégies publiques efficientes tenant compte des besoins, mais aussi de situations réelles et chiffrées, à l’échelle d’une région, d’un territoire, d’une ville, d’un village, voire même d’un bâtiment…


La confiance : un critère de choix majeur à prendre en compte


L’ensemble de cette chaîne d’informations doit cependant être fiable, sécurisée et transparente, afin d’être pleinement acceptée.

Il y a là un véritable enjeu de responsabilité sociétale.

Si je suis un acteur public et que je décide de mettre mes data à la disposition de mes citoyens, celles-ci doivent respecter les règles de protection des données en vigueur dans mon pays. 

Choisir un éditeur de données français qui va héberger mes data sur un Cloud sécurisé, audité chaque année et répondant à des normes réglementaires garantissant la sécurité et la sûreté des informations, semble donc une évidence.

Cette précaution va en effet renforcer la responsabilité de l’acteur public vis-à-vis de la qualité de cette donnée qui ne doit pouvoir être ni falsifiée, ni détournée.

Il semble y avoir une réelle prise de conscience des pouvoirs publics sur ce sujet.

Une récente circulaire du gouvernement autour de la doctrine Cloud de l’Etat rappelle ainsi aux collectivités que les documents et données numériques qu’elles stockent et traitent doivent l’être sur des Clouds souverains, par des entreprises respectant le cadre légal en vigueur. 

Ainsi, l’actuelle plate-forme qui abrite la consultation citoyenne autour du grand débat national est hébergée chez un éditeur français et non pas américain ou chinois. 

Toute la chaîne de traitement de la donnée peut être réalisée par des acteurs français, voire européens sans que l’un d’entre eux ne soit une filiale d’un groupe étranger.

La French GovTech, responsable et transparente, représente une véritable force de compétitivité pour la France. Profitons-en !





Lire la suite...

Avis d'experts

Données : Vers un consentement ‘explicite et volontaire’ ?

Publié

le

Les autorités allemandes sont formelles : le partage des données utilisateur entre applications sera bientôt traité comme les relations sexuelles à l’avenir. Ce sera interdit à moins d’avoir un consentement explicite et volontaire, particulièrement si l’une des deux parties est plus importante que l’autre…



Une tribune proposée par Avira



L’autorité allemande antitrust, le Bundeskartellamt, a décrété que Facebook devrait obtenir le consentement volontaire des utilisateurs avant de recueillir leurs données lorsqu’ils utilisent des services secondaires de l’entreprise, comme WhatsApp, Instagram et d’autres sites.

Sans ce consentement explicite de l’utilisateur, Facebook devra restreindre considérablement le recueil et la combinaison de données entre ses différents services.

Mais le plus intéressant, c’est ce qu’il se passe lorsque les utilisateurs ne donnent pas leur accord.

Andreas Mundt, président du Bundeskartellamt, explique tout sur ce double uppercut :

« Si les utilisateurs ne donnent pas leur consentement, Facebook n’a pas le droit de les exclure de ses services et doit également éviter de recueillir et de fusionner des données provenant de différentes sources. »




Question de domination

Les deux parties – le Bundeskartellamt et Facebook – parlent plus de domination sur le marché que de confidentialité des données.

« La portée avec laquelle Facebook recueille, fusionne et utilise les données des comptes utilisateur constitue un abus de sa position dominante »

, explique le Bundeskartellamt dans un article de son blog.

Selon la réponse de Facebook sur son blog, la popularité et la domination sont deux choses différentes.

L’entreprise pense que le Bundeskartellamt n’est pas bien placé pour leur courir après.

« Le RGPD donne spécifiquement le pouvoir aux organismes de réglementation sur la protection des données – et non aux autorités responsables de la concurrence – pour déterminer si les entreprises respectent leurs responsabilités », lit-on sur le blog de Facebook.

Selon l’entreprise, il existe de nombreuses autres solutions de réseaux sociaux et utiliser les informations provenant de tous ces services permet à Facebook de les améliorer.

Le consentement à combiner les données provenant de plusieurs sources n’a pas été mentionné dans l’article de Facebook…


Courons vers l’incertitude

Les deux parties campent sur leurs positions. Facebook a déclaré qu’elle ferait appel de la décision le mois prochain.

Cette décision survient à un moment teinté d’incertitude pour les géants de la technologie.

Facebook a déjà annoncé ses plans de fusionner les applications de messagerie, Messenger, WhatsApp et Instagram. Google a écopé d’une amende en France pour une infraction au RGPD.

De plus, on ne sait pas encore quand les États-Unis mettront au jour une loi unifiée sur la protection des données, s’ils le font un jour.


Aucune solution automatique par défaut ne sera acceptée

À quoi donc pourraient ressembler des conditions générales acceptables pour l’utilisateur final ?

Dans les mots de M. Mundt :

« Une coche requise dans une case pour accepter les conditions d’utilisation d’une entreprise n’est pas une base adéquate pour un traitement aussi poussé des données. »

On peut donc se demander si les nouveaux niveaux de consentement de Google pour les transferts de données privées des utilisateurs entre ses différents services et dispositifs de suivi passeraient aussi les critères du Bundeskartellamt…

L’heure du consentement volontaire et explicite a sonné

Il ne faudrait qu’une petite extrapolation pour voir un futur possible – du moins en Europe.

Concernant le recueil et l’échange d’informations d’identification personnelle entre applications, il est temps de proposer à l’utilisateur de choisir par lui-même ce qu’il est prêt à accepter.




Lire la suite...

must read