Connect with us

Avis d'experts

Quand le Big Data désinforme

Publié

le

La bonne personne, avec la bonne information, au bon moment. Le big data est censé donner aux entreprises toutes les clés pour prendre la meilleure décision business possible. Mais avec un volume aussi important d’informations à disposition et des données pas toujours pertinentes, le big data peut aussi facilement mener à l’erreur…

 

Selon les chiffres publiés par IDC, les organisations exploitant diverses sources de données via des outils analytiques pour créer une série d’indicateurs sur leur marché auraient cinq fois plus de chances de dépasser leurs objectifs que celles qui ne disposent pas de stratégie big data.

En quelques années, le big data est devenu, à travers les nombreuses études, enquêtes et recherches, une sorte de garantie de succès pour les utilisateurs.

Mais des questions restent en suspens : savoir analyser des données signifie-t-il être capable de les comprendre ? Les professionnels travaillent-ils sur les bonnes données ? Le big data peut-il nous induire en erreur ?

 

Un réel signal ou un simple bruit ?

Un des principaux défis de notre époque est que nous disposons de tellement d’informations qu’il est facile de commettre des erreurs.

Exemple avec un projet mené aux États-Unis et rapporté par Gary King, enseignant à Harvard et directeur de l’Institut de sciences sociales quantitatives. L’idée était d’écouter les réseaux sociaux, de relever l’utilisation de certains mots-clés comme « chômage », « emploi » ou « jobs », et de s’en servir pour prédire le taux de chômage dans le pays.

Le projet suivait son cours jusqu’à ce qu’un mot-clé explose dans les analyses, annonçant une hausse soudaine de ce taux. Fausse alerte, le terme en question était en réalité lié au décès de Steve Jobs, rendant le modèle prédictif caduc.

 

Savoir choisir la bonne donnée

La chose la plus simple et à la fois la plus dangereuse au sujet de la donnée est qu’elle peut être faussée et manipulée. Oui, le big data peut donc mener une entreprise sur une fausse piste si les données sont mal utilisées.

Il est tentant d’exploiter n’importe quelle donnée pour essayer de répondre à n’importe quelle interrogation métier. Mais avant de se lancer, il est primordial de passer par une première étape de compréhension de ces données. Analyser des jeux de données simplement parce que vous les pensez pertinents n’est pas suffisant.

Avec un tel volume d’informations à portée de main, il est facile de trouver la donnée qui nous permettra de prouver ce qu’on souhaite démontrer. Mais ce serait prendre la problématique à l’envers et l’intérêt premier du big data ne doit pas être perdu de vue. Il s’agit d’obtenir une meilleure connaissance de son marché, de ses clients et de sa propre entreprise, pour être capable de prendre les bonnes orientations.

Utiliser les données pour prouver ce qu’on pense déjà savoir est sans doute le meilleur moyen de faire fausse route…

 

Source : Dell via Zdnet

 

Avis d'experts

Démocratiser l’usage de la data science

Publié

le

Source inépuisable de richesse pour l’entreprise, la data science offre un gain de productivité et de profitabilité important… lorsqu’elle est valorisée…




Une tribune de Stéphane Amarsy, CEO d’Inbox




Une nouvelle approche du marketing prédictif


Les outils de prédiction inquiètent et fascinent tout autant.

Mais à la différence des oracles, ces prévisions sont factuelles et mesurables par une probabilité.

La magie du marketing prédictif consiste à passer de la prédiction basée sur l’intuition – voire l’irrationnel, à celle basée sur des données et des probabilités de réussite.

L’utilisation du marketing prédictif impose une approche radicalement nouvelle : Le ciblage ne se base plus sur ce que l’on pense ou suppose, ni même les études marketing (sondage, panels, …) mais sur les données et ce qu’elles recèlent.

Plus nous disposerons de données, plus tout sera prédictible et plus la qualité des prévisions sera bonne. L’objectif en marketing n’est pas la certitude dans la prévision mais de faire mieux qu’une démarche empirique.

Le principe est simple : choisir les clients avec une forte probabilité d’acheter ce manteau me permettra d’avoir un taux d’achat de ce produit bien supérieur à celui obtenu si je l’avais proposé à une cible basée sur mon expérience et bien plus qu’en considérant tous mes clients.

Cela permet aussi de baisser les coûts de sollicitation car seule une partie des clients sera exposée, et d’éviter l’énervement des clients sollicités pour des produits qui ne les intéressent pas.

L’utilisation généralisée de cette information permettra de travailler la proximité avec chaque client en lui proposant des produits qui lui correspondent.

Le point clé dans cette démarche consiste à accepter de travailler au niveau de l’individu afin de prendre en considération toute sa singularité.

L’erreur, trop souvent vue même en travaillant avec des outils prédictifs, consiste à recomposer une notion de segment pour résumer une tendance dont la projection au niveau individuel est souvent fausse. A quoi bon reproduire les habitudes de travail du passé avec de tels outils ?

Il faut plonger et accepter que chaque client ait son histoire, ses désirs et ses futurs probables…


Appréhender la place du data scientist au cœur de l’entreprise


La data science est évidemment l’outil idéal de cette démarche. Reste qu’elle est systématiquement présentée comme l’apanage des fameux data scientists, les stars du marketing moderne.

Ce temps-là est révolu n’en déplaise aux « experts » et « sachants ».

Evidemment, il y aura toujours des cas où un humain fera mieux que de l’intelligence artificielle mais avec une temporalité interdisant toute démultiplication de son usage.

Un data scientist quel que soit son talent ne peut s’occuper que de quelques modèles de prévision. Est-ce que sa valeur est là ? Clairement non.

L’enjeu n’est plus de disposer de quelques modèles de prévisions mais bien de les démultiplier rapidement avec une approche auto apprenante et industrielle. Le data scientist se recentrera sur la détection de nouvelles opportunités.

Cette double approche est vertueuse et apporte beaucoup plus de valeur.

A titre d’exemple, dans ma société, nous avons développé un logiciel permettant de faire en 15 minutes ce qu’un data scientist faisait en 4 jours.

L’ensemble de nos data scientists s’est repositionné sur plus d’analyses en laissant ainsi la production à l’intelligence artificielle.

En y regardant de plus près, vous vous apercevrez que 80% de la chaîne relationnelle peut être confiée à l’IA.

Le partage de la data science est la clé d’un marketing client efficace.

Bombarder des offres promotionnelles indifférenciées à tous les consommateurs devient une dépense inutile, peu efficace et contre-productive qui suscite, au mieux, l’agacement des consommateurs que nous sommes.

Sans analyse prédictive, il serait presque impossible de formuler l’idée même de proximité relationnelle. Cette transformation est difficile, elle nécessite une réelle volonté de changement des directions marketing et un accompagnement fort des équipes.

Elles doivent désapprendre leurs métiers et en réapprendre un nouveau dont la collaboration avec les algorithmes est une des clés.

Il faut renoncer pour se transformer…




Lire la suite...

Avis d'experts

Médias: Quel avenir face au duopole Google/Facebook ?

Publié

le

À l’heure où Facebook et Google accroissent leur domination sur le marché publicitaire en ligne, que peuvent faire les médias et éditeurs pour survivre ?

Olivier Simonis, co-fondateur et PDG de Qualifio et ancien directeur marketing et digital au sein du groupe media Rossel, se penche sur la question…



On le sait : la source de revenus la plus importante pour une entreprise média, c’est la publicité vendue aux « annonceurs ». Ces dernières années, la consommation d’information s’est déplacée massivement vers les supports digitaux et, logiquement, la pub a suivi et s’est digitalisée.

Or, aujourd’hui, environ 80 % du marché de la publicité digitale est dans les mains de Google et Facebook.

Selon le GESTE (Groupement des éditeurs de contenu et de services en ligne), 92 % de la croissance du marché publicitaire est captée par les deux géants américains, au détriment des éditeurs traditionnels…


Comment expliquer cette position dominante ?


Facebook et Google disposent de moyens financiers colossaux (respectivement 95 milliards et 35 milliards de chiffre d’affaires en 2017), de quoi investir massivement dans leurs plateformes technologiques, ce qu’aucun éditeur au monde ne peut se permettre de faire à cette échelle.

Ces mêmes géants disposent d’une quantité immense de données accumulées sur chacun d’entre nous, qui permet un ciblage publicitaire inédit.

Pour Facebook, ces données sont collectées non seulement via la plateforme, mais aussi via chaque site affichant un bouton Like ou Share.

Pour survivre à cette transformation numérique rapide et souvent violente, les médias ont tenté avec plus ou moins de succès de rendre leurs contenus payants (à travers des « paywalls ») ou de diversifier leurs revenus, devenant, par exemple, organisateurs d’événements.

Ils ont été contraints de lancer des plans de restructuration, en sabrant dans les coûts éditoriaux (les journalistes), mettant de facto en danger le cœur de leur produit et de leur raison d’être.

Cela les a entraîné dans une spirale infernale. Car qui dit moins de pub dit moins de moyens, moins de journalistes, une détérioration du produit, moins d’audience, moins de pub, etc.

Je t’aime, moi non plus…

Face à cette dominance croissante de Google et Facebook, les médias hésitent sur la position à adopter et c’est une parfois une relation « amour-haine » qui les unit.

Tout en étant leurs plus sérieux concurrents, Google et Facebook représentent une énorme source de trafic pour les éditeurs (via les posts qui apparaissent sur le mur Facebook, par exemple).

De plus, les deux géants sont dans une démarche de séduction permanente des médias traditionnels : Google, par exemple, déverse des millions d’euros chaque année pour des projets d’aide aux journalistes via son Digital News Innovation Fund.

A la recherche de la masse critique

Face à cet écrasant déséquilibre du marché, un autre phénomène est apparu dans la plupart des pays européens : autrefois concurrents, souvent à couteaux-tirés, les groupes médias commencent à s’allier entre eux pour lancer des projets communs.

Face à cet écrasant déséquilibre du marché, un autre phénomène est apparu dans la plupart des pays européens : autrefois concurrents, souvent à couteaux-tirés, les groupes médias commencent à s’allier entre eux pour lancer des projets communs.

Ces projets visent à créer une masse critique (audience, données,…) capable de concurrencer les géants américains via des plateformes d’authentification communes, des offres publicitaires communes, une collecte de données mutualisée, etc.

Cas de conscience citoyenne

En tant que citoyen, cette situation de dominance pose question : Google et Facebook ne paient pas d’impôts dans nos pays, ne déclarent pas leurs revenus (la publicité est facturée aux annonceurs et centres medias au départ de pays comme l’Irlande), n’emploient pas de journalistes et, surtout, mettent les médias traditionnels sur les genoux.

Ces derniers sont pourtant les garants de la démocratie et sont un contre-pouvoir indispensable.

Plus globalement, par le partage massif et impulsif de news sur base d’un titre, de trois lignes de texte et d’une photo racoleuse, Facebook et Google ont contribué à la propagation des « fake news » mais aussi à instaurer une culture du zapping, des news sensationnalistes consommées rapidement en « scrollant » sur un mur, au détriment d’un travail journalistique de fond et plus fouillé.


La taxe comme seule solution?


Au niveau législatif, des initiatives de taxation des GAFA existent, comme la « taxe sur les services numériques au niveau européen », mais tardent à voir le jour.

La France a pris les devants avec, à partir du 1er janvier 2019, une « taxe GAFA », c’est-à-dire une mesure spécifiquement conçue pour augmenter la contribution des géants de l’Internet à l’impôt dans l’Hexagone.

Au niveau des amendes, l’Union Européenne n’est pas en reste.

Le 20 mars 2019, Google a en effet été condamné à payer une amende de 1,5 milliards d’euros pour avoir bloqué ses concurrents sur le marché publicitaire.

Fin 2018, l’Union Européenne avait voté ce qu’on appelle les « droits voisins ». Cette réforme a pour but de contraindre les GAFA à contribuer au financement de la presse, dans une optique de paiement des droits d’auteur.

Les journalistes n’étaient jusqu’alors pas rémunérés pour l’utilisation de leur contenus par Google ou encore Facebook, qui touchaient donc des revenus publicitaires pour des contenus qu’ils n’avaient pas financés. Un pas de plus vers un internet plus juste…

Au niveau citoyen, nous avons aussi chacun un rôle à jouer.

Ne soyons pas rétrogrades : personne ne nous demande de boycotter les réseaux sociaux ou Google, ou de refuser cette évolution dans notre manière de communiquer. Les réseaux sociaux ont amené énormément de positif.

Je pense notamment à la plateforme d’hébergement citoyen, en Belgique, qui permet chaque jour à plus de 500 migrants d’être accueillis par des familles bénévoles, via un groupe Facebook.

Mais chacun peut aussi consommer l’information de manière responsable et accepter de payer pour l’info locale, vérifiée et de ce fait contribuer au maintien d’un écosystème journalistique de qualité…




Lire la suite...

Avis d'experts

La France à l’heure de la GovTech

Publié

le

Numérisation des services publics, Open Data, consultations citoyennes en ligne… Avec ce que l’on nomme désormais la GovTech, la France est entrée de plain pied dans une période de transition numérique…




Une tribune de David Chassan, Chief Communication Officer – OUTSCALE



L’Etat français embrasse la transformation numérique, conscient de la nécessité d’améliorer ses services et de les mettre en adéquation avec la nouvelle façon de vivre et d’interagir de ses concitoyens.

Cette révolution numérique rassemble autour d’elle de nombreuses entreprises innovantes et start-up qui travaillent avec le secteur public (hôpitaux, ministères, conseils généraux, collectivités…).

Dans notre pays, cet écosystème baptisé GovTech est particulièrement dynamique.

Cette transformation à marche forcée, associée à la démocratisation de l’accès à la donnée via les portails d’Open Data, porte en elle un enjeu majeur : celui de la maîtrise, de la sûreté et de la sécurité de ces données.

Et dans ce cadre, la souveraineté doit être la règle…


Le numérique transforme les services publics


La GovTech rassemble toutes les entreprises qui travaillent avec le secteur public et les aide à proposer des services toujours plus pertinents, simples à utiliser et adaptés aux nouveaux usages.

Sur la plate-forme France Numérique, chaque acteur public peut désormais trouver en quelques clics le prestataire capable de l’aider à se transformer.

Et tous les secteurs sont concernés : transport, santé, sécurité, e-gouvernement, engagement civique et citoyen…

Résultat : les applications et nouveaux services se multiplient.

Le site impots.gouv.fr traduit à lui seul l’effet positif de cette transformation sur la vie des contribuables.

Chacun peut désormais facilement dialoguer avec un agent, mais aussi suivre son dossier ou accéder à son historique 24h/24.

De leurs côtés, les fonctionnaires obtiennent une traçabilité de leurs échanges avec le contribuable pour lui apporter les réponses les plus pertinentes possibles.

Alors que tout se passait jusqu’alors de manière verticale, du haut vers le bas, l’information circule désormais dans les deux sens.

Intelligemment utilisée, cette donnée permet d’inscrire le secteur public dans une dynamique d’amélioration continue.  


Open Data et secteur public : un mariage heureux


La politique d’Open Data décidée par le gouvernement, favorable à l’innovation comme à la création de nouvelles solutions utiles à tous, se place au cœur des enjeux de la modernisation de l’action publique.

Des stratégies fondées sur cette data peuvent dès lors être menées, contribuant à la qualité des services proposés, à leur pilotage et à leur évaluation.

Partager et échanger de la donnée constitue une vraie révolution dont les acteurs publics se sont saisis, comprenant tout l’intérêt qu’ils avaient à en retirer.

Ainsi, si le gouvernement a créé son propre portail d’open data (data.gouv.fr), la Mairie de Paris n’a pas tardé à lui emboîter le pas avec opendata.paris.fr, tout comme la métropole de Nantes (data.nantesmetropole.fr) et bien d’autres acteurs publics à leur suite.

Sur ces portails, les GovTech, mais aussi les citoyens, accèdent à des millions de données sur un très grand nombre de sujets : l’agriculture, l’alimentation, la culture, l’économie, l’emploi, l’éducation, la recherche, l’international, l’Europe, le logement, les énergies, la santé, le social, la société, les territoires, le transport, le tourisme, l’urbanisme…

L’exploitation de ces données permet de définir des stratégies publiques efficientes tenant compte des besoins, mais aussi de situations réelles et chiffrées, à l’échelle d’une région, d’un territoire, d’une ville, d’un village, voire même d’un bâtiment…


La confiance : un critère de choix majeur à prendre en compte


L’ensemble de cette chaîne d’informations doit cependant être fiable, sécurisée et transparente, afin d’être pleinement acceptée.

Il y a là un véritable enjeu de responsabilité sociétale.

Si je suis un acteur public et que je décide de mettre mes data à la disposition de mes citoyens, celles-ci doivent respecter les règles de protection des données en vigueur dans mon pays. 

Choisir un éditeur de données français qui va héberger mes data sur un Cloud sécurisé, audité chaque année et répondant à des normes réglementaires garantissant la sécurité et la sûreté des informations, semble donc une évidence.

Cette précaution va en effet renforcer la responsabilité de l’acteur public vis-à-vis de la qualité de cette donnée qui ne doit pouvoir être ni falsifiée, ni détournée.

Il semble y avoir une réelle prise de conscience des pouvoirs publics sur ce sujet.

Une récente circulaire du gouvernement autour de la doctrine Cloud de l’Etat rappelle ainsi aux collectivités que les documents et données numériques qu’elles stockent et traitent doivent l’être sur des Clouds souverains, par des entreprises respectant le cadre légal en vigueur. 

Ainsi, l’actuelle plate-forme qui abrite la consultation citoyenne autour du grand débat national est hébergée chez un éditeur français et non pas américain ou chinois. 

Toute la chaîne de traitement de la donnée peut être réalisée par des acteurs français, voire européens sans que l’un d’entre eux ne soit une filiale d’un groupe étranger.

La French GovTech, responsable et transparente, représente une véritable force de compétitivité pour la France. Profitons-en !





Lire la suite...

Avis d'experts

Comment s’adapter au ‘Shopper 5.0’ ?

Publié

le

La division entre le online et le offline n’a aujourd’hui plus de sens dans le retail.

Le nouveau consommateur hyper-connecté circule entre les deux canaux avec un seul objectif: satisfaire immédiatement ses besoins en ne négligeant pas l’expérience d’achat et la personnalisation.

Aux marques désormais de s’adapter à cet acheteur 5.0…




Une tribune de Jonathan Lemberger, Co-fondateur de Tiendeo






Le smartphone est devenu l’outil principal du consommateur hyper-connecté dans la quête de la recherche d’informations ou de l’achat immédiat. Mais aussi un outil précieux pour tous les retailers dans la segmentation de leurs campagnes marketing…


Le smartphone: la pierre angulaire des consommateurs et des détaillants


Baptisé « Shopper 5.0 », ce nouveau profil de consommateur ultra-connecté où le smartphone est presque une extension du corps, souhaite accéder immédiatement aux informations.

Son téléphone est devenu un assistant personnel dans les diverses tâches quotidiennes.

Les smartphones ont un rôle important à jouer tout au long du processus d’achat, ce qui est bénéfique à plus d’un titre: d’une part, les smartphones aident ces utilisateurs à planifier leurs achats et, d’autre part, les détaillants peuvent obtenir des informations très pertinentes sur le comportement d’achat des clients.

Tout au long du processus de planification, le consommateur soulève différentes questions: Quels sont mes besoins ? Qu’est-ce que je souhaite acheter et où le faire ?

On peut parler de «micro-moments»: des moments où ces acheteurs «5.0» se tourneront vers leur smartphone pour répondre à ces questions.

C’est à ce moment précis que les informations qu’ils collectent ou la publicité qui les concerne via le canal qu’ils utilisent aura une influence déterminante sur leur décision d’achat final.


L’hyper-segmentation est la clé d’une campagne marketing efficace


Pendant longtemps, les nouvelles technologies ont amélioré les campagnes de marketing online, donnant des informations détaillées sur le comportement en ligne des consommateurs.

Celles-ci ont été particulièrement utiles lorsque l’achat a été effectué dans l’environnement numérique, car elles permettaient une attribution claire du retour sur investissement selon les campagnes réalisées.

Cependant, il ne faut pas perdre de vue que, selon une étude de Nielsen, seuls 6,1% des achats des consommateurs français sont effectués sur Internet, la grande majorité d’entre eux continuant de se faire dans des magasins physiques.

Et c’est là que la fusion entre les deux canaux devient très importante.

Pour les détaillants français, le principal défi consiste maintenant à comprendre comment accroître l’efficacité de leurs campagnes digitales drive-to-store, tout en améliorant l’expérience d’achat afin de fournir aux clients une valeur ajoutée qui va les différencier de leurs concurrents.

En conséquence, nous allons aujourd’hui plus loin et offrons aux détaillants la possibilité de campagnes hyper-segmentées grâce au big data et en impactant les consommateurs par le biais de la publicité programmatique, en tenant compte à la fois de leur comportement en ligne et hors ligne.

Des technologies telles que la géolocalisation nous permettent, par exemple, de connaître les magasins physiques récemment visités par l’utilisateur. Des données que nous pouvons croiser avec la recherche d’informations qu’ils ont effectué en ligne au moment de la planification de leur achat.

De cette manière, nous aurons une connaissance complète des intérêts et du comportement du consommateur, quel que soit l’environnement dans lequel il évolue.


Ne pas négliger les points de vente physiques malgré l’essor du digital


Tenant compte du fait que les consommateurs attachent de la valeur à l’expérience et que le magasin physique est leur canal préféré pour faire leur shopping, améliorer l’expérience en magasin grâce aux avantages procurés par les avancées technologiques dans des domaines tels que la réalité virtuelle ou l’intelligence artificielle est un objectif pertinent.

Sans aller plus loin, Auchan a récemment annoncé l’ouverture de son premier magasin sans personnel. Lidl a commencé à tester son nouveau système « Shop & Go » afin de rationaliser le processus de paiement en magasin. Les points de vente physiques deviennent de grands centres d’expérience…

Souvent, de nombreuses entreprises confondent la recherche de nouvelles expériences dans les magasins physiques avec des investissements dans de grands projets phares ou dans des dispositifs futuristes mêlant réalité augmentée et intelligence artificielle.

Ces concepts peuvent sembler attrayants et générer une valeur ajoutée immédiate, mais leur rentabilité à long terme doit être prise en compte et, surtout, aider les détaillants à améliorer leur connaissance des consommateurs.

C’est ce qui leur permet de concevoir des stratégies marketing axées sur l’amélioration de l’expérience d’achat et de fidéliser la clientèle.

Ce n’est qu’ainsi que les marques pourront créer des magasins intelligents pour les acheteurs avertis…




Lire la suite...

must read