Connect with us

Avis d'experts

Data et Analytics : Les grandes tendances de 2016

Publié

le

En 2015, la vague porteuse de la Data (Big, Smart, Small..) semble avoir éveillé les consciences des organisations autour de l’importance de leur patrimoine ‘données’. Les tendances observées par Deloitte dans la Data et l’Analytics pour 2016 semblent confirmer des changements significatifs tant sur le volet organisationnel que sur les pratiques.

 

L’année dernière les entreprises ont investi dans diverses initiatives Data principalement afin d’améliorer l’efficacité opérationnelle ou encore la prise de décision. Soutenus par une transformation digitale active des entreprises, les investissements en matière de Data vont sans doute s’intensifier en 2016.

Sur la base d’une enquête menée auprès de 60 entreprises françaises de toutes tailles et tous secteurs d’activités, Deloitte livre ici les tendances notables qui impacteront la Data et l’Analytics dans les mois à venir.

 

[blockquote cite=” indique Reda Gomery, Associé responsable Data et Analytics chez Deloitte.”]« En 2015, la dimension « Big » du Big Data, parfois intimidante, semble avoir été intégrées par les organisations. Après quelques années de réflexions ou d’expérimentations, les actions liées à la Data se généralisent progressivement, les entreprises passent à l’action ; 70% des entreprises indiquent avoir déjà lancé des initiatives (…)

Si ce mouvement Big Data est générateur d’intérêt et d’opportunités, il suscite une appréhension des risques liés à la Data ; les entreprises semblent de plus en plus mobilisées sur les thèmes de la protection et de l’usage éthique des données. »[/blockquote]

 

Les 5 grandes tendances dans la Data et l’Analytics identifiées par Deloitte

 

1. Chief Data Officer et Data Scientist : de nouveaux rôles clés à explorer

Les organisations prennent conscience de la nécessité de changer leurs approches de gestion et d’exploration des données. Cette évolution favorise l’émergence de nouveaux rôles clés au sein des entreprises : le Chief Data Officer (CDO) qui pilote la stratégie Data et le Data Scientist qui créé de l’Intelligence à partir de la Data. Encore inexistants il y a quelques années, ces rôles sont de plus en plus plébiscités aujourd’hui.

En effet selon l’enquête Deloitte, 79% des entreprises considèrent qu’il est urgent de renforcer le rôle du Data Scientist et 71% celui du Chief Data Officer même si leurs activités associées ne sont pas complètement clarifiées ou normées. Cette tendance, qui peut être contrainte par une pénurie de profils, devrait durablement s’installer dans les entreprises afin de professionnaliser les pratiques de gestion et d’exploration des données.

 

2. Données externes : le nouvel eldorado

Les organisations expriment un vif intérêt pour l’usage de données externes issues du Web, des réseaux sociaux, de partenaires…Ainsi, près de 50% d’entre elles estiment qu’il devient prioritaire d’acquérir de plus en plus de données externes et de favoriser leurs croisements avec des données internes (64%). En à peine une décennie, le nombre d’utilisateurs d’Internet et des réseaux sociaux a connu une croissance fulgurante.

Une véritable aubaine pour des entreprises soucieuses de mieux appréhender les attentes de leurs consommateurs, d’anticiper les tendances ou d’évaluer les impacts de leurs stratégies promotionnelles. Cette évolution illustre donc l’extension du spectre d’utilisation des données et d’une vision désormais plus globale au sein des entreprises.

 

3. Objets connectés, les futurs gisements de données

La progression spectaculaire du nombre d’objets connectés engendre la prolifération d’une manne considérable de données issues de véhicules, d’équipements industriels, de dispositifs médicaux… laissant entrevoir de réels leviers de performance et des capacités d’optimisation inédites des processus métiers. En effet, les données issues de la connectivité entraînent un accroissement de la connaissance des clients permettant le développement de nouveaux services, la mise en place de programmes de fidélisation, ou le recrutement de nouveaux partenaires.

A la connaissance des clients s’ajoute l’optimisation de la gestion des produits et des équipements. Les entreprises peuvent, par exemple, anticiper les risques et planifier les opérations de maintenance en fonction des prévisions de dysfonctionnement des équipements connectés.

 

4. L’analytique : entre diversification et évolution des usages

La Data Analytics permet aux entreprises de renforcer les facultés d’analyse issues des canaux digitaux (70%), de faciliter le partage de ces éléments pour tous au sein des différents départements (66%), et de mettre en place des prévisions statistiques avancées (63%).

Un temps réservé aux experts, les usages analytiques se démocratisent donc et s’étendent désormais à l’ensemble des fonctions de l’entreprise (Marketing, Finance, RH, Achat…). La simplification de l’accès à l’analytique, la conception de nouveaux modèles d’analyse (prévisions, corrélations…) ou encore l’émergence des approches cognitives et de techniques basées sur l’apprentissage automatique (machine learning) marquent une évolution progressive des usages.

 

5. Protection et usage éthique des données : un enjeu de taille

Avec l’augmentation des quantités de data et la démultiplication des échanges, les entreprises sont de plus en plus mobilisées sur les thèmes de la protection et de l’usage éthique des données. Sujet devenu majeur, la protection des données repose sur une appréciation du patrimoine existant ainsi qu’une évaluation objective des risques.

La démarche soulève de nombreuses questions au sein des entreprises : quelles données ? quelles sensibilités ? quelle maille de classification ? quels usages et quelles limites ?… Les dimensions d’analyse sont multiples (technique, organisationnelle, juridique, métier) et se fondent sur une approche structurée et collaborative.

 

[blockquote cite=”estime Reda Gomery”]« Si la protection des systèmes est en place depuis plusieurs années, les réflexions sur la protection des données émergent progressivement. Des solutions se déploient autour de divers moyens techniques (chiffrement, anonymisation, coffre-fort…) et allant jusqu’à des réflexions autour de la mise en place d’assurances. La volonté reste la même au sein des entreprises : instaurer et préserver un climat de confiance auprès des consommateurs ou des collaborateurs internes. » [/blockquote]

 

Les chiffres à retenir :

  • 60% des entreprises interrogées estiment avoir une bonne compréhension des apports du Big Data pour leurs organisations
  • Elles sont 43% à considérer qu’une telle pratique devrait être menée par une entité dédiée placée sous la responsabilité de la Direction Générale
  • Plus de 70% des entreprises indiquent avoir déjà lancé des initiatives de Big Data
  • 79% des entreprises considèrent qu’il est urgent de renforcer le rôle du Data Scientist et 71% celui du Chief Data Officer
  • 70% des organisations mettent en avant l’importance de consolider les capacités d’analyse issues des réseaux sociaux

 

L’ensemble des résultats de cette étude est téléchargeable ici

 

Avis d'experts

Démocratiser l’usage de la data science

Publié

le

Source inépuisable de richesse pour l’entreprise, la data science offre un gain de productivité et de profitabilité important… lorsqu’elle est valorisée…




Une tribune de Stéphane Amarsy, CEO d’Inbox




Une nouvelle approche du marketing prédictif


Les outils de prédiction inquiètent et fascinent tout autant.

Mais à la différence des oracles, ces prévisions sont factuelles et mesurables par une probabilité.

La magie du marketing prédictif consiste à passer de la prédiction basée sur l’intuition – voire l’irrationnel, à celle basée sur des données et des probabilités de réussite.

L’utilisation du marketing prédictif impose une approche radicalement nouvelle : Le ciblage ne se base plus sur ce que l’on pense ou suppose, ni même les études marketing (sondage, panels, …) mais sur les données et ce qu’elles recèlent.

Plus nous disposerons de données, plus tout sera prédictible et plus la qualité des prévisions sera bonne. L’objectif en marketing n’est pas la certitude dans la prévision mais de faire mieux qu’une démarche empirique.

Le principe est simple : choisir les clients avec une forte probabilité d’acheter ce manteau me permettra d’avoir un taux d’achat de ce produit bien supérieur à celui obtenu si je l’avais proposé à une cible basée sur mon expérience et bien plus qu’en considérant tous mes clients.

Cela permet aussi de baisser les coûts de sollicitation car seule une partie des clients sera exposée, et d’éviter l’énervement des clients sollicités pour des produits qui ne les intéressent pas.

L’utilisation généralisée de cette information permettra de travailler la proximité avec chaque client en lui proposant des produits qui lui correspondent.

Le point clé dans cette démarche consiste à accepter de travailler au niveau de l’individu afin de prendre en considération toute sa singularité.

L’erreur, trop souvent vue même en travaillant avec des outils prédictifs, consiste à recomposer une notion de segment pour résumer une tendance dont la projection au niveau individuel est souvent fausse. A quoi bon reproduire les habitudes de travail du passé avec de tels outils ?

Il faut plonger et accepter que chaque client ait son histoire, ses désirs et ses futurs probables…


Appréhender la place du data scientist au cœur de l’entreprise


La data science est évidemment l’outil idéal de cette démarche. Reste qu’elle est systématiquement présentée comme l’apanage des fameux data scientists, les stars du marketing moderne.

Ce temps-là est révolu n’en déplaise aux « experts » et « sachants ».

Evidemment, il y aura toujours des cas où un humain fera mieux que de l’intelligence artificielle mais avec une temporalité interdisant toute démultiplication de son usage.

Un data scientist quel que soit son talent ne peut s’occuper que de quelques modèles de prévision. Est-ce que sa valeur est là ? Clairement non.

L’enjeu n’est plus de disposer de quelques modèles de prévisions mais bien de les démultiplier rapidement avec une approche auto apprenante et industrielle. Le data scientist se recentrera sur la détection de nouvelles opportunités.

Cette double approche est vertueuse et apporte beaucoup plus de valeur.

A titre d’exemple, dans ma société, nous avons développé un logiciel permettant de faire en 15 minutes ce qu’un data scientist faisait en 4 jours.

L’ensemble de nos data scientists s’est repositionné sur plus d’analyses en laissant ainsi la production à l’intelligence artificielle.

En y regardant de plus près, vous vous apercevrez que 80% de la chaîne relationnelle peut être confiée à l’IA.

Le partage de la data science est la clé d’un marketing client efficace.

Bombarder des offres promotionnelles indifférenciées à tous les consommateurs devient une dépense inutile, peu efficace et contre-productive qui suscite, au mieux, l’agacement des consommateurs que nous sommes.

Sans analyse prédictive, il serait presque impossible de formuler l’idée même de proximité relationnelle. Cette transformation est difficile, elle nécessite une réelle volonté de changement des directions marketing et un accompagnement fort des équipes.

Elles doivent désapprendre leurs métiers et en réapprendre un nouveau dont la collaboration avec les algorithmes est une des clés.

Il faut renoncer pour se transformer…




Lire la suite...

Avis d'experts

Médias: Quel avenir face au duopole Google/Facebook ?

Publié

le

À l’heure où Facebook et Google accroissent leur domination sur le marché publicitaire en ligne, que peuvent faire les médias et éditeurs pour survivre ?

Olivier Simonis, co-fondateur et PDG de Qualifio et ancien directeur marketing et digital au sein du groupe media Rossel, se penche sur la question…



On le sait : la source de revenus la plus importante pour une entreprise média, c’est la publicité vendue aux « annonceurs ». Ces dernières années, la consommation d’information s’est déplacée massivement vers les supports digitaux et, logiquement, la pub a suivi et s’est digitalisée.

Or, aujourd’hui, environ 80 % du marché de la publicité digitale est dans les mains de Google et Facebook.

Selon le GESTE (Groupement des éditeurs de contenu et de services en ligne), 92 % de la croissance du marché publicitaire est captée par les deux géants américains, au détriment des éditeurs traditionnels…


Comment expliquer cette position dominante ?


Facebook et Google disposent de moyens financiers colossaux (respectivement 95 milliards et 35 milliards de chiffre d’affaires en 2017), de quoi investir massivement dans leurs plateformes technologiques, ce qu’aucun éditeur au monde ne peut se permettre de faire à cette échelle.

Ces mêmes géants disposent d’une quantité immense de données accumulées sur chacun d’entre nous, qui permet un ciblage publicitaire inédit.

Pour Facebook, ces données sont collectées non seulement via la plateforme, mais aussi via chaque site affichant un bouton Like ou Share.

Pour survivre à cette transformation numérique rapide et souvent violente, les médias ont tenté avec plus ou moins de succès de rendre leurs contenus payants (à travers des « paywalls ») ou de diversifier leurs revenus, devenant, par exemple, organisateurs d’événements.

Ils ont été contraints de lancer des plans de restructuration, en sabrant dans les coûts éditoriaux (les journalistes), mettant de facto en danger le cœur de leur produit et de leur raison d’être.

Cela les a entraîné dans une spirale infernale. Car qui dit moins de pub dit moins de moyens, moins de journalistes, une détérioration du produit, moins d’audience, moins de pub, etc.

Je t’aime, moi non plus…

Face à cette dominance croissante de Google et Facebook, les médias hésitent sur la position à adopter et c’est une parfois une relation « amour-haine » qui les unit.

Tout en étant leurs plus sérieux concurrents, Google et Facebook représentent une énorme source de trafic pour les éditeurs (via les posts qui apparaissent sur le mur Facebook, par exemple).

De plus, les deux géants sont dans une démarche de séduction permanente des médias traditionnels : Google, par exemple, déverse des millions d’euros chaque année pour des projets d’aide aux journalistes via son Digital News Innovation Fund.

A la recherche de la masse critique

Face à cet écrasant déséquilibre du marché, un autre phénomène est apparu dans la plupart des pays européens : autrefois concurrents, souvent à couteaux-tirés, les groupes médias commencent à s’allier entre eux pour lancer des projets communs.

Face à cet écrasant déséquilibre du marché, un autre phénomène est apparu dans la plupart des pays européens : autrefois concurrents, souvent à couteaux-tirés, les groupes médias commencent à s’allier entre eux pour lancer des projets communs.

Ces projets visent à créer une masse critique (audience, données,…) capable de concurrencer les géants américains via des plateformes d’authentification communes, des offres publicitaires communes, une collecte de données mutualisée, etc.

Cas de conscience citoyenne

En tant que citoyen, cette situation de dominance pose question : Google et Facebook ne paient pas d’impôts dans nos pays, ne déclarent pas leurs revenus (la publicité est facturée aux annonceurs et centres medias au départ de pays comme l’Irlande), n’emploient pas de journalistes et, surtout, mettent les médias traditionnels sur les genoux.

Ces derniers sont pourtant les garants de la démocratie et sont un contre-pouvoir indispensable.

Plus globalement, par le partage massif et impulsif de news sur base d’un titre, de trois lignes de texte et d’une photo racoleuse, Facebook et Google ont contribué à la propagation des « fake news » mais aussi à instaurer une culture du zapping, des news sensationnalistes consommées rapidement en « scrollant » sur un mur, au détriment d’un travail journalistique de fond et plus fouillé.


La taxe comme seule solution?


Au niveau législatif, des initiatives de taxation des GAFA existent, comme la « taxe sur les services numériques au niveau européen », mais tardent à voir le jour.

La France a pris les devants avec, à partir du 1er janvier 2019, une « taxe GAFA », c’est-à-dire une mesure spécifiquement conçue pour augmenter la contribution des géants de l’Internet à l’impôt dans l’Hexagone.

Au niveau des amendes, l’Union Européenne n’est pas en reste.

Le 20 mars 2019, Google a en effet été condamné à payer une amende de 1,5 milliards d’euros pour avoir bloqué ses concurrents sur le marché publicitaire.

Fin 2018, l’Union Européenne avait voté ce qu’on appelle les « droits voisins ». Cette réforme a pour but de contraindre les GAFA à contribuer au financement de la presse, dans une optique de paiement des droits d’auteur.

Les journalistes n’étaient jusqu’alors pas rémunérés pour l’utilisation de leur contenus par Google ou encore Facebook, qui touchaient donc des revenus publicitaires pour des contenus qu’ils n’avaient pas financés. Un pas de plus vers un internet plus juste…

Au niveau citoyen, nous avons aussi chacun un rôle à jouer.

Ne soyons pas rétrogrades : personne ne nous demande de boycotter les réseaux sociaux ou Google, ou de refuser cette évolution dans notre manière de communiquer. Les réseaux sociaux ont amené énormément de positif.

Je pense notamment à la plateforme d’hébergement citoyen, en Belgique, qui permet chaque jour à plus de 500 migrants d’être accueillis par des familles bénévoles, via un groupe Facebook.

Mais chacun peut aussi consommer l’information de manière responsable et accepter de payer pour l’info locale, vérifiée et de ce fait contribuer au maintien d’un écosystème journalistique de qualité…




Lire la suite...

Avis d'experts

La France à l’heure de la GovTech

Publié

le

Numérisation des services publics, Open Data, consultations citoyennes en ligne… Avec ce que l’on nomme désormais la GovTech, la France est entrée de plain pied dans une période de transition numérique…




Une tribune de David Chassan, Chief Communication Officer – OUTSCALE



L’Etat français embrasse la transformation numérique, conscient de la nécessité d’améliorer ses services et de les mettre en adéquation avec la nouvelle façon de vivre et d’interagir de ses concitoyens.

Cette révolution numérique rassemble autour d’elle de nombreuses entreprises innovantes et start-up qui travaillent avec le secteur public (hôpitaux, ministères, conseils généraux, collectivités…).

Dans notre pays, cet écosystème baptisé GovTech est particulièrement dynamique.

Cette transformation à marche forcée, associée à la démocratisation de l’accès à la donnée via les portails d’Open Data, porte en elle un enjeu majeur : celui de la maîtrise, de la sûreté et de la sécurité de ces données.

Et dans ce cadre, la souveraineté doit être la règle…


Le numérique transforme les services publics


La GovTech rassemble toutes les entreprises qui travaillent avec le secteur public et les aide à proposer des services toujours plus pertinents, simples à utiliser et adaptés aux nouveaux usages.

Sur la plate-forme France Numérique, chaque acteur public peut désormais trouver en quelques clics le prestataire capable de l’aider à se transformer.

Et tous les secteurs sont concernés : transport, santé, sécurité, e-gouvernement, engagement civique et citoyen…

Résultat : les applications et nouveaux services se multiplient.

Le site impots.gouv.fr traduit à lui seul l’effet positif de cette transformation sur la vie des contribuables.

Chacun peut désormais facilement dialoguer avec un agent, mais aussi suivre son dossier ou accéder à son historique 24h/24.

De leurs côtés, les fonctionnaires obtiennent une traçabilité de leurs échanges avec le contribuable pour lui apporter les réponses les plus pertinentes possibles.

Alors que tout se passait jusqu’alors de manière verticale, du haut vers le bas, l’information circule désormais dans les deux sens.

Intelligemment utilisée, cette donnée permet d’inscrire le secteur public dans une dynamique d’amélioration continue.  


Open Data et secteur public : un mariage heureux


La politique d’Open Data décidée par le gouvernement, favorable à l’innovation comme à la création de nouvelles solutions utiles à tous, se place au cœur des enjeux de la modernisation de l’action publique.

Des stratégies fondées sur cette data peuvent dès lors être menées, contribuant à la qualité des services proposés, à leur pilotage et à leur évaluation.

Partager et échanger de la donnée constitue une vraie révolution dont les acteurs publics se sont saisis, comprenant tout l’intérêt qu’ils avaient à en retirer.

Ainsi, si le gouvernement a créé son propre portail d’open data (data.gouv.fr), la Mairie de Paris n’a pas tardé à lui emboîter le pas avec opendata.paris.fr, tout comme la métropole de Nantes (data.nantesmetropole.fr) et bien d’autres acteurs publics à leur suite.

Sur ces portails, les GovTech, mais aussi les citoyens, accèdent à des millions de données sur un très grand nombre de sujets : l’agriculture, l’alimentation, la culture, l’économie, l’emploi, l’éducation, la recherche, l’international, l’Europe, le logement, les énergies, la santé, le social, la société, les territoires, le transport, le tourisme, l’urbanisme…

L’exploitation de ces données permet de définir des stratégies publiques efficientes tenant compte des besoins, mais aussi de situations réelles et chiffrées, à l’échelle d’une région, d’un territoire, d’une ville, d’un village, voire même d’un bâtiment…


La confiance : un critère de choix majeur à prendre en compte


L’ensemble de cette chaîne d’informations doit cependant être fiable, sécurisée et transparente, afin d’être pleinement acceptée.

Il y a là un véritable enjeu de responsabilité sociétale.

Si je suis un acteur public et que je décide de mettre mes data à la disposition de mes citoyens, celles-ci doivent respecter les règles de protection des données en vigueur dans mon pays. 

Choisir un éditeur de données français qui va héberger mes data sur un Cloud sécurisé, audité chaque année et répondant à des normes réglementaires garantissant la sécurité et la sûreté des informations, semble donc une évidence.

Cette précaution va en effet renforcer la responsabilité de l’acteur public vis-à-vis de la qualité de cette donnée qui ne doit pouvoir être ni falsifiée, ni détournée.

Il semble y avoir une réelle prise de conscience des pouvoirs publics sur ce sujet.

Une récente circulaire du gouvernement autour de la doctrine Cloud de l’Etat rappelle ainsi aux collectivités que les documents et données numériques qu’elles stockent et traitent doivent l’être sur des Clouds souverains, par des entreprises respectant le cadre légal en vigueur. 

Ainsi, l’actuelle plate-forme qui abrite la consultation citoyenne autour du grand débat national est hébergée chez un éditeur français et non pas américain ou chinois. 

Toute la chaîne de traitement de la donnée peut être réalisée par des acteurs français, voire européens sans que l’un d’entre eux ne soit une filiale d’un groupe étranger.

La French GovTech, responsable et transparente, représente une véritable force de compétitivité pour la France. Profitons-en !





Lire la suite...

Avis d'experts

Comment s’adapter au ‘Shopper 5.0’ ?

Publié

le

La division entre le online et le offline n’a aujourd’hui plus de sens dans le retail.

Le nouveau consommateur hyper-connecté circule entre les deux canaux avec un seul objectif: satisfaire immédiatement ses besoins en ne négligeant pas l’expérience d’achat et la personnalisation.

Aux marques désormais de s’adapter à cet acheteur 5.0…




Une tribune de Jonathan Lemberger, Co-fondateur de Tiendeo






Le smartphone est devenu l’outil principal du consommateur hyper-connecté dans la quête de la recherche d’informations ou de l’achat immédiat. Mais aussi un outil précieux pour tous les retailers dans la segmentation de leurs campagnes marketing…


Le smartphone: la pierre angulaire des consommateurs et des détaillants


Baptisé « Shopper 5.0 », ce nouveau profil de consommateur ultra-connecté où le smartphone est presque une extension du corps, souhaite accéder immédiatement aux informations.

Son téléphone est devenu un assistant personnel dans les diverses tâches quotidiennes.

Les smartphones ont un rôle important à jouer tout au long du processus d’achat, ce qui est bénéfique à plus d’un titre: d’une part, les smartphones aident ces utilisateurs à planifier leurs achats et, d’autre part, les détaillants peuvent obtenir des informations très pertinentes sur le comportement d’achat des clients.

Tout au long du processus de planification, le consommateur soulève différentes questions: Quels sont mes besoins ? Qu’est-ce que je souhaite acheter et où le faire ?

On peut parler de «micro-moments»: des moments où ces acheteurs «5.0» se tourneront vers leur smartphone pour répondre à ces questions.

C’est à ce moment précis que les informations qu’ils collectent ou la publicité qui les concerne via le canal qu’ils utilisent aura une influence déterminante sur leur décision d’achat final.


L’hyper-segmentation est la clé d’une campagne marketing efficace


Pendant longtemps, les nouvelles technologies ont amélioré les campagnes de marketing online, donnant des informations détaillées sur le comportement en ligne des consommateurs.

Celles-ci ont été particulièrement utiles lorsque l’achat a été effectué dans l’environnement numérique, car elles permettaient une attribution claire du retour sur investissement selon les campagnes réalisées.

Cependant, il ne faut pas perdre de vue que, selon une étude de Nielsen, seuls 6,1% des achats des consommateurs français sont effectués sur Internet, la grande majorité d’entre eux continuant de se faire dans des magasins physiques.

Et c’est là que la fusion entre les deux canaux devient très importante.

Pour les détaillants français, le principal défi consiste maintenant à comprendre comment accroître l’efficacité de leurs campagnes digitales drive-to-store, tout en améliorant l’expérience d’achat afin de fournir aux clients une valeur ajoutée qui va les différencier de leurs concurrents.

En conséquence, nous allons aujourd’hui plus loin et offrons aux détaillants la possibilité de campagnes hyper-segmentées grâce au big data et en impactant les consommateurs par le biais de la publicité programmatique, en tenant compte à la fois de leur comportement en ligne et hors ligne.

Des technologies telles que la géolocalisation nous permettent, par exemple, de connaître les magasins physiques récemment visités par l’utilisateur. Des données que nous pouvons croiser avec la recherche d’informations qu’ils ont effectué en ligne au moment de la planification de leur achat.

De cette manière, nous aurons une connaissance complète des intérêts et du comportement du consommateur, quel que soit l’environnement dans lequel il évolue.


Ne pas négliger les points de vente physiques malgré l’essor du digital


Tenant compte du fait que les consommateurs attachent de la valeur à l’expérience et que le magasin physique est leur canal préféré pour faire leur shopping, améliorer l’expérience en magasin grâce aux avantages procurés par les avancées technologiques dans des domaines tels que la réalité virtuelle ou l’intelligence artificielle est un objectif pertinent.

Sans aller plus loin, Auchan a récemment annoncé l’ouverture de son premier magasin sans personnel. Lidl a commencé à tester son nouveau système « Shop & Go » afin de rationaliser le processus de paiement en magasin. Les points de vente physiques deviennent de grands centres d’expérience…

Souvent, de nombreuses entreprises confondent la recherche de nouvelles expériences dans les magasins physiques avec des investissements dans de grands projets phares ou dans des dispositifs futuristes mêlant réalité augmentée et intelligence artificielle.

Ces concepts peuvent sembler attrayants et générer une valeur ajoutée immédiate, mais leur rentabilité à long terme doit être prise en compte et, surtout, aider les détaillants à améliorer leur connaissance des consommateurs.

C’est ce qui leur permet de concevoir des stratégies marketing axées sur l’amélioration de l’expérience d’achat et de fidéliser la clientèle.

Ce n’est qu’ainsi que les marques pourront créer des magasins intelligents pour les acheteurs avertis…




Lire la suite...

must read