Connect with us

Avis d'experts

Adaptative ou prescriptive : quelle personnalisation choisir en e-commerce

Publié

le

De nombreuses études montrent que les clients des boutiques en ligne apprécient une expérience personnalisée lors de leurs achats. Cependant, ils sont particulièrement vigilants au type de renseignements et d’informations qu’ils fournissent, pourtant utiles à la personnalisation.

Aujourd’hui, pour aller plus loin dans la définition d’une stratégie de personnalisation e-commerce, il faut offrir à ses clients une expérience et des interactions basées sur leur comportement en temps réel, le contexte, leurs intérêts et préférences.

Examinons différents types de personnalisation disponibles : la personnalisation prescriptive et la personnalisation adaptative.

 

 


Une tribune de Stéphane Vendramini, Co-Founder de Sensefuel


 

 

La méthode prescriptive

Dans ce contexte, il est nécessaire de spécifier les règles métier qui déterminent quel contenu doit être présenté selon le segment du visiteur. Ces règles peuvent comprendre leurs activités récentes, leur comportement de clic, leur localisation, leur historique de navigation, leurs préférences, etc. Ces règles métier servent avant tout à filtrer les offres et à ne pas proposer celles qui sont inappropriées.

Cette méthode de personnalisation fait référence à la segmentation clients. Cependant, ce n’est pas parce que je suis un jeune homme habitant Paris avec deux enfants que les autres personnes correspondant à cette même typologie aiment les mêmes choses que moi. Nous avons chacun des hobbies différents, des marques préférées différentes, etc.

 

La méthode adaptative

Contrairement à la méthode prescriptive, la personnalisation adaptative est un processus automatisé qui applique continuellement un ensemble de règles basées sur des algorithmes. Ces règles sont autogérées et évolutives.

L’intérêt de cette méthode est de rendre les algorithmes sur lesquels elle repose de plus en plus précis et intelligents au fil des interactions, afin d’appliquer automatiquement la règle qui sera la plus pertinente pour le visiteur. Les algorithmes apprennent ainsi de chacune des visites de l’utilisateur, et permettent de mieux connaître ses attentes et comportements.

 

Les données collectées : explicites et implicites

Les données explicites

Afin de déterminer au mieux le profil des visiteurs et de leur fournir un contenu adapté, il est nécessaire de collecter des données précises décrivant leurs intérêts, activités ou préférences. Les données explicites sont fournies intentionnellement et utilisées à leur valeur nominale sans être analysées.

Les données implicites

Elles servent de leur côté à construire un modèle utilisateur qui sera utilisé pour présenter les informations les plus pertinentes au visiteur. Ces données ne sont pas fournies intentionnellement et ne peuvent être tirées que de l’analyse de données observées.

Le contenu est présenté au visiteur en fonction de la logique métier après examen de son comportement. Ces données implicites sont récoltées en observant les éléments qu’il consulte, en analysant son historique d’achats ou encore par exemple le choix des mots utilisés lors d’une recherche.

 

Définir sa stratégie de personnalisation

En se basant sur les deux précédents types de personnalisation (prescriptive et adaptative) et les méthodes de collectes de données (implicite et explicite), la personnalisation peut être divisée en quatre types (ci-dessous) qui permettent d’évaluer les outils et stratégies de personnalisation.

Collecte de données explicites et méthode prescriptive

Dans ce modèle, l’utilisateur fournit intentionnellement ses données à travers un formulaire d’abonnement à une newsletter par exemple.

Les visiteurs sont segmentés à partir d’une ou plusieurs variables comme le genre et la localisation. Il est alors possible de leur présenter du contenu en rapport avec les informations collectées.

Collecte de données implicites et méthode prescriptive

Dans ce modèle, l’utilisateur ne fournit pas intentionnellement ses données. Il est alors possible de créer des règles de segmentation afin de lui proposer un contenu ou une offre en fonction :

  • de sa localisation (récupérée grâce à son IP) ;
  • de la météo de l’endroit où il se trouve ;
  • de la source de trafic dont il provient ;
  • de l’outil utilisé (mobile, tablette, desktop) ;
  •  etc.

Collecte de données explicites et méthode adaptative

Dans ce modèle, les données ont été intentionnellement fournies par l’utilisateur à partir, par exemple, d’un questionnaire proposé à l’internaute lors de son arrivée sur le site.

Sur la base des éléments fournis par l’internaute, les algorithmes définissent alors un profil et proposent des recommandations personnalisées de produits. La personnalisation est affinée par rapport aux deux types de personnalisation précédemment cités.

On peut par exemple lui demander :

  • de choisir ses cinq marques préférées parmi une liste prédéfinie,
  • sa taille de vêtements,
  • son genre,
  • son style vestimentaire,
  • etc.

Collecte de données implicites et méthode adaptative

Les algorithmes apprennent du comportement de chaque visiteur.

Ici, on ne parle donc plus de personnalisation, mais d’individualisation dans la mesure où c’est le comportement propre à chaque internaute qui définit les règles, et ce de manière automatique, sans que celui-ci n’ait à fournir une quelconque information.

Cette individualisation de l’expérience se base uniquement sur l’observation de son historique de navigation ou de recherche, ses achats précédents, etc.

Nous voyons donc qu’il est possible de choisir le type de personnalisation qui convient le mieux:

  • de la moins fine à la plus fine  : personnalisation sur la base de la segmentation contre personnalisation sur la base de comportements individuels ;
  • et selon que l’e-commerçant souhaite gérer ses règles métier ou qu’il privilégie la capacité des algorithmes à gérer une multitude de paramètres de manière automatisée et apprenante.

 

Ces différents éléments permettent donc de se faire une idée plus précise des stratégies de personnalisation possibles. Il est alors possible de faire le bon choix en fonction de ses objectifs…

 

Avis d'experts

Démocratiser l’usage de la data science

Publié

le

Source inépuisable de richesse pour l’entreprise, la data science offre un gain de productivité et de profitabilité important… lorsqu’elle est valorisée…




Une tribune de Stéphane Amarsy, CEO d’Inbox




Une nouvelle approche du marketing prédictif


Les outils de prédiction inquiètent et fascinent tout autant.

Mais à la différence des oracles, ces prévisions sont factuelles et mesurables par une probabilité.

La magie du marketing prédictif consiste à passer de la prédiction basée sur l’intuition – voire l’irrationnel, à celle basée sur des données et des probabilités de réussite.

L’utilisation du marketing prédictif impose une approche radicalement nouvelle : Le ciblage ne se base plus sur ce que l’on pense ou suppose, ni même les études marketing (sondage, panels, …) mais sur les données et ce qu’elles recèlent.

Plus nous disposerons de données, plus tout sera prédictible et plus la qualité des prévisions sera bonne. L’objectif en marketing n’est pas la certitude dans la prévision mais de faire mieux qu’une démarche empirique.

Le principe est simple : choisir les clients avec une forte probabilité d’acheter ce manteau me permettra d’avoir un taux d’achat de ce produit bien supérieur à celui obtenu si je l’avais proposé à une cible basée sur mon expérience et bien plus qu’en considérant tous mes clients.

Cela permet aussi de baisser les coûts de sollicitation car seule une partie des clients sera exposée, et d’éviter l’énervement des clients sollicités pour des produits qui ne les intéressent pas.

L’utilisation généralisée de cette information permettra de travailler la proximité avec chaque client en lui proposant des produits qui lui correspondent.

Le point clé dans cette démarche consiste à accepter de travailler au niveau de l’individu afin de prendre en considération toute sa singularité.

L’erreur, trop souvent vue même en travaillant avec des outils prédictifs, consiste à recomposer une notion de segment pour résumer une tendance dont la projection au niveau individuel est souvent fausse. A quoi bon reproduire les habitudes de travail du passé avec de tels outils ?

Il faut plonger et accepter que chaque client ait son histoire, ses désirs et ses futurs probables…


Appréhender la place du data scientist au cœur de l’entreprise


La data science est évidemment l’outil idéal de cette démarche. Reste qu’elle est systématiquement présentée comme l’apanage des fameux data scientists, les stars du marketing moderne.

Ce temps-là est révolu n’en déplaise aux « experts » et « sachants ».

Evidemment, il y aura toujours des cas où un humain fera mieux que de l’intelligence artificielle mais avec une temporalité interdisant toute démultiplication de son usage.

Un data scientist quel que soit son talent ne peut s’occuper que de quelques modèles de prévision. Est-ce que sa valeur est là ? Clairement non.

L’enjeu n’est plus de disposer de quelques modèles de prévisions mais bien de les démultiplier rapidement avec une approche auto apprenante et industrielle. Le data scientist se recentrera sur la détection de nouvelles opportunités.

Cette double approche est vertueuse et apporte beaucoup plus de valeur.

A titre d’exemple, dans ma société, nous avons développé un logiciel permettant de faire en 15 minutes ce qu’un data scientist faisait en 4 jours.

L’ensemble de nos data scientists s’est repositionné sur plus d’analyses en laissant ainsi la production à l’intelligence artificielle.

En y regardant de plus près, vous vous apercevrez que 80% de la chaîne relationnelle peut être confiée à l’IA.

Le partage de la data science est la clé d’un marketing client efficace.

Bombarder des offres promotionnelles indifférenciées à tous les consommateurs devient une dépense inutile, peu efficace et contre-productive qui suscite, au mieux, l’agacement des consommateurs que nous sommes.

Sans analyse prédictive, il serait presque impossible de formuler l’idée même de proximité relationnelle. Cette transformation est difficile, elle nécessite une réelle volonté de changement des directions marketing et un accompagnement fort des équipes.

Elles doivent désapprendre leurs métiers et en réapprendre un nouveau dont la collaboration avec les algorithmes est une des clés.

Il faut renoncer pour se transformer…




Lire la suite...

Avis d'experts

Médias: Quel avenir face au duopole Google/Facebook ?

Publié

le

À l’heure où Facebook et Google accroissent leur domination sur le marché publicitaire en ligne, que peuvent faire les médias et éditeurs pour survivre ?

Olivier Simonis, co-fondateur et PDG de Qualifio et ancien directeur marketing et digital au sein du groupe media Rossel, se penche sur la question…



On le sait : la source de revenus la plus importante pour une entreprise média, c’est la publicité vendue aux « annonceurs ». Ces dernières années, la consommation d’information s’est déplacée massivement vers les supports digitaux et, logiquement, la pub a suivi et s’est digitalisée.

Or, aujourd’hui, environ 80 % du marché de la publicité digitale est dans les mains de Google et Facebook.

Selon le GESTE (Groupement des éditeurs de contenu et de services en ligne), 92 % de la croissance du marché publicitaire est captée par les deux géants américains, au détriment des éditeurs traditionnels…


Comment expliquer cette position dominante ?


Facebook et Google disposent de moyens financiers colossaux (respectivement 95 milliards et 35 milliards de chiffre d’affaires en 2017), de quoi investir massivement dans leurs plateformes technologiques, ce qu’aucun éditeur au monde ne peut se permettre de faire à cette échelle.

Ces mêmes géants disposent d’une quantité immense de données accumulées sur chacun d’entre nous, qui permet un ciblage publicitaire inédit.

Pour Facebook, ces données sont collectées non seulement via la plateforme, mais aussi via chaque site affichant un bouton Like ou Share.

Pour survivre à cette transformation numérique rapide et souvent violente, les médias ont tenté avec plus ou moins de succès de rendre leurs contenus payants (à travers des « paywalls ») ou de diversifier leurs revenus, devenant, par exemple, organisateurs d’événements.

Ils ont été contraints de lancer des plans de restructuration, en sabrant dans les coûts éditoriaux (les journalistes), mettant de facto en danger le cœur de leur produit et de leur raison d’être.

Cela les a entraîné dans une spirale infernale. Car qui dit moins de pub dit moins de moyens, moins de journalistes, une détérioration du produit, moins d’audience, moins de pub, etc.

Je t’aime, moi non plus…

Face à cette dominance croissante de Google et Facebook, les médias hésitent sur la position à adopter et c’est une parfois une relation « amour-haine » qui les unit.

Tout en étant leurs plus sérieux concurrents, Google et Facebook représentent une énorme source de trafic pour les éditeurs (via les posts qui apparaissent sur le mur Facebook, par exemple).

De plus, les deux géants sont dans une démarche de séduction permanente des médias traditionnels : Google, par exemple, déverse des millions d’euros chaque année pour des projets d’aide aux journalistes via son Digital News Innovation Fund.

A la recherche de la masse critique

Face à cet écrasant déséquilibre du marché, un autre phénomène est apparu dans la plupart des pays européens : autrefois concurrents, souvent à couteaux-tirés, les groupes médias commencent à s’allier entre eux pour lancer des projets communs.

Face à cet écrasant déséquilibre du marché, un autre phénomène est apparu dans la plupart des pays européens : autrefois concurrents, souvent à couteaux-tirés, les groupes médias commencent à s’allier entre eux pour lancer des projets communs.

Ces projets visent à créer une masse critique (audience, données,…) capable de concurrencer les géants américains via des plateformes d’authentification communes, des offres publicitaires communes, une collecte de données mutualisée, etc.

Cas de conscience citoyenne

En tant que citoyen, cette situation de dominance pose question : Google et Facebook ne paient pas d’impôts dans nos pays, ne déclarent pas leurs revenus (la publicité est facturée aux annonceurs et centres medias au départ de pays comme l’Irlande), n’emploient pas de journalistes et, surtout, mettent les médias traditionnels sur les genoux.

Ces derniers sont pourtant les garants de la démocratie et sont un contre-pouvoir indispensable.

Plus globalement, par le partage massif et impulsif de news sur base d’un titre, de trois lignes de texte et d’une photo racoleuse, Facebook et Google ont contribué à la propagation des « fake news » mais aussi à instaurer une culture du zapping, des news sensationnalistes consommées rapidement en « scrollant » sur un mur, au détriment d’un travail journalistique de fond et plus fouillé.


La taxe comme seule solution?


Au niveau législatif, des initiatives de taxation des GAFA existent, comme la « taxe sur les services numériques au niveau européen », mais tardent à voir le jour.

La France a pris les devants avec, à partir du 1er janvier 2019, une « taxe GAFA », c’est-à-dire une mesure spécifiquement conçue pour augmenter la contribution des géants de l’Internet à l’impôt dans l’Hexagone.

Au niveau des amendes, l’Union Européenne n’est pas en reste.

Le 20 mars 2019, Google a en effet été condamné à payer une amende de 1,5 milliards d’euros pour avoir bloqué ses concurrents sur le marché publicitaire.

Fin 2018, l’Union Européenne avait voté ce qu’on appelle les « droits voisins ». Cette réforme a pour but de contraindre les GAFA à contribuer au financement de la presse, dans une optique de paiement des droits d’auteur.

Les journalistes n’étaient jusqu’alors pas rémunérés pour l’utilisation de leur contenus par Google ou encore Facebook, qui touchaient donc des revenus publicitaires pour des contenus qu’ils n’avaient pas financés. Un pas de plus vers un internet plus juste…

Au niveau citoyen, nous avons aussi chacun un rôle à jouer.

Ne soyons pas rétrogrades : personne ne nous demande de boycotter les réseaux sociaux ou Google, ou de refuser cette évolution dans notre manière de communiquer. Les réseaux sociaux ont amené énormément de positif.

Je pense notamment à la plateforme d’hébergement citoyen, en Belgique, qui permet chaque jour à plus de 500 migrants d’être accueillis par des familles bénévoles, via un groupe Facebook.

Mais chacun peut aussi consommer l’information de manière responsable et accepter de payer pour l’info locale, vérifiée et de ce fait contribuer au maintien d’un écosystème journalistique de qualité…




Lire la suite...

Avis d'experts

La France à l’heure de la GovTech

Publié

le

Numérisation des services publics, Open Data, consultations citoyennes en ligne… Avec ce que l’on nomme désormais la GovTech, la France est entrée de plain pied dans une période de transition numérique…




Une tribune de David Chassan, Chief Communication Officer – OUTSCALE



L’Etat français embrasse la transformation numérique, conscient de la nécessité d’améliorer ses services et de les mettre en adéquation avec la nouvelle façon de vivre et d’interagir de ses concitoyens.

Cette révolution numérique rassemble autour d’elle de nombreuses entreprises innovantes et start-up qui travaillent avec le secteur public (hôpitaux, ministères, conseils généraux, collectivités…).

Dans notre pays, cet écosystème baptisé GovTech est particulièrement dynamique.

Cette transformation à marche forcée, associée à la démocratisation de l’accès à la donnée via les portails d’Open Data, porte en elle un enjeu majeur : celui de la maîtrise, de la sûreté et de la sécurité de ces données.

Et dans ce cadre, la souveraineté doit être la règle…


Le numérique transforme les services publics


La GovTech rassemble toutes les entreprises qui travaillent avec le secteur public et les aide à proposer des services toujours plus pertinents, simples à utiliser et adaptés aux nouveaux usages.

Sur la plate-forme France Numérique, chaque acteur public peut désormais trouver en quelques clics le prestataire capable de l’aider à se transformer.

Et tous les secteurs sont concernés : transport, santé, sécurité, e-gouvernement, engagement civique et citoyen…

Résultat : les applications et nouveaux services se multiplient.

Le site impots.gouv.fr traduit à lui seul l’effet positif de cette transformation sur la vie des contribuables.

Chacun peut désormais facilement dialoguer avec un agent, mais aussi suivre son dossier ou accéder à son historique 24h/24.

De leurs côtés, les fonctionnaires obtiennent une traçabilité de leurs échanges avec le contribuable pour lui apporter les réponses les plus pertinentes possibles.

Alors que tout se passait jusqu’alors de manière verticale, du haut vers le bas, l’information circule désormais dans les deux sens.

Intelligemment utilisée, cette donnée permet d’inscrire le secteur public dans une dynamique d’amélioration continue.  


Open Data et secteur public : un mariage heureux


La politique d’Open Data décidée par le gouvernement, favorable à l’innovation comme à la création de nouvelles solutions utiles à tous, se place au cœur des enjeux de la modernisation de l’action publique.

Des stratégies fondées sur cette data peuvent dès lors être menées, contribuant à la qualité des services proposés, à leur pilotage et à leur évaluation.

Partager et échanger de la donnée constitue une vraie révolution dont les acteurs publics se sont saisis, comprenant tout l’intérêt qu’ils avaient à en retirer.

Ainsi, si le gouvernement a créé son propre portail d’open data (data.gouv.fr), la Mairie de Paris n’a pas tardé à lui emboîter le pas avec opendata.paris.fr, tout comme la métropole de Nantes (data.nantesmetropole.fr) et bien d’autres acteurs publics à leur suite.

Sur ces portails, les GovTech, mais aussi les citoyens, accèdent à des millions de données sur un très grand nombre de sujets : l’agriculture, l’alimentation, la culture, l’économie, l’emploi, l’éducation, la recherche, l’international, l’Europe, le logement, les énergies, la santé, le social, la société, les territoires, le transport, le tourisme, l’urbanisme…

L’exploitation de ces données permet de définir des stratégies publiques efficientes tenant compte des besoins, mais aussi de situations réelles et chiffrées, à l’échelle d’une région, d’un territoire, d’une ville, d’un village, voire même d’un bâtiment…


La confiance : un critère de choix majeur à prendre en compte


L’ensemble de cette chaîne d’informations doit cependant être fiable, sécurisée et transparente, afin d’être pleinement acceptée.

Il y a là un véritable enjeu de responsabilité sociétale.

Si je suis un acteur public et que je décide de mettre mes data à la disposition de mes citoyens, celles-ci doivent respecter les règles de protection des données en vigueur dans mon pays. 

Choisir un éditeur de données français qui va héberger mes data sur un Cloud sécurisé, audité chaque année et répondant à des normes réglementaires garantissant la sécurité et la sûreté des informations, semble donc une évidence.

Cette précaution va en effet renforcer la responsabilité de l’acteur public vis-à-vis de la qualité de cette donnée qui ne doit pouvoir être ni falsifiée, ni détournée.

Il semble y avoir une réelle prise de conscience des pouvoirs publics sur ce sujet.

Une récente circulaire du gouvernement autour de la doctrine Cloud de l’Etat rappelle ainsi aux collectivités que les documents et données numériques qu’elles stockent et traitent doivent l’être sur des Clouds souverains, par des entreprises respectant le cadre légal en vigueur. 

Ainsi, l’actuelle plate-forme qui abrite la consultation citoyenne autour du grand débat national est hébergée chez un éditeur français et non pas américain ou chinois. 

Toute la chaîne de traitement de la donnée peut être réalisée par des acteurs français, voire européens sans que l’un d’entre eux ne soit une filiale d’un groupe étranger.

La French GovTech, responsable et transparente, représente une véritable force de compétitivité pour la France. Profitons-en !





Lire la suite...

Avis d'experts

Comment s’adapter au ‘Shopper 5.0’ ?

Publié

le

La division entre le online et le offline n’a aujourd’hui plus de sens dans le retail.

Le nouveau consommateur hyper-connecté circule entre les deux canaux avec un seul objectif: satisfaire immédiatement ses besoins en ne négligeant pas l’expérience d’achat et la personnalisation.

Aux marques désormais de s’adapter à cet acheteur 5.0…




Une tribune de Jonathan Lemberger, Co-fondateur de Tiendeo






Le smartphone est devenu l’outil principal du consommateur hyper-connecté dans la quête de la recherche d’informations ou de l’achat immédiat. Mais aussi un outil précieux pour tous les retailers dans la segmentation de leurs campagnes marketing…


Le smartphone: la pierre angulaire des consommateurs et des détaillants


Baptisé « Shopper 5.0 », ce nouveau profil de consommateur ultra-connecté où le smartphone est presque une extension du corps, souhaite accéder immédiatement aux informations.

Son téléphone est devenu un assistant personnel dans les diverses tâches quotidiennes.

Les smartphones ont un rôle important à jouer tout au long du processus d’achat, ce qui est bénéfique à plus d’un titre: d’une part, les smartphones aident ces utilisateurs à planifier leurs achats et, d’autre part, les détaillants peuvent obtenir des informations très pertinentes sur le comportement d’achat des clients.

Tout au long du processus de planification, le consommateur soulève différentes questions: Quels sont mes besoins ? Qu’est-ce que je souhaite acheter et où le faire ?

On peut parler de «micro-moments»: des moments où ces acheteurs «5.0» se tourneront vers leur smartphone pour répondre à ces questions.

C’est à ce moment précis que les informations qu’ils collectent ou la publicité qui les concerne via le canal qu’ils utilisent aura une influence déterminante sur leur décision d’achat final.


L’hyper-segmentation est la clé d’une campagne marketing efficace


Pendant longtemps, les nouvelles technologies ont amélioré les campagnes de marketing online, donnant des informations détaillées sur le comportement en ligne des consommateurs.

Celles-ci ont été particulièrement utiles lorsque l’achat a été effectué dans l’environnement numérique, car elles permettaient une attribution claire du retour sur investissement selon les campagnes réalisées.

Cependant, il ne faut pas perdre de vue que, selon une étude de Nielsen, seuls 6,1% des achats des consommateurs français sont effectués sur Internet, la grande majorité d’entre eux continuant de se faire dans des magasins physiques.

Et c’est là que la fusion entre les deux canaux devient très importante.

Pour les détaillants français, le principal défi consiste maintenant à comprendre comment accroître l’efficacité de leurs campagnes digitales drive-to-store, tout en améliorant l’expérience d’achat afin de fournir aux clients une valeur ajoutée qui va les différencier de leurs concurrents.

En conséquence, nous allons aujourd’hui plus loin et offrons aux détaillants la possibilité de campagnes hyper-segmentées grâce au big data et en impactant les consommateurs par le biais de la publicité programmatique, en tenant compte à la fois de leur comportement en ligne et hors ligne.

Des technologies telles que la géolocalisation nous permettent, par exemple, de connaître les magasins physiques récemment visités par l’utilisateur. Des données que nous pouvons croiser avec la recherche d’informations qu’ils ont effectué en ligne au moment de la planification de leur achat.

De cette manière, nous aurons une connaissance complète des intérêts et du comportement du consommateur, quel que soit l’environnement dans lequel il évolue.


Ne pas négliger les points de vente physiques malgré l’essor du digital


Tenant compte du fait que les consommateurs attachent de la valeur à l’expérience et que le magasin physique est leur canal préféré pour faire leur shopping, améliorer l’expérience en magasin grâce aux avantages procurés par les avancées technologiques dans des domaines tels que la réalité virtuelle ou l’intelligence artificielle est un objectif pertinent.

Sans aller plus loin, Auchan a récemment annoncé l’ouverture de son premier magasin sans personnel. Lidl a commencé à tester son nouveau système « Shop & Go » afin de rationaliser le processus de paiement en magasin. Les points de vente physiques deviennent de grands centres d’expérience…

Souvent, de nombreuses entreprises confondent la recherche de nouvelles expériences dans les magasins physiques avec des investissements dans de grands projets phares ou dans des dispositifs futuristes mêlant réalité augmentée et intelligence artificielle.

Ces concepts peuvent sembler attrayants et générer une valeur ajoutée immédiate, mais leur rentabilité à long terme doit être prise en compte et, surtout, aider les détaillants à améliorer leur connaissance des consommateurs.

C’est ce qui leur permet de concevoir des stratégies marketing axées sur l’amélioration de l’expérience d’achat et de fidéliser la clientèle.

Ce n’est qu’ainsi que les marques pourront créer des magasins intelligents pour les acheteurs avertis…




Lire la suite...

must read