Connect with us

Avis d'experts

La collaboration : nouvelle martingale des entreprises face aux acteurs du numérique

Publié

le

L’univers de la distribution et de la production est l’objet de nombreux bouleversements. Grâce à Internet, les consommateurs surinformés ont pris le pouvoir. Leurs habitudes d’achat ont été entièrement redéfinies par l’énorme quantité d’informations à leur disposition.

A l’ère de la mondialisation, le produit seul ne fait plus la différence, les données ou informations concernant le produit deviennent déterminantes. 

 

 


Une tribune de Christophe Viry, Product Marketing Manager integration & collaboration multi-entreprises, Generix


 

Le consommateur est devenu très attentif aux valeurs de la marque : respect de l’environnement, origine et traçabilité des composants, responsabilité sociale et sociétale, transparence et personnalisation sont autant de nouveaux critères qui poussent les entreprises à rivaliser d’imagination pour dégager de solides avantages concurrentiels.

Cette évolution a de sérieuses incidences sur la chaîne de valeur dans son ensemble – augmentation de la concurrence, vitesse accrue du marché, développement des offres de services liées au produit, personnalisation – qui impliquent une profonde transformation des modèles commerciaux, logistiques et productifs des fournisseurs. Le tout dans un contexte de transformation numérique qui irrigue la croissance, mais laisse vite sur le bas-côté les entreprises qui s’en affranchissent.

 

Une chaîne de valeur « intégrée » pour accroître la satisfaction client

Une étude d’IDC, réalisée pour le compte de GENERIX Group en septembre 2016 a dévoilé que face à cette nouvelle réalité, les entreprises se sont donné trois priorités : accroître leur productivité, mettre en œuvre des stratégies d’exécution nouvelles et modernes, et améliorer la collaboration avec leurs partenaires. Si dans le passé les stratégies de développement étaient axées sur des acquisitions, désormais la tendance – inspirée et facilitée par le numérique – réside plutôt dans la collaboration élargie, l’ouverture des systèmes d’information, la co-innovation. L’enjeu est de taille : façonner – ensemble – la distribution de demain.

On voit ainsi émerger de nouveaux réseaux collaboratifs, parfois appelés écosystèmes ou communautés B2B – une évolution du modèle des marketplaces qui dépasse la simple vente pour s’étendre à tous les points de la chaîne de valeur. Ils tirent parti de plates-formes collaboratives pour partager la même vision de l’ensemble des processus (sourcing, approvisionnement, logistique, paiement, …) ainsi qu’un accès en temps réel aux mêmes données. Synergiques, coordonnés et de plus en plus souvent automatisés, les processus collaboratifs ouvrent la voie à de nouvelles promesses d’agilité.

Les grands acteurs du numérique ont montré la voie, avec l’innovation et le service comme principales armes. Si Uber n’a pas « révolutionné » les pratiques de son secteur, il en a au moins relevé considérablement les standards de qualité de service ou d’expérience client. Apple ou Amazon ont apporté de vraies innovations de rupture. L’une des principales clés de leur succès a consisté à enraciner la collaboration dans l’ensemble du cycle de vie de leur produit, en intégrant étroitement les partenaires de la chaîne de valeur, pour optimiser tous les échanges et processus productifs.

 

Collaborer ou mourir

Au-delà de l’augmentation de la productivité, l’objectif ultime est d’améliorer l’expérience client. Ce qui passe bien-sûr par une intégration très fine des processus.

Une étude du Syntec démontre que non seulement les processus sont plus fluides grâce au numérique, mais de plus, qu’il ne s’agit pas seulement de les optimiser, mais surtout de créer de la valeur.

Ce que McKinsey a confirmé en 2014 : les entreprises ayant réussi leur transformation digitale afficheront en moyenne une croissance de 40% de leur chiffre d’affaires, alors que celles qui échouent doivent s’attendre à une baisse de 20% de leurs revenus.

Avec le numérique comme nouvelle norme, le salut réside dans la collaboration. Mais l’intégration est un processus long et complexe. L’étude d’IDC a démontré que la collaboration n’est pas aisée à mettre en œuvre avec tous les partenaires. Elle nécessite par exemple une interaction poussée entre les systèmes d’information. En conséquence, les donneurs d’ordre se concentrent sur une sélection plus réduite de partenaires avec comme critère de choix leur maturité digitale. Les entreprises cherchent à renforcer des relations déjà solides plutôt que de se disperser. On voit donc se structurer des réseaux d’entreprises connectées – des « clubs » d’excellence – qui offrent non seulement une visibilité sur l’ensemble de la chaîne de valeur, mais permettent également d’accroître sa réactivité et d’innover pour créer rapidement de nouveaux produits ou services.

Selon Equinix, un opérateur global de datacenters, 84 % des entreprises auront déployé une infrastructure axée sur l’interconnexion dans les deux ans qui viennent, contre seulement 38 % aujourd’hui. Celle-ci leur permettra à la fois d’augmenter leur chiffre d’affaires et de réduire leurs coûts. Ce que confirme une étude de l’Université de Stanford démontrant que les entreprises les plus collaboratives sont 5 % plus profitables et 6 % plus productives que les autres.

La collaboration est sans conteste la clé du succès des entreprises de demain, après un passage obligé par la digitalisation de leurs processus. Mais seulement 38 % des entreprises françaises ont initié leur transformation numérique. Il en va pourtant de leur survie…

 

 

Avis d'experts

Démocratiser l’usage de la data science

Publié

le

Source inépuisable de richesse pour l’entreprise, la data science offre un gain de productivité et de profitabilité important… lorsqu’elle est valorisée…




Une tribune de Stéphane Amarsy, CEO d’Inbox




Une nouvelle approche du marketing prédictif


Les outils de prédiction inquiètent et fascinent tout autant.

Mais à la différence des oracles, ces prévisions sont factuelles et mesurables par une probabilité.

La magie du marketing prédictif consiste à passer de la prédiction basée sur l’intuition – voire l’irrationnel, à celle basée sur des données et des probabilités de réussite.

L’utilisation du marketing prédictif impose une approche radicalement nouvelle : Le ciblage ne se base plus sur ce que l’on pense ou suppose, ni même les études marketing (sondage, panels, …) mais sur les données et ce qu’elles recèlent.

Plus nous disposerons de données, plus tout sera prédictible et plus la qualité des prévisions sera bonne. L’objectif en marketing n’est pas la certitude dans la prévision mais de faire mieux qu’une démarche empirique.

Le principe est simple : choisir les clients avec une forte probabilité d’acheter ce manteau me permettra d’avoir un taux d’achat de ce produit bien supérieur à celui obtenu si je l’avais proposé à une cible basée sur mon expérience et bien plus qu’en considérant tous mes clients.

Cela permet aussi de baisser les coûts de sollicitation car seule une partie des clients sera exposée, et d’éviter l’énervement des clients sollicités pour des produits qui ne les intéressent pas.

L’utilisation généralisée de cette information permettra de travailler la proximité avec chaque client en lui proposant des produits qui lui correspondent.

Le point clé dans cette démarche consiste à accepter de travailler au niveau de l’individu afin de prendre en considération toute sa singularité.

L’erreur, trop souvent vue même en travaillant avec des outils prédictifs, consiste à recomposer une notion de segment pour résumer une tendance dont la projection au niveau individuel est souvent fausse. A quoi bon reproduire les habitudes de travail du passé avec de tels outils ?

Il faut plonger et accepter que chaque client ait son histoire, ses désirs et ses futurs probables…


Appréhender la place du data scientist au cœur de l’entreprise


La data science est évidemment l’outil idéal de cette démarche. Reste qu’elle est systématiquement présentée comme l’apanage des fameux data scientists, les stars du marketing moderne.

Ce temps-là est révolu n’en déplaise aux « experts » et « sachants ».

Evidemment, il y aura toujours des cas où un humain fera mieux que de l’intelligence artificielle mais avec une temporalité interdisant toute démultiplication de son usage.

Un data scientist quel que soit son talent ne peut s’occuper que de quelques modèles de prévision. Est-ce que sa valeur est là ? Clairement non.

L’enjeu n’est plus de disposer de quelques modèles de prévisions mais bien de les démultiplier rapidement avec une approche auto apprenante et industrielle. Le data scientist se recentrera sur la détection de nouvelles opportunités.

Cette double approche est vertueuse et apporte beaucoup plus de valeur.

A titre d’exemple, dans ma société, nous avons développé un logiciel permettant de faire en 15 minutes ce qu’un data scientist faisait en 4 jours.

L’ensemble de nos data scientists s’est repositionné sur plus d’analyses en laissant ainsi la production à l’intelligence artificielle.

En y regardant de plus près, vous vous apercevrez que 80% de la chaîne relationnelle peut être confiée à l’IA.

Le partage de la data science est la clé d’un marketing client efficace.

Bombarder des offres promotionnelles indifférenciées à tous les consommateurs devient une dépense inutile, peu efficace et contre-productive qui suscite, au mieux, l’agacement des consommateurs que nous sommes.

Sans analyse prédictive, il serait presque impossible de formuler l’idée même de proximité relationnelle. Cette transformation est difficile, elle nécessite une réelle volonté de changement des directions marketing et un accompagnement fort des équipes.

Elles doivent désapprendre leurs métiers et en réapprendre un nouveau dont la collaboration avec les algorithmes est une des clés.

Il faut renoncer pour se transformer…




Lire la suite...

Avis d'experts

Médias: Quel avenir face au duopole Google/Facebook ?

Publié

le

À l’heure où Facebook et Google accroissent leur domination sur le marché publicitaire en ligne, que peuvent faire les médias et éditeurs pour survivre ?

Olivier Simonis, co-fondateur et PDG de Qualifio et ancien directeur marketing et digital au sein du groupe media Rossel, se penche sur la question…



On le sait : la source de revenus la plus importante pour une entreprise média, c’est la publicité vendue aux « annonceurs ». Ces dernières années, la consommation d’information s’est déplacée massivement vers les supports digitaux et, logiquement, la pub a suivi et s’est digitalisée.

Or, aujourd’hui, environ 80 % du marché de la publicité digitale est dans les mains de Google et Facebook.

Selon le GESTE (Groupement des éditeurs de contenu et de services en ligne), 92 % de la croissance du marché publicitaire est captée par les deux géants américains, au détriment des éditeurs traditionnels…


Comment expliquer cette position dominante ?


Facebook et Google disposent de moyens financiers colossaux (respectivement 95 milliards et 35 milliards de chiffre d’affaires en 2017), de quoi investir massivement dans leurs plateformes technologiques, ce qu’aucun éditeur au monde ne peut se permettre de faire à cette échelle.

Ces mêmes géants disposent d’une quantité immense de données accumulées sur chacun d’entre nous, qui permet un ciblage publicitaire inédit.

Pour Facebook, ces données sont collectées non seulement via la plateforme, mais aussi via chaque site affichant un bouton Like ou Share.

Pour survivre à cette transformation numérique rapide et souvent violente, les médias ont tenté avec plus ou moins de succès de rendre leurs contenus payants (à travers des « paywalls ») ou de diversifier leurs revenus, devenant, par exemple, organisateurs d’événements.

Ils ont été contraints de lancer des plans de restructuration, en sabrant dans les coûts éditoriaux (les journalistes), mettant de facto en danger le cœur de leur produit et de leur raison d’être.

Cela les a entraîné dans une spirale infernale. Car qui dit moins de pub dit moins de moyens, moins de journalistes, une détérioration du produit, moins d’audience, moins de pub, etc.

Je t’aime, moi non plus…

Face à cette dominance croissante de Google et Facebook, les médias hésitent sur la position à adopter et c’est une parfois une relation « amour-haine » qui les unit.

Tout en étant leurs plus sérieux concurrents, Google et Facebook représentent une énorme source de trafic pour les éditeurs (via les posts qui apparaissent sur le mur Facebook, par exemple).

De plus, les deux géants sont dans une démarche de séduction permanente des médias traditionnels : Google, par exemple, déverse des millions d’euros chaque année pour des projets d’aide aux journalistes via son Digital News Innovation Fund.

A la recherche de la masse critique

Face à cet écrasant déséquilibre du marché, un autre phénomène est apparu dans la plupart des pays européens : autrefois concurrents, souvent à couteaux-tirés, les groupes médias commencent à s’allier entre eux pour lancer des projets communs.

Face à cet écrasant déséquilibre du marché, un autre phénomène est apparu dans la plupart des pays européens : autrefois concurrents, souvent à couteaux-tirés, les groupes médias commencent à s’allier entre eux pour lancer des projets communs.

Ces projets visent à créer une masse critique (audience, données,…) capable de concurrencer les géants américains via des plateformes d’authentification communes, des offres publicitaires communes, une collecte de données mutualisée, etc.

Cas de conscience citoyenne

En tant que citoyen, cette situation de dominance pose question : Google et Facebook ne paient pas d’impôts dans nos pays, ne déclarent pas leurs revenus (la publicité est facturée aux annonceurs et centres medias au départ de pays comme l’Irlande), n’emploient pas de journalistes et, surtout, mettent les médias traditionnels sur les genoux.

Ces derniers sont pourtant les garants de la démocratie et sont un contre-pouvoir indispensable.

Plus globalement, par le partage massif et impulsif de news sur base d’un titre, de trois lignes de texte et d’une photo racoleuse, Facebook et Google ont contribué à la propagation des « fake news » mais aussi à instaurer une culture du zapping, des news sensationnalistes consommées rapidement en « scrollant » sur un mur, au détriment d’un travail journalistique de fond et plus fouillé.


La taxe comme seule solution?


Au niveau législatif, des initiatives de taxation des GAFA existent, comme la « taxe sur les services numériques au niveau européen », mais tardent à voir le jour.

La France a pris les devants avec, à partir du 1er janvier 2019, une « taxe GAFA », c’est-à-dire une mesure spécifiquement conçue pour augmenter la contribution des géants de l’Internet à l’impôt dans l’Hexagone.

Au niveau des amendes, l’Union Européenne n’est pas en reste.

Le 20 mars 2019, Google a en effet été condamné à payer une amende de 1,5 milliards d’euros pour avoir bloqué ses concurrents sur le marché publicitaire.

Fin 2018, l’Union Européenne avait voté ce qu’on appelle les « droits voisins ». Cette réforme a pour but de contraindre les GAFA à contribuer au financement de la presse, dans une optique de paiement des droits d’auteur.

Les journalistes n’étaient jusqu’alors pas rémunérés pour l’utilisation de leur contenus par Google ou encore Facebook, qui touchaient donc des revenus publicitaires pour des contenus qu’ils n’avaient pas financés. Un pas de plus vers un internet plus juste…

Au niveau citoyen, nous avons aussi chacun un rôle à jouer.

Ne soyons pas rétrogrades : personne ne nous demande de boycotter les réseaux sociaux ou Google, ou de refuser cette évolution dans notre manière de communiquer. Les réseaux sociaux ont amené énormément de positif.

Je pense notamment à la plateforme d’hébergement citoyen, en Belgique, qui permet chaque jour à plus de 500 migrants d’être accueillis par des familles bénévoles, via un groupe Facebook.

Mais chacun peut aussi consommer l’information de manière responsable et accepter de payer pour l’info locale, vérifiée et de ce fait contribuer au maintien d’un écosystème journalistique de qualité…




Lire la suite...

Avis d'experts

La France à l’heure de la GovTech

Publié

le

Numérisation des services publics, Open Data, consultations citoyennes en ligne… Avec ce que l’on nomme désormais la GovTech, la France est entrée de plain pied dans une période de transition numérique…




Une tribune de David Chassan, Chief Communication Officer – OUTSCALE



L’Etat français embrasse la transformation numérique, conscient de la nécessité d’améliorer ses services et de les mettre en adéquation avec la nouvelle façon de vivre et d’interagir de ses concitoyens.

Cette révolution numérique rassemble autour d’elle de nombreuses entreprises innovantes et start-up qui travaillent avec le secteur public (hôpitaux, ministères, conseils généraux, collectivités…).

Dans notre pays, cet écosystème baptisé GovTech est particulièrement dynamique.

Cette transformation à marche forcée, associée à la démocratisation de l’accès à la donnée via les portails d’Open Data, porte en elle un enjeu majeur : celui de la maîtrise, de la sûreté et de la sécurité de ces données.

Et dans ce cadre, la souveraineté doit être la règle…


Le numérique transforme les services publics


La GovTech rassemble toutes les entreprises qui travaillent avec le secteur public et les aide à proposer des services toujours plus pertinents, simples à utiliser et adaptés aux nouveaux usages.

Sur la plate-forme France Numérique, chaque acteur public peut désormais trouver en quelques clics le prestataire capable de l’aider à se transformer.

Et tous les secteurs sont concernés : transport, santé, sécurité, e-gouvernement, engagement civique et citoyen…

Résultat : les applications et nouveaux services se multiplient.

Le site impots.gouv.fr traduit à lui seul l’effet positif de cette transformation sur la vie des contribuables.

Chacun peut désormais facilement dialoguer avec un agent, mais aussi suivre son dossier ou accéder à son historique 24h/24.

De leurs côtés, les fonctionnaires obtiennent une traçabilité de leurs échanges avec le contribuable pour lui apporter les réponses les plus pertinentes possibles.

Alors que tout se passait jusqu’alors de manière verticale, du haut vers le bas, l’information circule désormais dans les deux sens.

Intelligemment utilisée, cette donnée permet d’inscrire le secteur public dans une dynamique d’amélioration continue.  


Open Data et secteur public : un mariage heureux


La politique d’Open Data décidée par le gouvernement, favorable à l’innovation comme à la création de nouvelles solutions utiles à tous, se place au cœur des enjeux de la modernisation de l’action publique.

Des stratégies fondées sur cette data peuvent dès lors être menées, contribuant à la qualité des services proposés, à leur pilotage et à leur évaluation.

Partager et échanger de la donnée constitue une vraie révolution dont les acteurs publics se sont saisis, comprenant tout l’intérêt qu’ils avaient à en retirer.

Ainsi, si le gouvernement a créé son propre portail d’open data (data.gouv.fr), la Mairie de Paris n’a pas tardé à lui emboîter le pas avec opendata.paris.fr, tout comme la métropole de Nantes (data.nantesmetropole.fr) et bien d’autres acteurs publics à leur suite.

Sur ces portails, les GovTech, mais aussi les citoyens, accèdent à des millions de données sur un très grand nombre de sujets : l’agriculture, l’alimentation, la culture, l’économie, l’emploi, l’éducation, la recherche, l’international, l’Europe, le logement, les énergies, la santé, le social, la société, les territoires, le transport, le tourisme, l’urbanisme…

L’exploitation de ces données permet de définir des stratégies publiques efficientes tenant compte des besoins, mais aussi de situations réelles et chiffrées, à l’échelle d’une région, d’un territoire, d’une ville, d’un village, voire même d’un bâtiment…


La confiance : un critère de choix majeur à prendre en compte


L’ensemble de cette chaîne d’informations doit cependant être fiable, sécurisée et transparente, afin d’être pleinement acceptée.

Il y a là un véritable enjeu de responsabilité sociétale.

Si je suis un acteur public et que je décide de mettre mes data à la disposition de mes citoyens, celles-ci doivent respecter les règles de protection des données en vigueur dans mon pays. 

Choisir un éditeur de données français qui va héberger mes data sur un Cloud sécurisé, audité chaque année et répondant à des normes réglementaires garantissant la sécurité et la sûreté des informations, semble donc une évidence.

Cette précaution va en effet renforcer la responsabilité de l’acteur public vis-à-vis de la qualité de cette donnée qui ne doit pouvoir être ni falsifiée, ni détournée.

Il semble y avoir une réelle prise de conscience des pouvoirs publics sur ce sujet.

Une récente circulaire du gouvernement autour de la doctrine Cloud de l’Etat rappelle ainsi aux collectivités que les documents et données numériques qu’elles stockent et traitent doivent l’être sur des Clouds souverains, par des entreprises respectant le cadre légal en vigueur. 

Ainsi, l’actuelle plate-forme qui abrite la consultation citoyenne autour du grand débat national est hébergée chez un éditeur français et non pas américain ou chinois. 

Toute la chaîne de traitement de la donnée peut être réalisée par des acteurs français, voire européens sans que l’un d’entre eux ne soit une filiale d’un groupe étranger.

La French GovTech, responsable et transparente, représente une véritable force de compétitivité pour la France. Profitons-en !





Lire la suite...

Avis d'experts

Comment s’adapter au ‘Shopper 5.0’ ?

Publié

le

La division entre le online et le offline n’a aujourd’hui plus de sens dans le retail.

Le nouveau consommateur hyper-connecté circule entre les deux canaux avec un seul objectif: satisfaire immédiatement ses besoins en ne négligeant pas l’expérience d’achat et la personnalisation.

Aux marques désormais de s’adapter à cet acheteur 5.0…




Une tribune de Jonathan Lemberger, Co-fondateur de Tiendeo






Le smartphone est devenu l’outil principal du consommateur hyper-connecté dans la quête de la recherche d’informations ou de l’achat immédiat. Mais aussi un outil précieux pour tous les retailers dans la segmentation de leurs campagnes marketing…


Le smartphone: la pierre angulaire des consommateurs et des détaillants


Baptisé « Shopper 5.0 », ce nouveau profil de consommateur ultra-connecté où le smartphone est presque une extension du corps, souhaite accéder immédiatement aux informations.

Son téléphone est devenu un assistant personnel dans les diverses tâches quotidiennes.

Les smartphones ont un rôle important à jouer tout au long du processus d’achat, ce qui est bénéfique à plus d’un titre: d’une part, les smartphones aident ces utilisateurs à planifier leurs achats et, d’autre part, les détaillants peuvent obtenir des informations très pertinentes sur le comportement d’achat des clients.

Tout au long du processus de planification, le consommateur soulève différentes questions: Quels sont mes besoins ? Qu’est-ce que je souhaite acheter et où le faire ?

On peut parler de «micro-moments»: des moments où ces acheteurs «5.0» se tourneront vers leur smartphone pour répondre à ces questions.

C’est à ce moment précis que les informations qu’ils collectent ou la publicité qui les concerne via le canal qu’ils utilisent aura une influence déterminante sur leur décision d’achat final.


L’hyper-segmentation est la clé d’une campagne marketing efficace


Pendant longtemps, les nouvelles technologies ont amélioré les campagnes de marketing online, donnant des informations détaillées sur le comportement en ligne des consommateurs.

Celles-ci ont été particulièrement utiles lorsque l’achat a été effectué dans l’environnement numérique, car elles permettaient une attribution claire du retour sur investissement selon les campagnes réalisées.

Cependant, il ne faut pas perdre de vue que, selon une étude de Nielsen, seuls 6,1% des achats des consommateurs français sont effectués sur Internet, la grande majorité d’entre eux continuant de se faire dans des magasins physiques.

Et c’est là que la fusion entre les deux canaux devient très importante.

Pour les détaillants français, le principal défi consiste maintenant à comprendre comment accroître l’efficacité de leurs campagnes digitales drive-to-store, tout en améliorant l’expérience d’achat afin de fournir aux clients une valeur ajoutée qui va les différencier de leurs concurrents.

En conséquence, nous allons aujourd’hui plus loin et offrons aux détaillants la possibilité de campagnes hyper-segmentées grâce au big data et en impactant les consommateurs par le biais de la publicité programmatique, en tenant compte à la fois de leur comportement en ligne et hors ligne.

Des technologies telles que la géolocalisation nous permettent, par exemple, de connaître les magasins physiques récemment visités par l’utilisateur. Des données que nous pouvons croiser avec la recherche d’informations qu’ils ont effectué en ligne au moment de la planification de leur achat.

De cette manière, nous aurons une connaissance complète des intérêts et du comportement du consommateur, quel que soit l’environnement dans lequel il évolue.


Ne pas négliger les points de vente physiques malgré l’essor du digital


Tenant compte du fait que les consommateurs attachent de la valeur à l’expérience et que le magasin physique est leur canal préféré pour faire leur shopping, améliorer l’expérience en magasin grâce aux avantages procurés par les avancées technologiques dans des domaines tels que la réalité virtuelle ou l’intelligence artificielle est un objectif pertinent.

Sans aller plus loin, Auchan a récemment annoncé l’ouverture de son premier magasin sans personnel. Lidl a commencé à tester son nouveau système « Shop & Go » afin de rationaliser le processus de paiement en magasin. Les points de vente physiques deviennent de grands centres d’expérience…

Souvent, de nombreuses entreprises confondent la recherche de nouvelles expériences dans les magasins physiques avec des investissements dans de grands projets phares ou dans des dispositifs futuristes mêlant réalité augmentée et intelligence artificielle.

Ces concepts peuvent sembler attrayants et générer une valeur ajoutée immédiate, mais leur rentabilité à long terme doit être prise en compte et, surtout, aider les détaillants à améliorer leur connaissance des consommateurs.

C’est ce qui leur permet de concevoir des stratégies marketing axées sur l’amélioration de l’expérience d’achat et de fidéliser la clientèle.

Ce n’est qu’ainsi que les marques pourront créer des magasins intelligents pour les acheteurs avertis…




Lire la suite...

must read