Connect with us

Avis d'experts

Sécurité et numérique : à quoi s’attendre dans les prochains mois ?

Publié

le

Le dernier rapport de Dashlane dévoile 6 prédictions pour le secteur de la sécurité numérique.

Certaines sont les bienvenues, comme l’influence des lois de type RGPD au-delà de l’Europe, tandis que d’autres paraissent nauséabondes, comme la perspective d’une attaque terroriste menée par un criminel assis derrière un bureau sans que l’on sache où il se trouve…



Par Frederic Rivain, directeur de la technologie de Dashlane, et
Cyril Leclerc, responsable de la sécurité de Dashlane.




Les 6 grandes tendances en matière de sécurité numérique


1. Les scandales en matière de protection de la vie privée donneront lieu à des amendes massives.
2. L’influence du RGPD va s’étendre.
3. Les problèmes de confidentialité des données de Facebook
continueront d’affaiblir son emprise en tant que leader des médias
sociaux.
4. Une brèche sera fatale.
5. La cryptographie quantique va changer le paysage.
6. La cryptographie post-quantique suivra de près.


Quoi qu’il advienne, nous sommes tous d’accord : l’évolution de l’industrie de la sécurité numérique en 2019 aura des effets durables sur la façon dont les gouvernements et les entreprises envisagent et abordent les questions de protection des renseignements personnels et de sécurité numérique.


1. Les scandales en matière de protection de la vie privée donneront lieu à des amendes massives

Sur la base du pouvoir réglementaire conféré par la réglementation RGPD (Règlement général sur la Protection des Données), les pays européens vont commencer à infliger des amendes aux contrevenants.

Ils vont utiliser ce levier comme moyen de taxation pour les géants technologiques américains qui utilisent des montages financiers pour échapper à la taxation en Europe.

D’ailleurs, le gouvernement français vient de présenter un projet de loi pour la mise en place d’une taxe ciblant les grandes entreprises du numérique, avec en ligne de mire les GAFA.

En dehors des géants de la technologie, nous nous attendons à des amendes découlant de violations du RGPD – comme l’amende de 400 000 euros infligée à un hôpital au Portugal récemment – pour accélérer les investissements réalisés par les entreprises afin de protéger les données des utilisateurs.


2. L’influence du RGPD va s’étendre

Dans la foulée du déploiement du RGPD par l’Union européenne, un plus grand nombre de pays commencera à adopter des lois pour protéger la vie privée de leurs citoyens.

La Californie a déjà adopté une loi qui entrera en vigueur le 1er janvier 2020. Nous nous attendons à l’apparition de lois similaires en Asie, même si la Chine restera une exception forte à la tendance générale.

Plus il y aura d’infractions et de fuites, plus les organismes de réglementation exerceront des pressions sur les consommateurs pour qu’ils protègent leur vie privée.


3. Les problèmes de confidentialité des données de Facebook continueront d’affaiblir son emprise

C’est probablement la prédiction la plus facile à faire. Pour des raisons de protection de la vie privée et parce que les jeunes générations se tournent vers d’autres canaux de communication et d’autres plateformes de médias sociaux, nous pensons que Facebook sera en déclin en 2019 et aura du mal à se réinventer à l’avenir.


4. Une brèche sera fatale


PREMIERS DÉCÈS DUS À DES CYBERATTAQUES

La cybersécurité deviendra de plus en plus une arme à la fois pour les activités criminelles et pour la guerre.

Nous pourrions voir des rançons de cybersécurité réclamées pour des services vitaux – comme le système informatique d’un hôpital, qui alimente également du matériel de survie, des logiciels de système ferroviaire ou même des logiciels qui contrôlent des centrales nucléaires…

PREMIER ATTENTAT TERRORISTE AVEC UNE FONDATION POUR LA CYBERSÉCURITÉ

Les terroristes pourraient également mettre en place des cyberattaques directes pour menacer et endommager des systèmes essentiels.

Elles sont potentiellement plus inquiétantes que celles déjà advenues, car les terroristes pourraient se livrer à des complots confortablement depuis chez eux, partout dans le monde.


5. La cryptographie quantique va changer le paysage

Il y a actuellement beaucoup de Recherche & Développement autour de l’informatique quantique et de ses applications en matière de cryptographie.

L’aspiration de la cryptographie quantique est de résoudre des problèmes considérés aujourd’hui comme insolubles ou très complexes à résoudre en utilisant l’informatique classique.

Cependant, cela se limite encore aujourd’hui aux expériences et aux laboratoires. En 2019, nous pourrions voir la première application réelle de la cryptographie quantique.

Bien qu’il soit peu susceptible d’avoir des applications dans le monde des consommateurs, nous pourrions voir un scénario où les entreprises de cybersécurité commenceraient à utiliser la cryptographie quantique dans le monde des logiciels d’entreprise.


6. La cryptographie post-quantique suivra de près

Si l’informatique quantique est capable de briser toutes les règles de la cryptographie d’aujourd’hui, certains chercheurs en cryptographie recherchent la technologie qui pourrait alimenter la cryptographie hybride dans un monde où la cryptographie quantique et non quantique existe.

Le but est d’éviter ce qui a été présenté comme “le passage à l’an 2000 quantique » et ses dérives.

Nous nous attendons à ce que 2019 soit l’année où les théories et les applications concrètes commencent à prendre forme…



Cliquer pour commenter

Laisser votre commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Avis d'experts

Démocratiser l’usage de la data science

Publié

le

Source inépuisable de richesse pour l’entreprise, la data science offre un gain de productivité et de profitabilité important… lorsqu’elle est valorisée…




Une tribune de Stéphane Amarsy, CEO d’Inbox




Une nouvelle approche du marketing prédictif


Les outils de prédiction inquiètent et fascinent tout autant.

Mais à la différence des oracles, ces prévisions sont factuelles et mesurables par une probabilité.

La magie du marketing prédictif consiste à passer de la prédiction basée sur l’intuition – voire l’irrationnel, à celle basée sur des données et des probabilités de réussite.

L’utilisation du marketing prédictif impose une approche radicalement nouvelle : Le ciblage ne se base plus sur ce que l’on pense ou suppose, ni même les études marketing (sondage, panels, …) mais sur les données et ce qu’elles recèlent.

Plus nous disposerons de données, plus tout sera prédictible et plus la qualité des prévisions sera bonne. L’objectif en marketing n’est pas la certitude dans la prévision mais de faire mieux qu’une démarche empirique.

Le principe est simple : choisir les clients avec une forte probabilité d’acheter ce manteau me permettra d’avoir un taux d’achat de ce produit bien supérieur à celui obtenu si je l’avais proposé à une cible basée sur mon expérience et bien plus qu’en considérant tous mes clients.

Cela permet aussi de baisser les coûts de sollicitation car seule une partie des clients sera exposée, et d’éviter l’énervement des clients sollicités pour des produits qui ne les intéressent pas.

L’utilisation généralisée de cette information permettra de travailler la proximité avec chaque client en lui proposant des produits qui lui correspondent.

Le point clé dans cette démarche consiste à accepter de travailler au niveau de l’individu afin de prendre en considération toute sa singularité.

L’erreur, trop souvent vue même en travaillant avec des outils prédictifs, consiste à recomposer une notion de segment pour résumer une tendance dont la projection au niveau individuel est souvent fausse. A quoi bon reproduire les habitudes de travail du passé avec de tels outils ?

Il faut plonger et accepter que chaque client ait son histoire, ses désirs et ses futurs probables…


Appréhender la place du data scientist au cœur de l’entreprise


La data science est évidemment l’outil idéal de cette démarche. Reste qu’elle est systématiquement présentée comme l’apanage des fameux data scientists, les stars du marketing moderne.

Ce temps-là est révolu n’en déplaise aux « experts » et « sachants ».

Evidemment, il y aura toujours des cas où un humain fera mieux que de l’intelligence artificielle mais avec une temporalité interdisant toute démultiplication de son usage.

Un data scientist quel que soit son talent ne peut s’occuper que de quelques modèles de prévision. Est-ce que sa valeur est là ? Clairement non.

L’enjeu n’est plus de disposer de quelques modèles de prévisions mais bien de les démultiplier rapidement avec une approche auto apprenante et industrielle. Le data scientist se recentrera sur la détection de nouvelles opportunités.

Cette double approche est vertueuse et apporte beaucoup plus de valeur.

A titre d’exemple, dans ma société, nous avons développé un logiciel permettant de faire en 15 minutes ce qu’un data scientist faisait en 4 jours.

L’ensemble de nos data scientists s’est repositionné sur plus d’analyses en laissant ainsi la production à l’intelligence artificielle.

En y regardant de plus près, vous vous apercevrez que 80% de la chaîne relationnelle peut être confiée à l’IA.

Le partage de la data science est la clé d’un marketing client efficace.

Bombarder des offres promotionnelles indifférenciées à tous les consommateurs devient une dépense inutile, peu efficace et contre-productive qui suscite, au mieux, l’agacement des consommateurs que nous sommes.

Sans analyse prédictive, il serait presque impossible de formuler l’idée même de proximité relationnelle. Cette transformation est difficile, elle nécessite une réelle volonté de changement des directions marketing et un accompagnement fort des équipes.

Elles doivent désapprendre leurs métiers et en réapprendre un nouveau dont la collaboration avec les algorithmes est une des clés.

Il faut renoncer pour se transformer…




Lire la suite...

Avis d'experts

Médias: Quel avenir face au duopole Google/Facebook ?

Publié

le

À l’heure où Facebook et Google accroissent leur domination sur le marché publicitaire en ligne, que peuvent faire les médias et éditeurs pour survivre ?

Olivier Simonis, co-fondateur et PDG de Qualifio et ancien directeur marketing et digital au sein du groupe media Rossel, se penche sur la question…



On le sait : la source de revenus la plus importante pour une entreprise média, c’est la publicité vendue aux « annonceurs ». Ces dernières années, la consommation d’information s’est déplacée massivement vers les supports digitaux et, logiquement, la pub a suivi et s’est digitalisée.

Or, aujourd’hui, environ 80 % du marché de la publicité digitale est dans les mains de Google et Facebook.

Selon le GESTE (Groupement des éditeurs de contenu et de services en ligne), 92 % de la croissance du marché publicitaire est captée par les deux géants américains, au détriment des éditeurs traditionnels…


Comment expliquer cette position dominante ?


Facebook et Google disposent de moyens financiers colossaux (respectivement 95 milliards et 35 milliards de chiffre d’affaires en 2017), de quoi investir massivement dans leurs plateformes technologiques, ce qu’aucun éditeur au monde ne peut se permettre de faire à cette échelle.

Ces mêmes géants disposent d’une quantité immense de données accumulées sur chacun d’entre nous, qui permet un ciblage publicitaire inédit.

Pour Facebook, ces données sont collectées non seulement via la plateforme, mais aussi via chaque site affichant un bouton Like ou Share.

Pour survivre à cette transformation numérique rapide et souvent violente, les médias ont tenté avec plus ou moins de succès de rendre leurs contenus payants (à travers des « paywalls ») ou de diversifier leurs revenus, devenant, par exemple, organisateurs d’événements.

Ils ont été contraints de lancer des plans de restructuration, en sabrant dans les coûts éditoriaux (les journalistes), mettant de facto en danger le cœur de leur produit et de leur raison d’être.

Cela les a entraîné dans une spirale infernale. Car qui dit moins de pub dit moins de moyens, moins de journalistes, une détérioration du produit, moins d’audience, moins de pub, etc.

Je t’aime, moi non plus…

Face à cette dominance croissante de Google et Facebook, les médias hésitent sur la position à adopter et c’est une parfois une relation « amour-haine » qui les unit.

Tout en étant leurs plus sérieux concurrents, Google et Facebook représentent une énorme source de trafic pour les éditeurs (via les posts qui apparaissent sur le mur Facebook, par exemple).

De plus, les deux géants sont dans une démarche de séduction permanente des médias traditionnels : Google, par exemple, déverse des millions d’euros chaque année pour des projets d’aide aux journalistes via son Digital News Innovation Fund.

A la recherche de la masse critique

Face à cet écrasant déséquilibre du marché, un autre phénomène est apparu dans la plupart des pays européens : autrefois concurrents, souvent à couteaux-tirés, les groupes médias commencent à s’allier entre eux pour lancer des projets communs.

Face à cet écrasant déséquilibre du marché, un autre phénomène est apparu dans la plupart des pays européens : autrefois concurrents, souvent à couteaux-tirés, les groupes médias commencent à s’allier entre eux pour lancer des projets communs.

Ces projets visent à créer une masse critique (audience, données,…) capable de concurrencer les géants américains via des plateformes d’authentification communes, des offres publicitaires communes, une collecte de données mutualisée, etc.

Cas de conscience citoyenne

En tant que citoyen, cette situation de dominance pose question : Google et Facebook ne paient pas d’impôts dans nos pays, ne déclarent pas leurs revenus (la publicité est facturée aux annonceurs et centres medias au départ de pays comme l’Irlande), n’emploient pas de journalistes et, surtout, mettent les médias traditionnels sur les genoux.

Ces derniers sont pourtant les garants de la démocratie et sont un contre-pouvoir indispensable.

Plus globalement, par le partage massif et impulsif de news sur base d’un titre, de trois lignes de texte et d’une photo racoleuse, Facebook et Google ont contribué à la propagation des « fake news » mais aussi à instaurer une culture du zapping, des news sensationnalistes consommées rapidement en « scrollant » sur un mur, au détriment d’un travail journalistique de fond et plus fouillé.


La taxe comme seule solution?


Au niveau législatif, des initiatives de taxation des GAFA existent, comme la « taxe sur les services numériques au niveau européen », mais tardent à voir le jour.

La France a pris les devants avec, à partir du 1er janvier 2019, une « taxe GAFA », c’est-à-dire une mesure spécifiquement conçue pour augmenter la contribution des géants de l’Internet à l’impôt dans l’Hexagone.

Au niveau des amendes, l’Union Européenne n’est pas en reste.

Le 20 mars 2019, Google a en effet été condamné à payer une amende de 1,5 milliards d’euros pour avoir bloqué ses concurrents sur le marché publicitaire.

Fin 2018, l’Union Européenne avait voté ce qu’on appelle les « droits voisins ». Cette réforme a pour but de contraindre les GAFA à contribuer au financement de la presse, dans une optique de paiement des droits d’auteur.

Les journalistes n’étaient jusqu’alors pas rémunérés pour l’utilisation de leur contenus par Google ou encore Facebook, qui touchaient donc des revenus publicitaires pour des contenus qu’ils n’avaient pas financés. Un pas de plus vers un internet plus juste…

Au niveau citoyen, nous avons aussi chacun un rôle à jouer.

Ne soyons pas rétrogrades : personne ne nous demande de boycotter les réseaux sociaux ou Google, ou de refuser cette évolution dans notre manière de communiquer. Les réseaux sociaux ont amené énormément de positif.

Je pense notamment à la plateforme d’hébergement citoyen, en Belgique, qui permet chaque jour à plus de 500 migrants d’être accueillis par des familles bénévoles, via un groupe Facebook.

Mais chacun peut aussi consommer l’information de manière responsable et accepter de payer pour l’info locale, vérifiée et de ce fait contribuer au maintien d’un écosystème journalistique de qualité…




Lire la suite...

Avis d'experts

La France à l’heure de la GovTech

Publié

le

Numérisation des services publics, Open Data, consultations citoyennes en ligne… Avec ce que l’on nomme désormais la GovTech, la France est entrée de plain pied dans une période de transition numérique…




Une tribune de David Chassan, Chief Communication Officer – OUTSCALE



L’Etat français embrasse la transformation numérique, conscient de la nécessité d’améliorer ses services et de les mettre en adéquation avec la nouvelle façon de vivre et d’interagir de ses concitoyens.

Cette révolution numérique rassemble autour d’elle de nombreuses entreprises innovantes et start-up qui travaillent avec le secteur public (hôpitaux, ministères, conseils généraux, collectivités…).

Dans notre pays, cet écosystème baptisé GovTech est particulièrement dynamique.

Cette transformation à marche forcée, associée à la démocratisation de l’accès à la donnée via les portails d’Open Data, porte en elle un enjeu majeur : celui de la maîtrise, de la sûreté et de la sécurité de ces données.

Et dans ce cadre, la souveraineté doit être la règle…


Le numérique transforme les services publics


La GovTech rassemble toutes les entreprises qui travaillent avec le secteur public et les aide à proposer des services toujours plus pertinents, simples à utiliser et adaptés aux nouveaux usages.

Sur la plate-forme France Numérique, chaque acteur public peut désormais trouver en quelques clics le prestataire capable de l’aider à se transformer.

Et tous les secteurs sont concernés : transport, santé, sécurité, e-gouvernement, engagement civique et citoyen…

Résultat : les applications et nouveaux services se multiplient.

Le site impots.gouv.fr traduit à lui seul l’effet positif de cette transformation sur la vie des contribuables.

Chacun peut désormais facilement dialoguer avec un agent, mais aussi suivre son dossier ou accéder à son historique 24h/24.

De leurs côtés, les fonctionnaires obtiennent une traçabilité de leurs échanges avec le contribuable pour lui apporter les réponses les plus pertinentes possibles.

Alors que tout se passait jusqu’alors de manière verticale, du haut vers le bas, l’information circule désormais dans les deux sens.

Intelligemment utilisée, cette donnée permet d’inscrire le secteur public dans une dynamique d’amélioration continue.  


Open Data et secteur public : un mariage heureux


La politique d’Open Data décidée par le gouvernement, favorable à l’innovation comme à la création de nouvelles solutions utiles à tous, se place au cœur des enjeux de la modernisation de l’action publique.

Des stratégies fondées sur cette data peuvent dès lors être menées, contribuant à la qualité des services proposés, à leur pilotage et à leur évaluation.

Partager et échanger de la donnée constitue une vraie révolution dont les acteurs publics se sont saisis, comprenant tout l’intérêt qu’ils avaient à en retirer.

Ainsi, si le gouvernement a créé son propre portail d’open data (data.gouv.fr), la Mairie de Paris n’a pas tardé à lui emboîter le pas avec opendata.paris.fr, tout comme la métropole de Nantes (data.nantesmetropole.fr) et bien d’autres acteurs publics à leur suite.

Sur ces portails, les GovTech, mais aussi les citoyens, accèdent à des millions de données sur un très grand nombre de sujets : l’agriculture, l’alimentation, la culture, l’économie, l’emploi, l’éducation, la recherche, l’international, l’Europe, le logement, les énergies, la santé, le social, la société, les territoires, le transport, le tourisme, l’urbanisme…

L’exploitation de ces données permet de définir des stratégies publiques efficientes tenant compte des besoins, mais aussi de situations réelles et chiffrées, à l’échelle d’une région, d’un territoire, d’une ville, d’un village, voire même d’un bâtiment…


La confiance : un critère de choix majeur à prendre en compte


L’ensemble de cette chaîne d’informations doit cependant être fiable, sécurisée et transparente, afin d’être pleinement acceptée.

Il y a là un véritable enjeu de responsabilité sociétale.

Si je suis un acteur public et que je décide de mettre mes data à la disposition de mes citoyens, celles-ci doivent respecter les règles de protection des données en vigueur dans mon pays. 

Choisir un éditeur de données français qui va héberger mes data sur un Cloud sécurisé, audité chaque année et répondant à des normes réglementaires garantissant la sécurité et la sûreté des informations, semble donc une évidence.

Cette précaution va en effet renforcer la responsabilité de l’acteur public vis-à-vis de la qualité de cette donnée qui ne doit pouvoir être ni falsifiée, ni détournée.

Il semble y avoir une réelle prise de conscience des pouvoirs publics sur ce sujet.

Une récente circulaire du gouvernement autour de la doctrine Cloud de l’Etat rappelle ainsi aux collectivités que les documents et données numériques qu’elles stockent et traitent doivent l’être sur des Clouds souverains, par des entreprises respectant le cadre légal en vigueur. 

Ainsi, l’actuelle plate-forme qui abrite la consultation citoyenne autour du grand débat national est hébergée chez un éditeur français et non pas américain ou chinois. 

Toute la chaîne de traitement de la donnée peut être réalisée par des acteurs français, voire européens sans que l’un d’entre eux ne soit une filiale d’un groupe étranger.

La French GovTech, responsable et transparente, représente une véritable force de compétitivité pour la France. Profitons-en !





Lire la suite...

Avis d'experts

Comment s’adapter au ‘Shopper 5.0’ ?

Publié

le

La division entre le online et le offline n’a aujourd’hui plus de sens dans le retail.

Le nouveau consommateur hyper-connecté circule entre les deux canaux avec un seul objectif: satisfaire immédiatement ses besoins en ne négligeant pas l’expérience d’achat et la personnalisation.

Aux marques désormais de s’adapter à cet acheteur 5.0…




Une tribune de Jonathan Lemberger, Co-fondateur de Tiendeo






Le smartphone est devenu l’outil principal du consommateur hyper-connecté dans la quête de la recherche d’informations ou de l’achat immédiat. Mais aussi un outil précieux pour tous les retailers dans la segmentation de leurs campagnes marketing…


Le smartphone: la pierre angulaire des consommateurs et des détaillants


Baptisé « Shopper 5.0 », ce nouveau profil de consommateur ultra-connecté où le smartphone est presque une extension du corps, souhaite accéder immédiatement aux informations.

Son téléphone est devenu un assistant personnel dans les diverses tâches quotidiennes.

Les smartphones ont un rôle important à jouer tout au long du processus d’achat, ce qui est bénéfique à plus d’un titre: d’une part, les smartphones aident ces utilisateurs à planifier leurs achats et, d’autre part, les détaillants peuvent obtenir des informations très pertinentes sur le comportement d’achat des clients.

Tout au long du processus de planification, le consommateur soulève différentes questions: Quels sont mes besoins ? Qu’est-ce que je souhaite acheter et où le faire ?

On peut parler de «micro-moments»: des moments où ces acheteurs «5.0» se tourneront vers leur smartphone pour répondre à ces questions.

C’est à ce moment précis que les informations qu’ils collectent ou la publicité qui les concerne via le canal qu’ils utilisent aura une influence déterminante sur leur décision d’achat final.


L’hyper-segmentation est la clé d’une campagne marketing efficace


Pendant longtemps, les nouvelles technologies ont amélioré les campagnes de marketing online, donnant des informations détaillées sur le comportement en ligne des consommateurs.

Celles-ci ont été particulièrement utiles lorsque l’achat a été effectué dans l’environnement numérique, car elles permettaient une attribution claire du retour sur investissement selon les campagnes réalisées.

Cependant, il ne faut pas perdre de vue que, selon une étude de Nielsen, seuls 6,1% des achats des consommateurs français sont effectués sur Internet, la grande majorité d’entre eux continuant de se faire dans des magasins physiques.

Et c’est là que la fusion entre les deux canaux devient très importante.

Pour les détaillants français, le principal défi consiste maintenant à comprendre comment accroître l’efficacité de leurs campagnes digitales drive-to-store, tout en améliorant l’expérience d’achat afin de fournir aux clients une valeur ajoutée qui va les différencier de leurs concurrents.

En conséquence, nous allons aujourd’hui plus loin et offrons aux détaillants la possibilité de campagnes hyper-segmentées grâce au big data et en impactant les consommateurs par le biais de la publicité programmatique, en tenant compte à la fois de leur comportement en ligne et hors ligne.

Des technologies telles que la géolocalisation nous permettent, par exemple, de connaître les magasins physiques récemment visités par l’utilisateur. Des données que nous pouvons croiser avec la recherche d’informations qu’ils ont effectué en ligne au moment de la planification de leur achat.

De cette manière, nous aurons une connaissance complète des intérêts et du comportement du consommateur, quel que soit l’environnement dans lequel il évolue.


Ne pas négliger les points de vente physiques malgré l’essor du digital


Tenant compte du fait que les consommateurs attachent de la valeur à l’expérience et que le magasin physique est leur canal préféré pour faire leur shopping, améliorer l’expérience en magasin grâce aux avantages procurés par les avancées technologiques dans des domaines tels que la réalité virtuelle ou l’intelligence artificielle est un objectif pertinent.

Sans aller plus loin, Auchan a récemment annoncé l’ouverture de son premier magasin sans personnel. Lidl a commencé à tester son nouveau système « Shop & Go » afin de rationaliser le processus de paiement en magasin. Les points de vente physiques deviennent de grands centres d’expérience…

Souvent, de nombreuses entreprises confondent la recherche de nouvelles expériences dans les magasins physiques avec des investissements dans de grands projets phares ou dans des dispositifs futuristes mêlant réalité augmentée et intelligence artificielle.

Ces concepts peuvent sembler attrayants et générer une valeur ajoutée immédiate, mais leur rentabilité à long terme doit être prise en compte et, surtout, aider les détaillants à améliorer leur connaissance des consommateurs.

C’est ce qui leur permet de concevoir des stratégies marketing axées sur l’amélioration de l’expérience d’achat et de fidéliser la clientèle.

Ce n’est qu’ainsi que les marques pourront créer des magasins intelligents pour les acheteurs avertis…




Lire la suite...

must read