Connect with us

Avis d'experts

Emailing : quelles sont les évolutions à venir ?

Publié

le

Que peut-on attendre comme nouveautés et grandes tendances en 2016 pour l’e-mail ? En 2015, 205 milliards d’e-mails ont été envoyés à travers le monde, dont 1,4 milliard uniquement pour la France. Si l’email reste le moyen de communication le plus prisé, les attentes des consommateurs évoluent rapidement et les annonceurs doivent les anticiper pour les intégrer dans leur stratégie marketing…

 

 

 

Une tribune de Judy Boniface, Directrice Marketing, Mailjet

 

 

 

Dans son dernier rapport, publié en mars 2015, The Radicati Group prévoyait pour la seule année 2015 la diffusion de 205 milliards d’e-mails à travers le monde, dont 1,4 milliard uniquement pour la France. En quarante-cinq ans, l’e-mail s’est imposé comme l’un des principaux moyens de communication, privilégié tant dans les usages personnels que professionnels.

Pour les responsables marketing, l’e-mail reste également un outil phare, qui offre l’un des meilleurs taux de performance et permet d’évaluer très précisément le ROI de chaque campagne conduite. Dans la dernière édition de l’Observatoire de l’e-pub du SRI, réalisé par PwC, en partenariat avec l’UDECAM, l’e-mailing est l’outil le plus efficace pour générer du trafic vers un site web pour 34% des internautes.

Mais les attentes des consommateurs évoluent rapidement et les annonceurs doivent les anticiper pour les intégrer dans leur stratégie marketing. Que peut-on attendre comme nouveautés et grandes tendances en 2016 pour l’e-mail ?

 

Personnalisation, automation, transactionnel : le futur de l’email…

La personnalisation constitue probablement la tendance majeure : les consommateurs souhaitent recevoir un contenu toujours mieux ciblé, et attendent des marques qu’elles sachent comment s’adresser à eux, qu’elles leur fournissent des expériences qui leur correspondent, et répondent voire devancent leurs besoins. Or, l’e-mail est l’outil marketing le plus efficace pour instaurer une relation individuelle, à condition que les messages véhiculés soient réellement adaptés et intègrent le comportement, l’historique et les habitudes de chacun.

Grâce aux outils de personnalisation, de segmentation et de ciblage, l’e-mailing “de masse”, paradoxalement, devient progressivement de plus en plus personnalisé. Ces techniques encore considérées comme gadget ou réservées à des spécialistes il y deux ou trois ans se sont largement démocratisées et devraient s’imposer comme la norme cette année, car la concurrence est rude dans les boîtes de réception : il faut viser juste, que ce soit via de la personnalisation statique ou l’utilisation de technologies plus avancées intégrant la personnalisation dynamique au sein de chaque message.

La généralisation de l’automation va également constituer un atout dans cette démarche en permettant à chacun de simplifier les processus de personnalisation des campagnes d’e-mail. Bien conçues, les campagnes s’adaptent automatiquement aux destinataires et contribuent ainsi à engager la relation avec chacun d’entre eux ou la renforcer, tout en optimisant les moyens investis dans leur déploiement.

Les entreprises en sont convaincues et considèrent à 61% que la personnalisation contribue à améliorer la délivrabilité des campagne selon une étude conduite par Radius et publiée en janvier 2015. Cela signifie concrètement que l’e-mailing marketing doit passer d’une logique de quantité à celle de qualité : envoyer moins d’e-mails mais de manière plus pertinente pour, au final, obtenir un meilleur engagement et un meilleur retour sur investissement.

Pour accompagner cette tendance, il faut pouvoir s’appuyer sur des informations qui soient vérifiées et pertinentes sur ses destinataires. De nombreux outils se développent pour permettre d’enrichir les profils clients en récoltant  des données additionnelles pertinentes pour affiner la segmentation et le ciblage : formulaires d’inscription, enquêtes de satisfaction, etc. La gestion de la base de données clients est un élément clé de la stratégie e-mailing et plus globalement marketing de toute entreprise.

2016 devrait aussi être l’année qui verra émerger l’e-mailing transactionnel, encore trop peu utilisé par rapport au potentiel qu’il représente. Souvent basique et peu mis en forme, il ne comporte que le minimum d’informations possible.

Avec un peu plus de personnalisation, des suggestions d’achats adaptées par exemple, et un peu de design, ces e-mails pourraient booster le trafic et les ventes des marques qui les envoient. Le tourisme offre d’ailleurs un bon exemple de mis en pratique de ces opportunités, l’agence ou le site de voyage n’hésitant plus à conseiller des services complémentaires (réservation d’une chambre d’hôtel ou d’une voiture par exemple) lors de la confirmation de l’achat ou de l’envoi d’un billet de train ou d’avion.

Les e-mails transactionnels devraient gagner de nouveaux champs d’application, grâce à la démocratisation de solutions de sécurisation notamment. De la facture au relevé de compte, de l’envoi d’un recommandé à celui de pièces confidentielles, l’e-mail peut être une solution rapide, efficace et sécurisée mise à la disposition des entreprises pour optimiser leurs procédures et gagner en flexibilité tout en renforçant la relation client.

Enfin, dernière évolution à prévoir en 2016, la simplification de la production d’e-mails : ces derniers temps, les interfaces de créations d’e-mails responsive, utilisant par exemple la méthode de “drag and drop”, se sont multipliées. Mais dès que l’on sort de ces plateformes qui disposent de templates tous faits et parfois peu flexibles et inadaptés à certains formats d’emails, il faut faire appel à l’intégration et au développement en HTML.

Et ce développement est encore excessivement complexe et long à cause de l’aspect “responsive” : l’expéditeur doit s’assurer que le rendu de son e-mail sera toujours optimal quels que soient le terminal de lecture (smartphone, tablette, ordinateur) et le client e-mail (GMail, Outlook, Yahoo, etc.). Il n’existe actuellement pas vraiment d’outil pour simplifier ce développement chronophage et pénible. Ce manque constitue une opportunité d’innover pour les acteurs de l’industrie de l’e-mail.

 

Il est intéressant de voir qu’en quarante-cinq ans, l’e-mail est passé, notamment au sein des entreprises, d’un moyen de communication de masse – un mail envoyé simplement et à moindre frais à l’ensemble de ses clients – à un outil de relation et d’engagement personnalisé privilégié.

Nous ne sommes qu’à l’aube d’une nouvelle ère avec le développement à venir de technologies qui permettent d’élaborer des contenus plus dynamiques ou encore d’intégrer une dimension prédictive dans la segmentation, autant de pistes que nous verrons certainement aboutir dans les années à venir.

 

 

Source: JDN

 

Avis d'experts

4 astuces pour structurer la donnée et booster vos performances

Publié

le

La connaissance de vos clients est votre meilleur investissement pour les fidéliser et les transformer en ambassadeurs de votre marque.

A cette fin, il est primordial de faire sauter les cloisons entre on et offline : la réconciliation entre ces deux mondes est indispensable pour unifier et personnaliser l’expérience utilisateur sur l’ensemble des écrans et des canaux de vente.

Un objectif qui passe par une structuration de la donnée : voici quatre astuces pour gérer efficacement cette rupture technologique et booster vos performances.

 

 


Une tribune de Gilles Liguori, Directeur Associé de KP Consulting


 

 

 

Astuce n° 1 : identifiez l’ensemble des sources d’information à consolider

Personne ne l’ignore : les prospects et les clients de l’entreprise vivent dans un monde ultra connecté, où ils jonglent d’un canal – physique ou virtuel – à l’autre en permanence. A ce titre, ils sont toujours pus exigeants : ils veulent que les marques et les entreprises soient capables de le suivre dans leur parcours sans couture pour leur proposer une communication personnalisée, dans laquelle leurs besoins sont anticipés et adressés avec pertinence, et selon une relation privilégiée.

Accompagner les consommateurs d’aujourd’hui efficacement implique dont de les connaître sur le bout des doigts. Pour leur proposer des expériences intelligentes, aptes à créer de l’engagement auprès de l’entreprise, il est nécessaire de collecter à leur sujet des données précises et accessibles. C’est la condition sine qua non pour bénéficier d’une vision unifiée de vos clients, identifiés sur l’ensemble des plates-formes et des canaux – digitaux ou non.

Pour une efficacité maximale, la gestion de l’information et la collecte de données de haute qualité impose un pré-requis : déterminer précisément l’ensemble des sources d’information à consolider au sein d’un seul et unique emplacement. Dès lors, il sera possible de créer des liens entre le on et le offline, ainsi qu’entre les “first-party” et les “third-party” data, c’est-à-dire les données propres de l’annonceur et celles issues de data providers. Une fois associées, ces données favorisent la conversion en ajoutant de la valeur là où se trouve le besoin précis du client. Et elles ouvrent la voie à une personnalisation réellement intelligente.

 

Astuce n° 2 : connectez les données à votre DMP dans une logique omnicanal et mobile

Collecter, stocker et traiter les informations comportementales du visiteur d’un site Web : c’est l’objectif de la DMP (pour Data Management Platform), qui désigne une plate-forme de gestion de données permettant d’interagir efficacement avec vos clients et vos prospects.

La DMP vise ainsi trois objectifs : améliorer votre connaissance client, personnaliser les messages et l’expérience client, et optimiser le retour sur investissement marketing.

Seule technologie capable d’agréger et d’unifier l’ensemble des données online et offline relatives à un contact, la DMP est un moyen efficace pour répondre aux attentes des nouvelles générations de consommateurs ultra connectés. Ses usages sont variés : optimisation du ciblage publicitaire, personnalisation de l’offre et de l’expérience utilisateur, analyse d’audience dans une logique de datamining

La connexion des données à la DMP permet de les traiter en vue de définir des profils uniques. Elle autorise par ailleurs une analyse et une segmentation pertinentes des données pour créer des audiences et, in fine, activer les leviers digitaux adéquats. Et ainsi booster vos objectifs en matière de performance digitale, qu’il s’agisse de prospection, d’acquisition de trafic, de conversion ou encore de fidélisation.

 

Astuce n° 3 : combinez DMP et CRM-onboarding pour une véritable interaction entre on et offline

Vous disposez au sein de vos bases CRM offline d’une richesse d’informations unique et d’un lot de données précieuses sur vos clients : données de contact, historique d’achat, segmentation de votre clientèle, informations issues de votre réseau de distribution… Votre écosystème digital vous fournit également un véritable potentiel en termes de ciblage et de personnalisation. Oui, mais comment l’exploiter si vous n’entretenez pas une relation digitalisée continue avec vos clients ? Comment les identifier quand ils naviguent anonymement online ?

Dans ce contexte, l’intérêt du CRM-onboarding présente un intérêt évident : il vous permet de digitaliser et de connecter les données CRM offline à votre écosystème digital sans que les contacts ciblés n’aient eu au préalable d’interaction en ligne avec vous. Il apporte ainsi un incrément massif et immédiat de données “first-party” d’origine CRM, activables dans des plates-formes technologiques et media telles que la DMP.

Alimenter les outils d’activation avec de la donnée CRM digitalisée sert de nombreux objectifs : exclure vos clients existants des campagnes d’acquisition qui ne les concernent pas, personnaliser les publicités en fonction de la segmentation offline, réactiver d’anciens clients que vous aimeriez bien voir revenir, mesurer les investissements digitaux sur les ventes offline, mais aussi réaliser du customer match ou un ciblage d’utilisateurs online similaires à vos clients.

A la clé, le CRM, désormais digitalisé et connecté aux plates-formes online, permet d’identifier et de cibler précisément votre communauté sur l’ensemble des canaux. Avec pour conséquences vertueuses, une communication personnalisée et assurée en temps réel, et des investissements digitaux mesurables avec précision quant à la transformation offline.

 

Astuce n° 4 : misez sur l’attribution offline pour mesurer vos performances

La convergence entre les informations online et offline vous offre une vision globale de vos performances sur l’ensemble des canaux. Ainsi, dans une démarche de CRM-onboarding, l’attribution a pour objectif de vous apporter encore de la nouvelle donnée : celle nécessaire à la mesure de l’impact des campagnes marketing sur le parcours d’achat, dont il est attendu la plus grande objectivité possible.

Chercher à définir le meilleur modèle d’attribution en fonction du parcours client, c’est viser à savoir comment les clients transformés sur un point de vente physique ont été exposés à une campagne digitale. L’attribution display, d’abord, permet de mesurer la contribution des investissements display dans la transformation offline (magasin, réseau, call-center).

L’attribution Adwords, le Paid Search et le Native Ads (Facebook Ads, LinkedIn Ads, Outbrain, Taboola, etc.) offrent quant à eux la possibilité de mesurer la contribution des liens sponsorisés dans cette transformation.

Grâce à l’attribution, les entreprises sont capables de comprendre les enjeux liés à la mesure de la performance d’un mix-media marketing digital et omnicanal. En mesurant le ROI des campagnes médias online et offline, vous bouclez ainsi la boucle : vous avez à votre service un dispositif de mesure et d’analyse diablement efficace pour optimiser leurs investissements !

Et vous, qu’en pensez-vous ? Partagez avec nous vos astuces pour booster vos performances autour de la donnée !

Si cet article vous a plu, je vous invite à télécharger notre livre blanc “Comment en finir avec la jungle des données client ?”

 

 

Afficher la suite

Avis d'experts

UX Designer : quel rôle pour engager toujours plus l’expérience utilisateur ?

Publié

le

UX : deux petites lettres qui prennent de plus en plus de sens dans une stratégie de marque. On ne les connaît pas encore très bien, mais elles suscitent une curiosité et un engouement croissants.

L’UX ou User Experience (expérience utilisateur) a envahi nos vies, en particulier nos expériences numériques, pour que le temps que nous passons sur les applications et sites web soit aussi plaisant et efficace que possible.

 

 


Une tribune de Antoine Auriol, UX Product Manager chez One2Team


 

 

Le métier d’UX designer est de plus en plus en vogue avec l’arrivée des smartphones. Aujourd’hui, le design visuel (l’UI ou User Interface) ne suffit plus, il faut pouvoir l’allier à son utilité. En effet, il faut que l’appareil, le logiciel ou l’application soit facile d’utilisation, ergonomique et fluide avec la possibilité de se connecter de n’importe où.

C’est là que l’UX designer a un rôle clé à jouer, notamment dans la stratégie et la croissance de l’entreprise.

Un UX designer présente aussi un avantage compétitif majeur. Une bonne expérience utilisateur va générer de l’adoption et reste un facteur clé de différenciation. Le niveau d’attente sur la facilité d’utilisation est aujourd’hui très élevé chez le grand public, grâce à l’adoption massive des produits développés par les GAFA (Google, Apple, Facebook ou Amazon) ou par des startups innovantes.

 

L’UX designer au cœur de la stratégie digitale de l’entreprise

Le métier a quant à lui beaucoup évolué ces dernières années. Si nous parlions d’ergonomie au départ avec des questionnaires, des enquêtes de satisfaction dont le dispositif était laborieux à mettre en œuvre, la data science a permis une avancée considérable.

En effet, aujourd’hui nous pouvons analyser en temps réel les habitudes des utilisateurs à des milliers de kilomètres. L’UX designer a désormais toutes les cartes en mains pour prendre les bonnes décisions. Il peut réaliser des tests en direct sur des panels de milliers d’utilisateurs.

Le design visuel a aujourd’hui sa place à la table des décisions stratégiques des entreprises. Il y a une conscience beaucoup plus forte qu’il y a 5 ans de l’importance de l’UX à tous les niveaux. Les outils ont aussi fortement évolué.

Il est aujourd’hui beaucoup plus facile qu’avant de fabriquer des prototypes interactifs, de collaborer sur des maquettes, de faire de la recherche utilisateur quantitative. On voit d’ailleurs de nouvelles spécialisations dans le métier : strategic design, UX, UI, illustration, animation, prototypage, recherche utilisateur…

S’il faut une preuve que l’UX devient stratégique, on a remarqué que le ratio UX designer/développeur a beaucoup augmenté dans les entreprises.

 

L’UX Designer et le Product Manager, nouvelles rock stars du 21ème siècle dans le secteur IT

L’UX designer réalise les maquettes qui montreront l’usage de fonctionnalités et prend en compte les retours des utilisateurs pour faire évoluer le produit. Le Product Manager, quant à lui, formalise le problème à résoudre et spécifie les fonctionnalités.

Les deux métiers sont complémentaires et travaillent de concert ; sans cela les fonctionnalités qui arrivent dans les mains de l’utilisateur ont très peu de chance d’être ergonomiques et risquent même d’être rejetées.

Une personne qui incarne les intérêts de l’utilisateur permet d’assurer que le sujet sera pris en compte en permanence dans le développement du produit, au même titre que la sécurité ou la qualité.

En général, le Product Manager couvre souvent une partie des compétences UX, mais avoir une ou des personnes dédiées renforce considérablement l’action sur le sujet, pour atteindre la masse critique de compréhension de l’utilisateur.

De plus, les compétences et outils des designers sont spécifiques et ne sont parfois pas ou peu présents dans les équipes. Leurs méthodes comme le design thinking ou le lean UX peuvent également apporter à tous les départements.

 

L’UX peut avoir un impact sur l’accélération du développement d’une entreprise

Un travail sur l’UX permet d’investir les ressources de développement sur les bons sujets et d’augmenter la valeur délivrée, à temps de développement égal. Résultat : moins d’itérations requises pour atteindre la satisfaction du client final.

Autre facteur important : la politique ! Sans réflexion sur l’UX de l’identification du problème à l’exécution, nous risquons de faire et défaire suite aux réactions en interne, en naviguant à vue et au gré des biais (les gens qui développent le produit ne sont pas ceux qui l’utilisent).

 

L’UX joue une différence dans l’adoption d’un produit

C’est certainement la finalité. Aujourd’hui l’adoption d’un produit doit se faire en moins de quelques heures pour le B2B et en moins de quelques minutes pour le B2C ! Pour cela, les interfaces proposées doivent être ultra simples et très intuitives.

Nous l’aurons compris, l’expérience utilisateur influe directement sur la rapidité d’un utilisateur à atteindre son objectif, par exemple en accomplissant une tâche beaucoup plus vite qu’avant. C’est ce qui produit le fameux « Wow effect ». Slack ou Citymapper en font de très bonnes illustrations dans leurs produits et parviennent en plus à créer une relation ludique qui va inciter l’utilisateur à aller plus loin avec son produit.

 

 

Afficher la suite

Avis d'experts

Le retour de l’IA ou le syndrome du poisson rouge ?

Publié

le

 

Le poisson rouge se caractérise par une capacité mémorielle extrêmement limitée. Cela implique que « tout est nouveau pour lui ».

Nous vivons cela actuellement avec l’Intelligence Artificielle que nous découvrons avec enthousiasme mais également inquiétude…

 

 


Une tribune de  Robert Bentz, Directeur Adjoint FWA


 

 

 

Si l’Intelligence Artificielle n’est pas un concept novateur, pourquoi autant d’interrogations, que s’est-il passé ?

Très globalement « rien » de particulier, nous avons eu un enflammement des esprits dans les années 80 avec des outils, des techniques, l’association avec les sciences humaines, et des progrès dans les matériels, qui nous laissaient espérer des applications toujours plus performantes et répondant aux nouveaux besoins utilisateurs. Et puis plus rien, car trop d’espoirs déçus.

Globalement le marketing de l’IA a placé trop d’espoirs dans un ensemble de techniques, méthodes et bonnes volontés, qui n’ont pas été au rendez vous en termes de visibilité.

Par exemple dans les unités de services militaires , le nucléaire et globalement les entités à forte technologie et à moyens économiques suffisants, les avancées ont été importantes, mais trop peu visibles (ou montrables).

 

Alors pourquoi autant d’engouement, aujourd’hui ?

Parce qu’entre temps les équipes de recherche et de développement ont continué à développer des solutions et des idées. L’ingénierie cognitive, l’analyse linguistique, la reconnaissance visuelle, les technologies et les calculateurs embarqués ont fait des progrès (énormes sur les trois décennies d’oubli de l’IA).

Des applications très visibles comme la voiture autonome, les robots assistants deviennent des réalités tangibles et accessibles.

Les constructeurs automobiles européens traditionnels ne sont pas totalement déconnectés, ils sont capables de faire presque aussi bien techniquement que les nord-américains, avec des moyens beaucoup plus modestes. Mais sans réelle envie d’abandonner la construction traditionnelle.

 

Et comme toujours, le sujet technologique de l’IA, suscite des convoitises ou des peurs.

IBM, qui ne croyait pas en l’IA dans les années 80, se pose aujourd’hui en leader du sujet. Xerox qui par ses recherches a largement contribué à l’évolution des technologies et en particulier de l’IA, n’est plus là, car trop occupé à gérer son virage vers le service. Les japonais nous ont fait réellement très peur avec leurs calculateurs 5e génération dans les années 80 (MITI). Et l’on recommence avec les Chinois et AI-Maths qui a été présenté à la presse le 7 juin 2017.

Peurs incontrôlées ou organisées, tout devient questions d’affolement dès que l’on pose la question d’l’IA. Un autre exemple frappant, celui de Facebook qui a été dénoncé par ses deux systèmes intelligents qui se sont mis à échanger entre eux dans un langage que nous ne comprenons pas. A bien y regarder il s’agit d’un non-événement. Les technophiles se sont bien amusés mais sans intérêt pour la science.

Reflet de la mode, notre président vient de nommer Cédric Villani (député, mathématicien et lauréat de la médaille Fields en 2010), « chargé de mission sur l’intelligence artificielle, en vue de construire une stratégie nationale ». C’est bien, mais c’est simplement dans la vague médiatique en cours. Que générera cette mission ? Je ne sais pas. Mais par expérience je ne fonde que peu d’espoir sur la mission d’une personne.

Alors oui l’Intelligence Artificielle existe depuis longtemps et progresse régulièrement. Il faut identifier les propositions, les projets intéressants, les équipes capables, élargir le cercle à l’Europe pour gagner en puissance, et donner les moyens humains et matériels pour que les projets se réalisent.

Une part seulement des projets seront des réussites totales ou partielles, mais ils peuvent donner une impulsion réelle à l’émergence (enfin) de projets réussis.

Alors analysons l’histoire et son évolution, et en organisation mature, prenons les bonnes décisions pour faire évoluer notre société. Nous sommes capables de faire mieux que les poissons rouges…

 

 

 

Afficher la suite

must read