Connect with us

Avis d'experts

Data : la sécurité devient un enjeu prioritaire

Publié

le

En 2017, la sécurité des données sensibles sera une priorité pour tous les dirigeants d’entreprises. Plusieurs fuites massives ont fait la une des médias en 2016, avec parfois des conséquences désastreuses en termes de réputation, de coût et de confiance client. Au vu de l’impact significatif de ces fuites sur les résultats financiers et la rentabilité future, les décideurs et hauts dirigeants ont replacé la cybersécurité au premier rang des priorités.

 

 


 

 

Une tribune de John Newton, CEO d’Alfresco

 

 


 

 

En matière de sécurité, la résilience implique avant tout de gérer la prolifération des données, qui ne montre pour l’instant aucun signe d’affaiblissement.

Afin de protéger les données les plus sensibles, chaque entreprise doit adopter une stratégie de gestion holistique de l’information. Les décisions doivent prendre en compte la manière dont le contenu est géré et gouverné, l’objectif à terme étant d’éviter la sur-accumulation d’informations.

 

Apprendre à faire le tri

En 2017, les DSI devront concentrer les investissements dans l’identification granulaire des informations plutôt que dans les mesures paramétriques.

Selon le type d’entreprise, le volume d’informations digitales est en moyenne multiplié par deux tous les 3 à 9 mois.

Face à la prolifération des données, la réaction instinctive est de vouloir tout protéger : en gardant les informations derrière des pare-feu hyper sécurisés, en déployant des technologies de prévention des pertes de données (DLP) au niveau du paramétrage et des commutateurs principaux, en utilisant les technologies d’inspection des paquets au niveau du paramétrage et en verrouillant les ports USB.

Ces mesures contribuent certes à résoudre en partie le problème mais ne prémunissent pas contre de nouvelles violations. En 2017 et au-delà, on constatera chez les DSI une tendance à déterminer d’abord la nature précise des données à sécuriser, avant de définir des niveaux de sécurité différents selon le contenu.

Cette nouvelle approche de la gouvernance permettra de clarifier ce qui doit être considéré comme du contenu sensible et de faciliter l’estimation des dommages éventuels en cas de violation. Il ne s’agit pas de verrouiller l’accès à davantage de données pour qu’elles soient inutilisables, mais de les rendre exploitables tout en les protégeant via une gouvernance invisible et omniprésente.

 

Éliminer les risques des données R.O.T

À mesure que le contenu vieillit, il perd de sa valeur pour l’entreprise alors que les risques qu’il représente augmentent. Des études ont montré que jusqu’à 70 % des données d’entreprise sont redondantes, obsolètes ou inutiles (en anglais « redundant, obsolete and trivial » ou R.O.T.) et par conséquent hautement vulnérables.

Dans l’affaire Edward Snowden, par exemple, les documents découverts étaient principalement des archives, pas particulièrement pertinentes pour Booz Allen, mais extrêmement pertinentes et dommageables pour le gouvernement américain. Ces archives contenaient des informations sensibles et l’employeur de Snowden n’avait à l’évidence pas mis en place en interne les contrôles, politiques et procédures nécessaires à assurer leur sécurité ; cette affaire a été lourde d’enseignement pour tous les DSI qui n’avaient jusqu’à lors pas beaucoup investi dans la gestion du cycle de vie du contenu.

La masse d’informations générées ne peut tout bonnement pas être conservée indéfiniment sans poser de risques pour l’avenir. À un moment ou un autre, les informations doivent être catégorisées et certaines supprimées, en particulier les données inutiles. Dans le domaine de la gestion des informations, chacun sait qu’à mesure que le contenu vieillit, sa valeur pour l’entreprise décroît alors que les risques qu’il représente augmentent de manière exponentielle.

 

L’essor de la « gouvernance appliquée »

Au début de l’année, une fuite massive concernant plus de 20 000 pages de documents ultra confidentiels sur des bâtiments destinés à la marine indienne, notamment les plans de sous-marins Scorpène, a été révélée.

Cette fuite est un sérieux revers pour le gouvernement indien. Elle est aussi un exemple flagrant des conséquences d’une protection insuffisante des informations non structurées, telles que des plans stockés dans un logiciel vieillissant.

Si vous transposez le cas des sous-marins indiens dans un scénario impliquant les plans d’une centrale nucléaire ou d’un appareil IdO grand public, vous prendrez pleinement la mesure de l’intérêt inestimable à conserver les données de manière sécurisée. Si des plans et fichiers non structurés sont physiquement copiés ou imprimés, ou encore transférés par voie électronique, comment pouvez-vous connaître l’existence de ce contenu ?

D’autre part, de plus en plus de secteurs passent à la dématérialisation et les contenus physiques ne vont pas simplement disparaître ; il est nécessaire de trouver comment garder une trace de ce contenu, qui a encore de la valeur. Le suivi de ces « données obscures », en particulier dans l’industrie, sera l’une des priorités en matière de sécurité en 2017.

Malheureusement, les cybercriminels sont de plus en plus organisés. Ils élaborent des attaques et tactiques de plus en plus sophistiquées pour provoquer un maximum de perturbations et de pertes financières pour les entreprises qui en sont victimes.

Pour fortifier les défenses et résister en 2017, plutôt que de mettre en place des mesures paramétriques de sécurité supplémentaires pour protéger toutes les données, les entreprises devront d’abord analyser les contenus et les catégoriser pour identifier les données réellement sensibles et utiles.

 

Davantage de ressources doivent être consacrées à évaluer et organiser les contenus (les données digitales, mais aussi les documents physiques qui ont encore de la valeur) et à supprimer de manière proactive les informations non pertinentes et inutiles.

En adoptant cette approche en 2017, les entreprises pourront mieux résister aux menaces qui évoluent sans cesse et atténuer leur impact…

 

 

Avis d'experts

4 astuces pour structurer la donnée et booster vos performances

Publié

le

La connaissance de vos clients est votre meilleur investissement pour les fidéliser et les transformer en ambassadeurs de votre marque.

A cette fin, il est primordial de faire sauter les cloisons entre on et offline : la réconciliation entre ces deux mondes est indispensable pour unifier et personnaliser l’expérience utilisateur sur l’ensemble des écrans et des canaux de vente.

Un objectif qui passe par une structuration de la donnée : voici quatre astuces pour gérer efficacement cette rupture technologique et booster vos performances.

 

 


Une tribune de Gilles Liguori, Directeur Associé de KP Consulting


 

 

 

Astuce n° 1 : identifiez l’ensemble des sources d’information à consolider

Personne ne l’ignore : les prospects et les clients de l’entreprise vivent dans un monde ultra connecté, où ils jonglent d’un canal – physique ou virtuel – à l’autre en permanence. A ce titre, ils sont toujours pus exigeants : ils veulent que les marques et les entreprises soient capables de le suivre dans leur parcours sans couture pour leur proposer une communication personnalisée, dans laquelle leurs besoins sont anticipés et adressés avec pertinence, et selon une relation privilégiée.

Accompagner les consommateurs d’aujourd’hui efficacement implique dont de les connaître sur le bout des doigts. Pour leur proposer des expériences intelligentes, aptes à créer de l’engagement auprès de l’entreprise, il est nécessaire de collecter à leur sujet des données précises et accessibles. C’est la condition sine qua non pour bénéficier d’une vision unifiée de vos clients, identifiés sur l’ensemble des plates-formes et des canaux – digitaux ou non.

Pour une efficacité maximale, la gestion de l’information et la collecte de données de haute qualité impose un pré-requis : déterminer précisément l’ensemble des sources d’information à consolider au sein d’un seul et unique emplacement. Dès lors, il sera possible de créer des liens entre le on et le offline, ainsi qu’entre les “first-party” et les “third-party” data, c’est-à-dire les données propres de l’annonceur et celles issues de data providers. Une fois associées, ces données favorisent la conversion en ajoutant de la valeur là où se trouve le besoin précis du client. Et elles ouvrent la voie à une personnalisation réellement intelligente.

 

Astuce n° 2 : connectez les données à votre DMP dans une logique omnicanal et mobile

Collecter, stocker et traiter les informations comportementales du visiteur d’un site Web : c’est l’objectif de la DMP (pour Data Management Platform), qui désigne une plate-forme de gestion de données permettant d’interagir efficacement avec vos clients et vos prospects.

La DMP vise ainsi trois objectifs : améliorer votre connaissance client, personnaliser les messages et l’expérience client, et optimiser le retour sur investissement marketing.

Seule technologie capable d’agréger et d’unifier l’ensemble des données online et offline relatives à un contact, la DMP est un moyen efficace pour répondre aux attentes des nouvelles générations de consommateurs ultra connectés. Ses usages sont variés : optimisation du ciblage publicitaire, personnalisation de l’offre et de l’expérience utilisateur, analyse d’audience dans une logique de datamining

La connexion des données à la DMP permet de les traiter en vue de définir des profils uniques. Elle autorise par ailleurs une analyse et une segmentation pertinentes des données pour créer des audiences et, in fine, activer les leviers digitaux adéquats. Et ainsi booster vos objectifs en matière de performance digitale, qu’il s’agisse de prospection, d’acquisition de trafic, de conversion ou encore de fidélisation.

 

Astuce n° 3 : combinez DMP et CRM-onboarding pour une véritable interaction entre on et offline

Vous disposez au sein de vos bases CRM offline d’une richesse d’informations unique et d’un lot de données précieuses sur vos clients : données de contact, historique d’achat, segmentation de votre clientèle, informations issues de votre réseau de distribution… Votre écosystème digital vous fournit également un véritable potentiel en termes de ciblage et de personnalisation. Oui, mais comment l’exploiter si vous n’entretenez pas une relation digitalisée continue avec vos clients ? Comment les identifier quand ils naviguent anonymement online ?

Dans ce contexte, l’intérêt du CRM-onboarding présente un intérêt évident : il vous permet de digitaliser et de connecter les données CRM offline à votre écosystème digital sans que les contacts ciblés n’aient eu au préalable d’interaction en ligne avec vous. Il apporte ainsi un incrément massif et immédiat de données “first-party” d’origine CRM, activables dans des plates-formes technologiques et media telles que la DMP.

Alimenter les outils d’activation avec de la donnée CRM digitalisée sert de nombreux objectifs : exclure vos clients existants des campagnes d’acquisition qui ne les concernent pas, personnaliser les publicités en fonction de la segmentation offline, réactiver d’anciens clients que vous aimeriez bien voir revenir, mesurer les investissements digitaux sur les ventes offline, mais aussi réaliser du customer match ou un ciblage d’utilisateurs online similaires à vos clients.

A la clé, le CRM, désormais digitalisé et connecté aux plates-formes online, permet d’identifier et de cibler précisément votre communauté sur l’ensemble des canaux. Avec pour conséquences vertueuses, une communication personnalisée et assurée en temps réel, et des investissements digitaux mesurables avec précision quant à la transformation offline.

 

Astuce n° 4 : misez sur l’attribution offline pour mesurer vos performances

La convergence entre les informations online et offline vous offre une vision globale de vos performances sur l’ensemble des canaux. Ainsi, dans une démarche de CRM-onboarding, l’attribution a pour objectif de vous apporter encore de la nouvelle donnée : celle nécessaire à la mesure de l’impact des campagnes marketing sur le parcours d’achat, dont il est attendu la plus grande objectivité possible.

Chercher à définir le meilleur modèle d’attribution en fonction du parcours client, c’est viser à savoir comment les clients transformés sur un point de vente physique ont été exposés à une campagne digitale. L’attribution display, d’abord, permet de mesurer la contribution des investissements display dans la transformation offline (magasin, réseau, call-center).

L’attribution Adwords, le Paid Search et le Native Ads (Facebook Ads, LinkedIn Ads, Outbrain, Taboola, etc.) offrent quant à eux la possibilité de mesurer la contribution des liens sponsorisés dans cette transformation.

Grâce à l’attribution, les entreprises sont capables de comprendre les enjeux liés à la mesure de la performance d’un mix-media marketing digital et omnicanal. En mesurant le ROI des campagnes médias online et offline, vous bouclez ainsi la boucle : vous avez à votre service un dispositif de mesure et d’analyse diablement efficace pour optimiser leurs investissements !

Et vous, qu’en pensez-vous ? Partagez avec nous vos astuces pour booster vos performances autour de la donnée !

Si cet article vous a plu, je vous invite à télécharger notre livre blanc “Comment en finir avec la jungle des données client ?”

 

 

Afficher la suite

Avis d'experts

UX Designer : quel rôle pour engager toujours plus l’expérience utilisateur ?

Publié

le

UX : deux petites lettres qui prennent de plus en plus de sens dans une stratégie de marque. On ne les connaît pas encore très bien, mais elles suscitent une curiosité et un engouement croissants.

L’UX ou User Experience (expérience utilisateur) a envahi nos vies, en particulier nos expériences numériques, pour que le temps que nous passons sur les applications et sites web soit aussi plaisant et efficace que possible.

 

 


Une tribune de Antoine Auriol, UX Product Manager chez One2Team


 

 

Le métier d’UX designer est de plus en plus en vogue avec l’arrivée des smartphones. Aujourd’hui, le design visuel (l’UI ou User Interface) ne suffit plus, il faut pouvoir l’allier à son utilité. En effet, il faut que l’appareil, le logiciel ou l’application soit facile d’utilisation, ergonomique et fluide avec la possibilité de se connecter de n’importe où.

C’est là que l’UX designer a un rôle clé à jouer, notamment dans la stratégie et la croissance de l’entreprise.

Un UX designer présente aussi un avantage compétitif majeur. Une bonne expérience utilisateur va générer de l’adoption et reste un facteur clé de différenciation. Le niveau d’attente sur la facilité d’utilisation est aujourd’hui très élevé chez le grand public, grâce à l’adoption massive des produits développés par les GAFA (Google, Apple, Facebook ou Amazon) ou par des startups innovantes.

 

L’UX designer au cœur de la stratégie digitale de l’entreprise

Le métier a quant à lui beaucoup évolué ces dernières années. Si nous parlions d’ergonomie au départ avec des questionnaires, des enquêtes de satisfaction dont le dispositif était laborieux à mettre en œuvre, la data science a permis une avancée considérable.

En effet, aujourd’hui nous pouvons analyser en temps réel les habitudes des utilisateurs à des milliers de kilomètres. L’UX designer a désormais toutes les cartes en mains pour prendre les bonnes décisions. Il peut réaliser des tests en direct sur des panels de milliers d’utilisateurs.

Le design visuel a aujourd’hui sa place à la table des décisions stratégiques des entreprises. Il y a une conscience beaucoup plus forte qu’il y a 5 ans de l’importance de l’UX à tous les niveaux. Les outils ont aussi fortement évolué.

Il est aujourd’hui beaucoup plus facile qu’avant de fabriquer des prototypes interactifs, de collaborer sur des maquettes, de faire de la recherche utilisateur quantitative. On voit d’ailleurs de nouvelles spécialisations dans le métier : strategic design, UX, UI, illustration, animation, prototypage, recherche utilisateur…

S’il faut une preuve que l’UX devient stratégique, on a remarqué que le ratio UX designer/développeur a beaucoup augmenté dans les entreprises.

 

L’UX Designer et le Product Manager, nouvelles rock stars du 21ème siècle dans le secteur IT

L’UX designer réalise les maquettes qui montreront l’usage de fonctionnalités et prend en compte les retours des utilisateurs pour faire évoluer le produit. Le Product Manager, quant à lui, formalise le problème à résoudre et spécifie les fonctionnalités.

Les deux métiers sont complémentaires et travaillent de concert ; sans cela les fonctionnalités qui arrivent dans les mains de l’utilisateur ont très peu de chance d’être ergonomiques et risquent même d’être rejetées.

Une personne qui incarne les intérêts de l’utilisateur permet d’assurer que le sujet sera pris en compte en permanence dans le développement du produit, au même titre que la sécurité ou la qualité.

En général, le Product Manager couvre souvent une partie des compétences UX, mais avoir une ou des personnes dédiées renforce considérablement l’action sur le sujet, pour atteindre la masse critique de compréhension de l’utilisateur.

De plus, les compétences et outils des designers sont spécifiques et ne sont parfois pas ou peu présents dans les équipes. Leurs méthodes comme le design thinking ou le lean UX peuvent également apporter à tous les départements.

 

L’UX peut avoir un impact sur l’accélération du développement d’une entreprise

Un travail sur l’UX permet d’investir les ressources de développement sur les bons sujets et d’augmenter la valeur délivrée, à temps de développement égal. Résultat : moins d’itérations requises pour atteindre la satisfaction du client final.

Autre facteur important : la politique ! Sans réflexion sur l’UX de l’identification du problème à l’exécution, nous risquons de faire et défaire suite aux réactions en interne, en naviguant à vue et au gré des biais (les gens qui développent le produit ne sont pas ceux qui l’utilisent).

 

L’UX joue une différence dans l’adoption d’un produit

C’est certainement la finalité. Aujourd’hui l’adoption d’un produit doit se faire en moins de quelques heures pour le B2B et en moins de quelques minutes pour le B2C ! Pour cela, les interfaces proposées doivent être ultra simples et très intuitives.

Nous l’aurons compris, l’expérience utilisateur influe directement sur la rapidité d’un utilisateur à atteindre son objectif, par exemple en accomplissant une tâche beaucoup plus vite qu’avant. C’est ce qui produit le fameux « Wow effect ». Slack ou Citymapper en font de très bonnes illustrations dans leurs produits et parviennent en plus à créer une relation ludique qui va inciter l’utilisateur à aller plus loin avec son produit.

 

 

Afficher la suite

Avis d'experts

Le retour de l’IA ou le syndrome du poisson rouge ?

Publié

le

 

Le poisson rouge se caractérise par une capacité mémorielle extrêmement limitée. Cela implique que « tout est nouveau pour lui ».

Nous vivons cela actuellement avec l’Intelligence Artificielle que nous découvrons avec enthousiasme mais également inquiétude…

 

 


Une tribune de  Robert Bentz, Directeur Adjoint FWA


 

 

 

Si l’Intelligence Artificielle n’est pas un concept novateur, pourquoi autant d’interrogations, que s’est-il passé ?

Très globalement « rien » de particulier, nous avons eu un enflammement des esprits dans les années 80 avec des outils, des techniques, l’association avec les sciences humaines, et des progrès dans les matériels, qui nous laissaient espérer des applications toujours plus performantes et répondant aux nouveaux besoins utilisateurs. Et puis plus rien, car trop d’espoirs déçus.

Globalement le marketing de l’IA a placé trop d’espoirs dans un ensemble de techniques, méthodes et bonnes volontés, qui n’ont pas été au rendez vous en termes de visibilité.

Par exemple dans les unités de services militaires , le nucléaire et globalement les entités à forte technologie et à moyens économiques suffisants, les avancées ont été importantes, mais trop peu visibles (ou montrables).

 

Alors pourquoi autant d’engouement, aujourd’hui ?

Parce qu’entre temps les équipes de recherche et de développement ont continué à développer des solutions et des idées. L’ingénierie cognitive, l’analyse linguistique, la reconnaissance visuelle, les technologies et les calculateurs embarqués ont fait des progrès (énormes sur les trois décennies d’oubli de l’IA).

Des applications très visibles comme la voiture autonome, les robots assistants deviennent des réalités tangibles et accessibles.

Les constructeurs automobiles européens traditionnels ne sont pas totalement déconnectés, ils sont capables de faire presque aussi bien techniquement que les nord-américains, avec des moyens beaucoup plus modestes. Mais sans réelle envie d’abandonner la construction traditionnelle.

 

Et comme toujours, le sujet technologique de l’IA, suscite des convoitises ou des peurs.

IBM, qui ne croyait pas en l’IA dans les années 80, se pose aujourd’hui en leader du sujet. Xerox qui par ses recherches a largement contribué à l’évolution des technologies et en particulier de l’IA, n’est plus là, car trop occupé à gérer son virage vers le service. Les japonais nous ont fait réellement très peur avec leurs calculateurs 5e génération dans les années 80 (MITI). Et l’on recommence avec les Chinois et AI-Maths qui a été présenté à la presse le 7 juin 2017.

Peurs incontrôlées ou organisées, tout devient questions d’affolement dès que l’on pose la question d’l’IA. Un autre exemple frappant, celui de Facebook qui a été dénoncé par ses deux systèmes intelligents qui se sont mis à échanger entre eux dans un langage que nous ne comprenons pas. A bien y regarder il s’agit d’un non-événement. Les technophiles se sont bien amusés mais sans intérêt pour la science.

Reflet de la mode, notre président vient de nommer Cédric Villani (député, mathématicien et lauréat de la médaille Fields en 2010), « chargé de mission sur l’intelligence artificielle, en vue de construire une stratégie nationale ». C’est bien, mais c’est simplement dans la vague médiatique en cours. Que générera cette mission ? Je ne sais pas. Mais par expérience je ne fonde que peu d’espoir sur la mission d’une personne.

Alors oui l’Intelligence Artificielle existe depuis longtemps et progresse régulièrement. Il faut identifier les propositions, les projets intéressants, les équipes capables, élargir le cercle à l’Europe pour gagner en puissance, et donner les moyens humains et matériels pour que les projets se réalisent.

Une part seulement des projets seront des réussites totales ou partielles, mais ils peuvent donner une impulsion réelle à l’émergence (enfin) de projets réussis.

Alors analysons l’histoire et son évolution, et en organisation mature, prenons les bonnes décisions pour faire évoluer notre société. Nous sommes capables de faire mieux que les poissons rouges…

 

 

 

Afficher la suite

must read