Connect with us

Avis d'experts

[Tribune] La menace latente des données dormantes

Publié

le

Ces dernières années, les principales failles de sécurité ont résulté de l’utilisation détournée d’informations oubliées ou « dormantes ».

Edward Snowden, par exemple, a simplement accédé à d’anciennes archives SharePoint de la NSA (National Security Agency) sans commettre de réel piratage.

Aujourd’hui, il ne s’agit plus de sécuriser la multitude de fichiers et contenus stockés par les entreprises derrière le pare-feu. La question est d’identifier les bons contenus à protéger et les bons contenus à supprimer en temps voulu.

 

 

 


Par William Bailhache, Vice-Président EMEA Sud d’Alfresco


 

 

Non structuré et non sécurisé

La faille de sécurité dont a été victime la NSA n’est pas un cas isolé. Les risques existent dans les secteurs tant publics que privés car l’enjeu sous-jacent est très courant. Les données stockées dans Dropbox, Fileshare, SharePoint et autres systèmes de gestion de contenu, dans le cloud ou derrière le pare-feu, sont non structurées.

Sans un cycle de vie clairement défini, elles ne peuvent pas être verrouillées, puis supprimées. Sans inventaire des données, les entreprises ne savent pas ce dont elles disposent et ne peuvent donc pas protéger leurs ressources.

De plus, les prestataires de solutions cloud proposent des capacités de stockage illimitées ; si bien que de plus en plus de données sont créées et laissées à la dérive, sans contrôle, dans un océan infini d’informations.

Davantage de stockage, davantage de risque

Les entreprises et individus génèrent et amassent tellement de contenus qu’ils se retrouvent submergés par un véritable tsunami. Pour écrémer et rendre plus efficace le système, il faut gérer sa consommation et choisir un régime adapté pour tirer le meilleur parti de ce que l’on consomme. L’accumulation compulsive de données est l’un des principaux obstacles à la mise en place d’un cycle de vie sain et sécurisé dans l’entreprise.

Les grandes multinationales sont réticentes à supprimer les données anciennes au cas où elles serviraient par la suite ; elles ont du mal à renoncer à des contenus qui aujourd’hui n’ont pourtant pas de réelle valeur pour l’activité.

Curieusement, la valeur de ces données conservées en masse par ces multinationales florissantes est négligeable. Stockées sans être utilisées, elles compromettent la sécurité de par leur existence-même alors qu’elles ne servent à rien. Le contenu dormant crée une contrainte de responsabilité.

« Connaissez-vous le volume d’informations qui circule dans votre entreprise et la proportion qui génère réellement de la valeur ? »

Je pose souvent cette question aux dirigeants avec lesquels je travaille et, la plupart du temps, ils sont incapables d’y répondre. Contrairement aux données en mouvement, qui génèrent des revenus, les données dormantes génèrent un risque.

Outre la question des revenus, les conséquences légales liées à la masse d’informations sensibles non structurées, comme les dossiers médicaux, qui pourraient être compromises sont encore plus préoccupantes.

Souvent, il suffit à un « hacker » de connaître le mot de passe du portail de stockage pour accéder à l’ensemble des données utilisateur. Même les plus grandes entreprises ont du mal à garantir la sécurité des espaces de stockage, à stocker correctement ces données, mais aussi à fournir à leurs collaborateurs un système simple pour les utiliser et les conserver en toute sécurité.

Plus d’autonomie pour les travailleurs du savoir

On entend par travailleur du savoir toute personne qui gagne sa vie en développant ou utilisant du savoir. Cette définition étant très large, on comprend que cette force de travail couvre un grand nombre de secteurs d’activité.

Les travailleurs du savoir doivent constamment naviguer dans des volumes colossaux d’informations pour y trouver rapidement la bonne version du bon contenu. Il faut leur permettre d’accéder en temps voulu aux informations dont ils ont besoin. Pour ce faire, les entreprises doivent créer un flux numérique, un inventaire des processus métiers, qui donne facilement accès aux ressources utiles.

Prenons l’exemple du personnel hospitalier. Comme le prévoit le CMS (Centers for Medicare and Medicaid Services), les dossiers médicaux des patients doivent être conservés pendant sept ans au minimum.

Si les dossiers sont intégrés à un flux numérique clairement défini avec un cycle de vie précis, les informations des patients sont facilement accessibles au personnel hospitalier dès qu’ils se présentent à l’hôpital.

Dans les systèmes sans flux numérique, la conservation et la gestion sécurisée des données reposent essentiellement sur l’utilisateur. C’est pourquoi les entreprises ont déjà dépensé 28 Mrd $ dans ces technologies et seuls 50 % des projets ECM (Enterprise Content Management) de grande envergure ont été adoptés avec succès.

Les millénials, fauteurs de troubles

La technologie évolue chaque jour en vue d’améliorer ces processus. Il est vrai qu’un travail aussi ennuyeux et fastidieux est plus précis s’il est effectué avec les méthodes d’apprentissage machine et l’intelligence artificielle. D’ici quelques années, les entreprises n’auront de toute façon plus le choix. La génération du millénaire refuse de continuer à crouler sous les tâches et rejette de plus en plus les anciennes technologies. Elle veut pouvoir accéder à la version la plus récente des contenus nécessaires à son travail, et ce, aussi efficacement que possible.

Les grandes institutions comme les banques et les compagnies d’assurance qui poussent leurs informaticiens à apprendre à coder et protéger les informations constatent déjà des bénéfices en termes de croissance et d’efficacité. Elles se modernisent et renoncent peu à peu aux anciens processus. Les millénials bouleversent les anciens modes de fonctionnement, et le résultat est payant pour ceux qui l’acceptent.

Il est difficile de rompre avec les anciens systèmes mainframe et les agences gouvernementales en particulier veulent moderniser leurs infrastructures ; la NASA elle-même a sauté le pas il y a cinq ou six ans. Traditionnellement, le gouvernement fédéral américain a toujours été plus lent à adopter les technologies modernes. Mais l’impulsion est donnée. Pour preuve le budget alloué au Département de la Défense américain (DoD) pour la lutte contre les cyberattaques, essentiellement à la suite de failles comme celle dont l’Office of Personnel Management (OPM) a été la cible.

L’avenir

À mesure que de plus en plus d’administrations et d’entreprises se modernisent, maîtrisent leurs données et sécurisent les cycles de vie, les composants logiciels des systèmes gagnent en efficacité. À terme, la technologie supplantera toute intervention humaine, remplacera l’utilisateur final et supprimera le « facteur humain » et les erreurs potentielles qui en découlent en termes de sécurité. Que les erreurs soient volontaires ou fortuites, les utilisateurs sont des êtres humains et, contrairement à la technologie, ils ne sont pas infaillibles.

De plus, les menaces évoluent elles aussi. Les cyberattaques ont toujours visé de gros poissons, comme le DoD et d’autres agences avec les moyens nécessaires pour riposter et se défendre. Toutefois, le terrorisme d’état évolue et de plus en plus de hackers se tournent vers des cibles plus vulnérables comme des hôpitaux ou des institutions financières de moindre envergure.

La cyberattaque de 2017 contre le NHS est révélatrice de ce que réserve l’avenir. La technologie utilisée pour contrer les hackers doit anticiper et répondre aux besoins des entreprises et agences gouvernementales : mieux vaut prévenir en protégeant ses données que guérir.

C’est la capacité d’une solution à identifier les données dont la valeur justifie l’intégration à un cycle de vie (où elles sont gérées, utilisées et à terme supprimées) et ce qui doit être verrouillé, conservé à l’écart et rester intouchable qui fera la différence. La clé d’une solution performante, d’un flux numérique efficace et d’une protection sécurisée est l’attention égale portée au processus et aux ressources. Elle permet un contrôle efficace et un processus simple pour bien protéger les données et l’automatisation complète du cycle de vie, de la capture initiale jusqu’à la suppression finale.

Parmi les nombreuses menaces qui visent les entreprises et agences gouvernementales, la masse de contenus dormants est la plus négligée. Pour bien prendre en compte cette vulnérabilité et prévenir des failles désastreuses en protégeant les contenus, il faut gérer et protéger les données oubliées, silencieuses et « sans importance » avec la plus grande vigilance.

 

 

 

Avis d'experts

4 astuces pour structurer la donnée et booster vos performances

Publié

le

La connaissance de vos clients est votre meilleur investissement pour les fidéliser et les transformer en ambassadeurs de votre marque.

A cette fin, il est primordial de faire sauter les cloisons entre on et offline : la réconciliation entre ces deux mondes est indispensable pour unifier et personnaliser l’expérience utilisateur sur l’ensemble des écrans et des canaux de vente.

Un objectif qui passe par une structuration de la donnée : voici quatre astuces pour gérer efficacement cette rupture technologique et booster vos performances.

 

 


Une tribune de Gilles Liguori, Directeur Associé de KP Consulting


 

 

 

Astuce n° 1 : identifiez l’ensemble des sources d’information à consolider

Personne ne l’ignore : les prospects et les clients de l’entreprise vivent dans un monde ultra connecté, où ils jonglent d’un canal – physique ou virtuel – à l’autre en permanence. A ce titre, ils sont toujours pus exigeants : ils veulent que les marques et les entreprises soient capables de le suivre dans leur parcours sans couture pour leur proposer une communication personnalisée, dans laquelle leurs besoins sont anticipés et adressés avec pertinence, et selon une relation privilégiée.

Accompagner les consommateurs d’aujourd’hui efficacement implique dont de les connaître sur le bout des doigts. Pour leur proposer des expériences intelligentes, aptes à créer de l’engagement auprès de l’entreprise, il est nécessaire de collecter à leur sujet des données précises et accessibles. C’est la condition sine qua non pour bénéficier d’une vision unifiée de vos clients, identifiés sur l’ensemble des plates-formes et des canaux – digitaux ou non.

Pour une efficacité maximale, la gestion de l’information et la collecte de données de haute qualité impose un pré-requis : déterminer précisément l’ensemble des sources d’information à consolider au sein d’un seul et unique emplacement. Dès lors, il sera possible de créer des liens entre le on et le offline, ainsi qu’entre les “first-party” et les “third-party” data, c’est-à-dire les données propres de l’annonceur et celles issues de data providers. Une fois associées, ces données favorisent la conversion en ajoutant de la valeur là où se trouve le besoin précis du client. Et elles ouvrent la voie à une personnalisation réellement intelligente.

 

Astuce n° 2 : connectez les données à votre DMP dans une logique omnicanal et mobile

Collecter, stocker et traiter les informations comportementales du visiteur d’un site Web : c’est l’objectif de la DMP (pour Data Management Platform), qui désigne une plate-forme de gestion de données permettant d’interagir efficacement avec vos clients et vos prospects.

La DMP vise ainsi trois objectifs : améliorer votre connaissance client, personnaliser les messages et l’expérience client, et optimiser le retour sur investissement marketing.

Seule technologie capable d’agréger et d’unifier l’ensemble des données online et offline relatives à un contact, la DMP est un moyen efficace pour répondre aux attentes des nouvelles générations de consommateurs ultra connectés. Ses usages sont variés : optimisation du ciblage publicitaire, personnalisation de l’offre et de l’expérience utilisateur, analyse d’audience dans une logique de datamining

La connexion des données à la DMP permet de les traiter en vue de définir des profils uniques. Elle autorise par ailleurs une analyse et une segmentation pertinentes des données pour créer des audiences et, in fine, activer les leviers digitaux adéquats. Et ainsi booster vos objectifs en matière de performance digitale, qu’il s’agisse de prospection, d’acquisition de trafic, de conversion ou encore de fidélisation.

 

Astuce n° 3 : combinez DMP et CRM-onboarding pour une véritable interaction entre on et offline

Vous disposez au sein de vos bases CRM offline d’une richesse d’informations unique et d’un lot de données précieuses sur vos clients : données de contact, historique d’achat, segmentation de votre clientèle, informations issues de votre réseau de distribution… Votre écosystème digital vous fournit également un véritable potentiel en termes de ciblage et de personnalisation. Oui, mais comment l’exploiter si vous n’entretenez pas une relation digitalisée continue avec vos clients ? Comment les identifier quand ils naviguent anonymement online ?

Dans ce contexte, l’intérêt du CRM-onboarding présente un intérêt évident : il vous permet de digitaliser et de connecter les données CRM offline à votre écosystème digital sans que les contacts ciblés n’aient eu au préalable d’interaction en ligne avec vous. Il apporte ainsi un incrément massif et immédiat de données “first-party” d’origine CRM, activables dans des plates-formes technologiques et media telles que la DMP.

Alimenter les outils d’activation avec de la donnée CRM digitalisée sert de nombreux objectifs : exclure vos clients existants des campagnes d’acquisition qui ne les concernent pas, personnaliser les publicités en fonction de la segmentation offline, réactiver d’anciens clients que vous aimeriez bien voir revenir, mesurer les investissements digitaux sur les ventes offline, mais aussi réaliser du customer match ou un ciblage d’utilisateurs online similaires à vos clients.

A la clé, le CRM, désormais digitalisé et connecté aux plates-formes online, permet d’identifier et de cibler précisément votre communauté sur l’ensemble des canaux. Avec pour conséquences vertueuses, une communication personnalisée et assurée en temps réel, et des investissements digitaux mesurables avec précision quant à la transformation offline.

 

Astuce n° 4 : misez sur l’attribution offline pour mesurer vos performances

La convergence entre les informations online et offline vous offre une vision globale de vos performances sur l’ensemble des canaux. Ainsi, dans une démarche de CRM-onboarding, l’attribution a pour objectif de vous apporter encore de la nouvelle donnée : celle nécessaire à la mesure de l’impact des campagnes marketing sur le parcours d’achat, dont il est attendu la plus grande objectivité possible.

Chercher à définir le meilleur modèle d’attribution en fonction du parcours client, c’est viser à savoir comment les clients transformés sur un point de vente physique ont été exposés à une campagne digitale. L’attribution display, d’abord, permet de mesurer la contribution des investissements display dans la transformation offline (magasin, réseau, call-center).

L’attribution Adwords, le Paid Search et le Native Ads (Facebook Ads, LinkedIn Ads, Outbrain, Taboola, etc.) offrent quant à eux la possibilité de mesurer la contribution des liens sponsorisés dans cette transformation.

Grâce à l’attribution, les entreprises sont capables de comprendre les enjeux liés à la mesure de la performance d’un mix-media marketing digital et omnicanal. En mesurant le ROI des campagnes médias online et offline, vous bouclez ainsi la boucle : vous avez à votre service un dispositif de mesure et d’analyse diablement efficace pour optimiser leurs investissements !

Et vous, qu’en pensez-vous ? Partagez avec nous vos astuces pour booster vos performances autour de la donnée !

Si cet article vous a plu, je vous invite à télécharger notre livre blanc “Comment en finir avec la jungle des données client ?”

 

 

Afficher la suite

Avis d'experts

UX Designer : quel rôle pour engager toujours plus l’expérience utilisateur ?

Publié

le

UX : deux petites lettres qui prennent de plus en plus de sens dans une stratégie de marque. On ne les connaît pas encore très bien, mais elles suscitent une curiosité et un engouement croissants.

L’UX ou User Experience (expérience utilisateur) a envahi nos vies, en particulier nos expériences numériques, pour que le temps que nous passons sur les applications et sites web soit aussi plaisant et efficace que possible.

 

 


Une tribune de Antoine Auriol, UX Product Manager chez One2Team


 

 

Le métier d’UX designer est de plus en plus en vogue avec l’arrivée des smartphones. Aujourd’hui, le design visuel (l’UI ou User Interface) ne suffit plus, il faut pouvoir l’allier à son utilité. En effet, il faut que l’appareil, le logiciel ou l’application soit facile d’utilisation, ergonomique et fluide avec la possibilité de se connecter de n’importe où.

C’est là que l’UX designer a un rôle clé à jouer, notamment dans la stratégie et la croissance de l’entreprise.

Un UX designer présente aussi un avantage compétitif majeur. Une bonne expérience utilisateur va générer de l’adoption et reste un facteur clé de différenciation. Le niveau d’attente sur la facilité d’utilisation est aujourd’hui très élevé chez le grand public, grâce à l’adoption massive des produits développés par les GAFA (Google, Apple, Facebook ou Amazon) ou par des startups innovantes.

 

L’UX designer au cœur de la stratégie digitale de l’entreprise

Le métier a quant à lui beaucoup évolué ces dernières années. Si nous parlions d’ergonomie au départ avec des questionnaires, des enquêtes de satisfaction dont le dispositif était laborieux à mettre en œuvre, la data science a permis une avancée considérable.

En effet, aujourd’hui nous pouvons analyser en temps réel les habitudes des utilisateurs à des milliers de kilomètres. L’UX designer a désormais toutes les cartes en mains pour prendre les bonnes décisions. Il peut réaliser des tests en direct sur des panels de milliers d’utilisateurs.

Le design visuel a aujourd’hui sa place à la table des décisions stratégiques des entreprises. Il y a une conscience beaucoup plus forte qu’il y a 5 ans de l’importance de l’UX à tous les niveaux. Les outils ont aussi fortement évolué.

Il est aujourd’hui beaucoup plus facile qu’avant de fabriquer des prototypes interactifs, de collaborer sur des maquettes, de faire de la recherche utilisateur quantitative. On voit d’ailleurs de nouvelles spécialisations dans le métier : strategic design, UX, UI, illustration, animation, prototypage, recherche utilisateur…

S’il faut une preuve que l’UX devient stratégique, on a remarqué que le ratio UX designer/développeur a beaucoup augmenté dans les entreprises.

 

L’UX Designer et le Product Manager, nouvelles rock stars du 21ème siècle dans le secteur IT

L’UX designer réalise les maquettes qui montreront l’usage de fonctionnalités et prend en compte les retours des utilisateurs pour faire évoluer le produit. Le Product Manager, quant à lui, formalise le problème à résoudre et spécifie les fonctionnalités.

Les deux métiers sont complémentaires et travaillent de concert ; sans cela les fonctionnalités qui arrivent dans les mains de l’utilisateur ont très peu de chance d’être ergonomiques et risquent même d’être rejetées.

Une personne qui incarne les intérêts de l’utilisateur permet d’assurer que le sujet sera pris en compte en permanence dans le développement du produit, au même titre que la sécurité ou la qualité.

En général, le Product Manager couvre souvent une partie des compétences UX, mais avoir une ou des personnes dédiées renforce considérablement l’action sur le sujet, pour atteindre la masse critique de compréhension de l’utilisateur.

De plus, les compétences et outils des designers sont spécifiques et ne sont parfois pas ou peu présents dans les équipes. Leurs méthodes comme le design thinking ou le lean UX peuvent également apporter à tous les départements.

 

L’UX peut avoir un impact sur l’accélération du développement d’une entreprise

Un travail sur l’UX permet d’investir les ressources de développement sur les bons sujets et d’augmenter la valeur délivrée, à temps de développement égal. Résultat : moins d’itérations requises pour atteindre la satisfaction du client final.

Autre facteur important : la politique ! Sans réflexion sur l’UX de l’identification du problème à l’exécution, nous risquons de faire et défaire suite aux réactions en interne, en naviguant à vue et au gré des biais (les gens qui développent le produit ne sont pas ceux qui l’utilisent).

 

L’UX joue une différence dans l’adoption d’un produit

C’est certainement la finalité. Aujourd’hui l’adoption d’un produit doit se faire en moins de quelques heures pour le B2B et en moins de quelques minutes pour le B2C ! Pour cela, les interfaces proposées doivent être ultra simples et très intuitives.

Nous l’aurons compris, l’expérience utilisateur influe directement sur la rapidité d’un utilisateur à atteindre son objectif, par exemple en accomplissant une tâche beaucoup plus vite qu’avant. C’est ce qui produit le fameux « Wow effect ». Slack ou Citymapper en font de très bonnes illustrations dans leurs produits et parviennent en plus à créer une relation ludique qui va inciter l’utilisateur à aller plus loin avec son produit.

 

 

Afficher la suite

Avis d'experts

Le retour de l’IA ou le syndrome du poisson rouge ?

Publié

le

 

Le poisson rouge se caractérise par une capacité mémorielle extrêmement limitée. Cela implique que « tout est nouveau pour lui ».

Nous vivons cela actuellement avec l’Intelligence Artificielle que nous découvrons avec enthousiasme mais également inquiétude…

 

 


Une tribune de  Robert Bentz, Directeur Adjoint FWA


 

 

 

Si l’Intelligence Artificielle n’est pas un concept novateur, pourquoi autant d’interrogations, que s’est-il passé ?

Très globalement « rien » de particulier, nous avons eu un enflammement des esprits dans les années 80 avec des outils, des techniques, l’association avec les sciences humaines, et des progrès dans les matériels, qui nous laissaient espérer des applications toujours plus performantes et répondant aux nouveaux besoins utilisateurs. Et puis plus rien, car trop d’espoirs déçus.

Globalement le marketing de l’IA a placé trop d’espoirs dans un ensemble de techniques, méthodes et bonnes volontés, qui n’ont pas été au rendez vous en termes de visibilité.

Par exemple dans les unités de services militaires , le nucléaire et globalement les entités à forte technologie et à moyens économiques suffisants, les avancées ont été importantes, mais trop peu visibles (ou montrables).

 

Alors pourquoi autant d’engouement, aujourd’hui ?

Parce qu’entre temps les équipes de recherche et de développement ont continué à développer des solutions et des idées. L’ingénierie cognitive, l’analyse linguistique, la reconnaissance visuelle, les technologies et les calculateurs embarqués ont fait des progrès (énormes sur les trois décennies d’oubli de l’IA).

Des applications très visibles comme la voiture autonome, les robots assistants deviennent des réalités tangibles et accessibles.

Les constructeurs automobiles européens traditionnels ne sont pas totalement déconnectés, ils sont capables de faire presque aussi bien techniquement que les nord-américains, avec des moyens beaucoup plus modestes. Mais sans réelle envie d’abandonner la construction traditionnelle.

 

Et comme toujours, le sujet technologique de l’IA, suscite des convoitises ou des peurs.

IBM, qui ne croyait pas en l’IA dans les années 80, se pose aujourd’hui en leader du sujet. Xerox qui par ses recherches a largement contribué à l’évolution des technologies et en particulier de l’IA, n’est plus là, car trop occupé à gérer son virage vers le service. Les japonais nous ont fait réellement très peur avec leurs calculateurs 5e génération dans les années 80 (MITI). Et l’on recommence avec les Chinois et AI-Maths qui a été présenté à la presse le 7 juin 2017.

Peurs incontrôlées ou organisées, tout devient questions d’affolement dès que l’on pose la question d’l’IA. Un autre exemple frappant, celui de Facebook qui a été dénoncé par ses deux systèmes intelligents qui se sont mis à échanger entre eux dans un langage que nous ne comprenons pas. A bien y regarder il s’agit d’un non-événement. Les technophiles se sont bien amusés mais sans intérêt pour la science.

Reflet de la mode, notre président vient de nommer Cédric Villani (député, mathématicien et lauréat de la médaille Fields en 2010), « chargé de mission sur l’intelligence artificielle, en vue de construire une stratégie nationale ». C’est bien, mais c’est simplement dans la vague médiatique en cours. Que générera cette mission ? Je ne sais pas. Mais par expérience je ne fonde que peu d’espoir sur la mission d’une personne.

Alors oui l’Intelligence Artificielle existe depuis longtemps et progresse régulièrement. Il faut identifier les propositions, les projets intéressants, les équipes capables, élargir le cercle à l’Europe pour gagner en puissance, et donner les moyens humains et matériels pour que les projets se réalisent.

Une part seulement des projets seront des réussites totales ou partielles, mais ils peuvent donner une impulsion réelle à l’émergence (enfin) de projets réussis.

Alors analysons l’histoire et son évolution, et en organisation mature, prenons les bonnes décisions pour faire évoluer notre société. Nous sommes capables de faire mieux que les poissons rouges…

 

 

 

Afficher la suite

must read