Connect with us

Avis d'experts

Les Français ne savent pas vraiment ce qu’est le Big Data … mais s’en méfient quand même

Publié

le

Comment les Français perçoivent et comprennent le Big Data ? A l’occasion du salon Big Data Paris, Harris Interactive vient de publier les résultats d’une enquête qui permet de dresser un état des lieux de la relation (ambiguë) qu’entretiennent les Français avec ce sujet…

 

Dans le cadre de l’édition 2016 du salon annuel Big Data Paris, qui se tient les 7 et 8 mars, Quantmetry a demandé à Harris Interactive de réaliser une étude d’opinion permettant de mieux comprendre quel rapport les Français entretiennent avec le terme « Big Data », avec la réalité d’une exploitation des données, et quelles attentes ils peuvent formuler dans ce contexte en mutation.

 

Une notion encore floue pour la majorité des Français

Les Français expriment une certaine distance, voire parfois de la méfiance, vis-à-vis du « Big Data ». Néanmoins, ils le perçoivent comme un sujet important pour aujourd’hui comme pour demain, une opinion plus positive notamment portée par les Français ayant déjà pu se familiariser avec le terme « Big Data » et ses utilisations.

« Big Data ». S’il n’existe pas de consensus sur la définition de ce terme parmi les spécialistes, quelles représentations les Français peuvent-ils en avoir ? Interrogés sur les évocations qui leurs viennent spontanément à l’esprit lorsqu’ils pensent au « Big Data », seule une minorité de Français s’estime capable de répondre à cette question et 59% d’entre eux indiquent ne pas savoir ce que signifie ce terme.

Les Français s’estimant en capacité de s’exprimer identifient correctement l’univers du « Big Data » (« informatique », « Internet », « Cloud », « stockage »). Par ailleurs, dès cette première question, apparaissent les doutes qu’une partie d’entre eux peut exprimer quant à l’utilisation supposée de ces données (« espionnage », « Big Brother », « marketing »).

 

big-data-harris-1

 

 

Un manque d’informations…

Quelle que soit leur connaissance du terme et des réalités qu’il recouvre, les Français ont été appelés à s’exprimer sur la fréquence à laquelle ils ont entendu parler de « Big Data » au cours des 6 derniers mois. Plus de 6 sur 10 (61%) indiquent qu’ils n’ont pas même une fois entendu ce terme au cours du dernier semestre.

Par ailleurs, 19% des Français affirment en avoir entendu parler moins d’une fois par mois, et seulement 17% plus souvent. Notons que si seul un tiers (36%) de l’ensemble Français affirme avoir entendu parler de « Big Data » au cours des 6 derniers mois, ils sont un peu plus nombreux parmi les hommes (47%), les PCS+ (54%), les Franciliens (44%) et les personnes ayant obtenu un diplôme supérieur à Bac +2 (52%).

Conscients de leurs limites sur ce sujet, les Français se définissent très majoritairement (87%) comme mal informés concernant l’utilisation du « Big Data » par les entreprises et les organismes publics d’une manière générale (59% se disant même « très mal informés »).

Ce taux atteint même 91% parmi les femmes et 90% parmi les 50 ans et plus. A l’inverse, 1 Français sur 10 estime qu’il est bien informé sur ce sujet (10%, 2% « très bien informé »), ici encore, particulièrement, bien que de façon minoritaire, parmi les hommes (15%), les PCS+ (18%) et les Franciliens (16%).

Notons enfin que parmi les personnes ayant entendu parler du « Big Data » au moins 1 fois par semaine au cours des 6 derniers mois, soit les Français les plus familiers avec ce domaine, seuls 54% s’estiment bien informés.

 

big-data-harris-2-1024x687

 

 

Preuve de cette information parcellaire, les Français se montrent partagés sur l’utilisation du « Big Data » par les différents acteurs publics et privés testés dans l’étude.

Ainsi peu de différences sont observées entre Netflix et EDF, 2 sociétés dont l’activité utilise du « Big Data » selon 1 Français sur 2 (50%), et Pôle Emploi, dernier de la liste, pour qui cette opinion est partagée par 42% des Français.

Notons que les personnes ayant été en mesure d’identifier le « Big Data », perçoivent davantage le recours des acteurs à cet outil mais sans qu’une hiérarchie claire apparaisse ici également (de 59% pour Pôle Emploi à 73% pour Netflix).

Enfin, l’indécision des Français ne doit pas laisser croire à une opinion peu structurée : au contraire, elle s’organise autour des deux positionnements monolithiques : un tiers (35%) des Français estime qu’aucun des acteurs testés n’a recours au « Big Data » alors qu’un autre tiers (31%) adopte la position strictement opposée en affirmant que tous les acteurs testés utilisent cette technologie.

 

… qui génère une forte méfiance

Dans ce contexte de connaissance parcellaire du « Big Data », les Français ont été invités à s’exprimer sur leurs pratiques sur Internet. Plus exactement, ils ont été interrogés sur l’évolution de leurs pratiques en termes de communication de leurs données personnelles.

Si 53% d’entre eux affirment qu’ils n’y a pas eu de changement dans ce domaine, plus d’1 sur 4 (28%) indique qu’il accepte moins facilement de communiquer ce type de données aujourd’hui qu’il y a quelques années (et même 32% des 65 ans et plus), contre 17% des Français affirmant qu’ils acceptent plus facilement de les communiquer (et même 24% parmi les populations les plus technophiles).

Cette évolution déclarée du rapport aux données personnelles peut être en partie expliquée par la méfiance de près de 6 Français sur 10 quant à l’usage « responsable et raisonnable » qu’en feraient les entreprises. Ces mêmes doutes accompagnent la capacité de cette technologie à résoudre la crise et le chômage (75%).

A l’inverse, une majorité de Français estime que le recours aux données va être de plus en plus utilisé (78%), qu’il permettra de proposer une offre et des services personnalisés (62%), et qu’il s’agit d’un sujet qui devrait être prioritaire pour les entreprises et les organismes publics (58%) car leur permettant de s’améliorer (respectivement 54% et 52%).

Notons que plus les Français se sentent au fait de ces sujets, et plus ils anticipent positivement les différentes dimensions testées ici. Plus largement, le recours au données est vu comme une amélioration des services selon une moitié de Français, avec néanmoins des différences lorsque l’on considère les consommateurs (44%), les usagers (47%) ou les citoyens (52%). Ici encore, les personnes bien informées sur le sujet et les plus technophiles sont davantage enclins à percevoir les effets positifs des données.

 

big-data-harris-3-1024x680

 

Dans un contexte en perpétuelle mutation, en quels acteurs les Français déclarent-ils avoir confiance en ce qui concerne la gestion des données ?

Après les professionnels de santé (67%), les acteurs publics sont identifiés comme ceux captant majoritairement la confiance des Français: 65% de confiance pour la CNIL, 62% pour les organismes publics (sécurité sociale, etc.)…

Si les acteurs privés traditionnels se démarquent des réseaux sociaux et grand acteurs du web, objets d’une méfiance toute particulière (18% de confiance pour 78% de non confiance), ils bénéficient aujourd’hui d’une confiance en matière de gestion des données qui apparaît limitée (entre un quart et la moitié des Français seulement indiquent leur faire confiance aujourd’hui).

La même hiérarchie entre les acteurs se dessine lorsque l’on interroge les Français sur les domaines dans lesquels ils sont favorables à une utilisation plus importantes des données : professionnels de santé et acteurs publics arrivent en tête, mais avec le soutien d’à peine la moitié des Français.

Que ce soit pour la confiance ou les domaines dans lesquels ils pourraient considérer une utilisation plus importante des données, les Français se sentant les mieux informés sur le « Big Data » se montrent bien plus positifs que ceux qui s’en sentent distants.

 

big-data-harris-4

 

Cette réticence face à une utilisation croissante des données par les différents acteurs va de pair avec l’importante proportion de Français (61%) qui ne souhaite ni recevoir des publicités ciblées par rapport à leur historique de recherches, ni offrir aux entreprises ou aux pouvoirs publics la possibilité de les localiser, ni renoncer à la possibilité d’effacer leurs publications partagées, ni laisser les entreprises vendre ou louer leurs données.

Notons néanmoins que cette opinion est principalement partagée par les personnes se sentant les moins bien informées sur le « Big Data », et qu’à l’inverse près de 4 Français sur 10 seraient prêt à accepter une de ces propositions si on lui garantissait l’accès à de meilleurs offres, à de meilleurs prix ou à de meilleurs services.

 

Au final, dans le contexte actuel d’une information parcellaire, souvent corrélée à une attitude de méfiance, voire de rejet, vis-à-vis du « Big Data », mais bien moins importante parmi les catégories de la population qui ont commencé à s’y familiariser, seuls 15% des Français perçoivent le « Big Data » comme une source d’opportunité pour les consommateurs dont les besoins seront mieux connus, alors que 81% estiment qu’ils sera à l’origine de risques de « fichage » de ces mêmes consommateurs.

 

Méthodologie
Enquête réalisée en ligne du 29 février au 2 mars 2016. Échantillon de 1 487 personnes, représentatif des Français âgés de 18 ans et plus. Méthode des quotas et redressement appliqués aux variables suivantes : sexe, âge, catégorie socioprofessionnelle et région de l’interviewé(e).

 

Source : Harris Interactive 

 

Avis d'experts

4 astuces pour structurer la donnée et booster vos performances

Publié

le

La connaissance de vos clients est votre meilleur investissement pour les fidéliser et les transformer en ambassadeurs de votre marque.

A cette fin, il est primordial de faire sauter les cloisons entre on et offline : la réconciliation entre ces deux mondes est indispensable pour unifier et personnaliser l’expérience utilisateur sur l’ensemble des écrans et des canaux de vente.

Un objectif qui passe par une structuration de la donnée : voici quatre astuces pour gérer efficacement cette rupture technologique et booster vos performances.

 

 


Une tribune de Gilles Liguori, Directeur Associé de KP Consulting


 

 

 

Astuce n° 1 : identifiez l’ensemble des sources d’information à consolider

Personne ne l’ignore : les prospects et les clients de l’entreprise vivent dans un monde ultra connecté, où ils jonglent d’un canal – physique ou virtuel – à l’autre en permanence. A ce titre, ils sont toujours pus exigeants : ils veulent que les marques et les entreprises soient capables de le suivre dans leur parcours sans couture pour leur proposer une communication personnalisée, dans laquelle leurs besoins sont anticipés et adressés avec pertinence, et selon une relation privilégiée.

Accompagner les consommateurs d’aujourd’hui efficacement implique dont de les connaître sur le bout des doigts. Pour leur proposer des expériences intelligentes, aptes à créer de l’engagement auprès de l’entreprise, il est nécessaire de collecter à leur sujet des données précises et accessibles. C’est la condition sine qua non pour bénéficier d’une vision unifiée de vos clients, identifiés sur l’ensemble des plates-formes et des canaux – digitaux ou non.

Pour une efficacité maximale, la gestion de l’information et la collecte de données de haute qualité impose un pré-requis : déterminer précisément l’ensemble des sources d’information à consolider au sein d’un seul et unique emplacement. Dès lors, il sera possible de créer des liens entre le on et le offline, ainsi qu’entre les “first-party” et les “third-party” data, c’est-à-dire les données propres de l’annonceur et celles issues de data providers. Une fois associées, ces données favorisent la conversion en ajoutant de la valeur là où se trouve le besoin précis du client. Et elles ouvrent la voie à une personnalisation réellement intelligente.

 

Astuce n° 2 : connectez les données à votre DMP dans une logique omnicanal et mobile

Collecter, stocker et traiter les informations comportementales du visiteur d’un site Web : c’est l’objectif de la DMP (pour Data Management Platform), qui désigne une plate-forme de gestion de données permettant d’interagir efficacement avec vos clients et vos prospects.

La DMP vise ainsi trois objectifs : améliorer votre connaissance client, personnaliser les messages et l’expérience client, et optimiser le retour sur investissement marketing.

Seule technologie capable d’agréger et d’unifier l’ensemble des données online et offline relatives à un contact, la DMP est un moyen efficace pour répondre aux attentes des nouvelles générations de consommateurs ultra connectés. Ses usages sont variés : optimisation du ciblage publicitaire, personnalisation de l’offre et de l’expérience utilisateur, analyse d’audience dans une logique de datamining

La connexion des données à la DMP permet de les traiter en vue de définir des profils uniques. Elle autorise par ailleurs une analyse et une segmentation pertinentes des données pour créer des audiences et, in fine, activer les leviers digitaux adéquats. Et ainsi booster vos objectifs en matière de performance digitale, qu’il s’agisse de prospection, d’acquisition de trafic, de conversion ou encore de fidélisation.

 

Astuce n° 3 : combinez DMP et CRM-onboarding pour une véritable interaction entre on et offline

Vous disposez au sein de vos bases CRM offline d’une richesse d’informations unique et d’un lot de données précieuses sur vos clients : données de contact, historique d’achat, segmentation de votre clientèle, informations issues de votre réseau de distribution… Votre écosystème digital vous fournit également un véritable potentiel en termes de ciblage et de personnalisation. Oui, mais comment l’exploiter si vous n’entretenez pas une relation digitalisée continue avec vos clients ? Comment les identifier quand ils naviguent anonymement online ?

Dans ce contexte, l’intérêt du CRM-onboarding présente un intérêt évident : il vous permet de digitaliser et de connecter les données CRM offline à votre écosystème digital sans que les contacts ciblés n’aient eu au préalable d’interaction en ligne avec vous. Il apporte ainsi un incrément massif et immédiat de données “first-party” d’origine CRM, activables dans des plates-formes technologiques et media telles que la DMP.

Alimenter les outils d’activation avec de la donnée CRM digitalisée sert de nombreux objectifs : exclure vos clients existants des campagnes d’acquisition qui ne les concernent pas, personnaliser les publicités en fonction de la segmentation offline, réactiver d’anciens clients que vous aimeriez bien voir revenir, mesurer les investissements digitaux sur les ventes offline, mais aussi réaliser du customer match ou un ciblage d’utilisateurs online similaires à vos clients.

A la clé, le CRM, désormais digitalisé et connecté aux plates-formes online, permet d’identifier et de cibler précisément votre communauté sur l’ensemble des canaux. Avec pour conséquences vertueuses, une communication personnalisée et assurée en temps réel, et des investissements digitaux mesurables avec précision quant à la transformation offline.

 

Astuce n° 4 : misez sur l’attribution offline pour mesurer vos performances

La convergence entre les informations online et offline vous offre une vision globale de vos performances sur l’ensemble des canaux. Ainsi, dans une démarche de CRM-onboarding, l’attribution a pour objectif de vous apporter encore de la nouvelle donnée : celle nécessaire à la mesure de l’impact des campagnes marketing sur le parcours d’achat, dont il est attendu la plus grande objectivité possible.

Chercher à définir le meilleur modèle d’attribution en fonction du parcours client, c’est viser à savoir comment les clients transformés sur un point de vente physique ont été exposés à une campagne digitale. L’attribution display, d’abord, permet de mesurer la contribution des investissements display dans la transformation offline (magasin, réseau, call-center).

L’attribution Adwords, le Paid Search et le Native Ads (Facebook Ads, LinkedIn Ads, Outbrain, Taboola, etc.) offrent quant à eux la possibilité de mesurer la contribution des liens sponsorisés dans cette transformation.

Grâce à l’attribution, les entreprises sont capables de comprendre les enjeux liés à la mesure de la performance d’un mix-media marketing digital et omnicanal. En mesurant le ROI des campagnes médias online et offline, vous bouclez ainsi la boucle : vous avez à votre service un dispositif de mesure et d’analyse diablement efficace pour optimiser leurs investissements !

Et vous, qu’en pensez-vous ? Partagez avec nous vos astuces pour booster vos performances autour de la donnée !

Si cet article vous a plu, je vous invite à télécharger notre livre blanc “Comment en finir avec la jungle des données client ?”

 

 

Afficher la suite

Avis d'experts

UX Designer : quel rôle pour engager toujours plus l’expérience utilisateur ?

Publié

le

UX : deux petites lettres qui prennent de plus en plus de sens dans une stratégie de marque. On ne les connaît pas encore très bien, mais elles suscitent une curiosité et un engouement croissants.

L’UX ou User Experience (expérience utilisateur) a envahi nos vies, en particulier nos expériences numériques, pour que le temps que nous passons sur les applications et sites web soit aussi plaisant et efficace que possible.

 

 


Une tribune de Antoine Auriol, UX Product Manager chez One2Team


 

 

Le métier d’UX designer est de plus en plus en vogue avec l’arrivée des smartphones. Aujourd’hui, le design visuel (l’UI ou User Interface) ne suffit plus, il faut pouvoir l’allier à son utilité. En effet, il faut que l’appareil, le logiciel ou l’application soit facile d’utilisation, ergonomique et fluide avec la possibilité de se connecter de n’importe où.

C’est là que l’UX designer a un rôle clé à jouer, notamment dans la stratégie et la croissance de l’entreprise.

Un UX designer présente aussi un avantage compétitif majeur. Une bonne expérience utilisateur va générer de l’adoption et reste un facteur clé de différenciation. Le niveau d’attente sur la facilité d’utilisation est aujourd’hui très élevé chez le grand public, grâce à l’adoption massive des produits développés par les GAFA (Google, Apple, Facebook ou Amazon) ou par des startups innovantes.

 

L’UX designer au cœur de la stratégie digitale de l’entreprise

Le métier a quant à lui beaucoup évolué ces dernières années. Si nous parlions d’ergonomie au départ avec des questionnaires, des enquêtes de satisfaction dont le dispositif était laborieux à mettre en œuvre, la data science a permis une avancée considérable.

En effet, aujourd’hui nous pouvons analyser en temps réel les habitudes des utilisateurs à des milliers de kilomètres. L’UX designer a désormais toutes les cartes en mains pour prendre les bonnes décisions. Il peut réaliser des tests en direct sur des panels de milliers d’utilisateurs.

Le design visuel a aujourd’hui sa place à la table des décisions stratégiques des entreprises. Il y a une conscience beaucoup plus forte qu’il y a 5 ans de l’importance de l’UX à tous les niveaux. Les outils ont aussi fortement évolué.

Il est aujourd’hui beaucoup plus facile qu’avant de fabriquer des prototypes interactifs, de collaborer sur des maquettes, de faire de la recherche utilisateur quantitative. On voit d’ailleurs de nouvelles spécialisations dans le métier : strategic design, UX, UI, illustration, animation, prototypage, recherche utilisateur…

S’il faut une preuve que l’UX devient stratégique, on a remarqué que le ratio UX designer/développeur a beaucoup augmenté dans les entreprises.

 

L’UX Designer et le Product Manager, nouvelles rock stars du 21ème siècle dans le secteur IT

L’UX designer réalise les maquettes qui montreront l’usage de fonctionnalités et prend en compte les retours des utilisateurs pour faire évoluer le produit. Le Product Manager, quant à lui, formalise le problème à résoudre et spécifie les fonctionnalités.

Les deux métiers sont complémentaires et travaillent de concert ; sans cela les fonctionnalités qui arrivent dans les mains de l’utilisateur ont très peu de chance d’être ergonomiques et risquent même d’être rejetées.

Une personne qui incarne les intérêts de l’utilisateur permet d’assurer que le sujet sera pris en compte en permanence dans le développement du produit, au même titre que la sécurité ou la qualité.

En général, le Product Manager couvre souvent une partie des compétences UX, mais avoir une ou des personnes dédiées renforce considérablement l’action sur le sujet, pour atteindre la masse critique de compréhension de l’utilisateur.

De plus, les compétences et outils des designers sont spécifiques et ne sont parfois pas ou peu présents dans les équipes. Leurs méthodes comme le design thinking ou le lean UX peuvent également apporter à tous les départements.

 

L’UX peut avoir un impact sur l’accélération du développement d’une entreprise

Un travail sur l’UX permet d’investir les ressources de développement sur les bons sujets et d’augmenter la valeur délivrée, à temps de développement égal. Résultat : moins d’itérations requises pour atteindre la satisfaction du client final.

Autre facteur important : la politique ! Sans réflexion sur l’UX de l’identification du problème à l’exécution, nous risquons de faire et défaire suite aux réactions en interne, en naviguant à vue et au gré des biais (les gens qui développent le produit ne sont pas ceux qui l’utilisent).

 

L’UX joue une différence dans l’adoption d’un produit

C’est certainement la finalité. Aujourd’hui l’adoption d’un produit doit se faire en moins de quelques heures pour le B2B et en moins de quelques minutes pour le B2C ! Pour cela, les interfaces proposées doivent être ultra simples et très intuitives.

Nous l’aurons compris, l’expérience utilisateur influe directement sur la rapidité d’un utilisateur à atteindre son objectif, par exemple en accomplissant une tâche beaucoup plus vite qu’avant. C’est ce qui produit le fameux « Wow effect ». Slack ou Citymapper en font de très bonnes illustrations dans leurs produits et parviennent en plus à créer une relation ludique qui va inciter l’utilisateur à aller plus loin avec son produit.

 

 

Afficher la suite

Avis d'experts

Le retour de l’IA ou le syndrome du poisson rouge ?

Publié

le

 

Le poisson rouge se caractérise par une capacité mémorielle extrêmement limitée. Cela implique que « tout est nouveau pour lui ».

Nous vivons cela actuellement avec l’Intelligence Artificielle que nous découvrons avec enthousiasme mais également inquiétude…

 

 


Une tribune de  Robert Bentz, Directeur Adjoint FWA


 

 

 

Si l’Intelligence Artificielle n’est pas un concept novateur, pourquoi autant d’interrogations, que s’est-il passé ?

Très globalement « rien » de particulier, nous avons eu un enflammement des esprits dans les années 80 avec des outils, des techniques, l’association avec les sciences humaines, et des progrès dans les matériels, qui nous laissaient espérer des applications toujours plus performantes et répondant aux nouveaux besoins utilisateurs. Et puis plus rien, car trop d’espoirs déçus.

Globalement le marketing de l’IA a placé trop d’espoirs dans un ensemble de techniques, méthodes et bonnes volontés, qui n’ont pas été au rendez vous en termes de visibilité.

Par exemple dans les unités de services militaires , le nucléaire et globalement les entités à forte technologie et à moyens économiques suffisants, les avancées ont été importantes, mais trop peu visibles (ou montrables).

 

Alors pourquoi autant d’engouement, aujourd’hui ?

Parce qu’entre temps les équipes de recherche et de développement ont continué à développer des solutions et des idées. L’ingénierie cognitive, l’analyse linguistique, la reconnaissance visuelle, les technologies et les calculateurs embarqués ont fait des progrès (énormes sur les trois décennies d’oubli de l’IA).

Des applications très visibles comme la voiture autonome, les robots assistants deviennent des réalités tangibles et accessibles.

Les constructeurs automobiles européens traditionnels ne sont pas totalement déconnectés, ils sont capables de faire presque aussi bien techniquement que les nord-américains, avec des moyens beaucoup plus modestes. Mais sans réelle envie d’abandonner la construction traditionnelle.

 

Et comme toujours, le sujet technologique de l’IA, suscite des convoitises ou des peurs.

IBM, qui ne croyait pas en l’IA dans les années 80, se pose aujourd’hui en leader du sujet. Xerox qui par ses recherches a largement contribué à l’évolution des technologies et en particulier de l’IA, n’est plus là, car trop occupé à gérer son virage vers le service. Les japonais nous ont fait réellement très peur avec leurs calculateurs 5e génération dans les années 80 (MITI). Et l’on recommence avec les Chinois et AI-Maths qui a été présenté à la presse le 7 juin 2017.

Peurs incontrôlées ou organisées, tout devient questions d’affolement dès que l’on pose la question d’l’IA. Un autre exemple frappant, celui de Facebook qui a été dénoncé par ses deux systèmes intelligents qui se sont mis à échanger entre eux dans un langage que nous ne comprenons pas. A bien y regarder il s’agit d’un non-événement. Les technophiles se sont bien amusés mais sans intérêt pour la science.

Reflet de la mode, notre président vient de nommer Cédric Villani (député, mathématicien et lauréat de la médaille Fields en 2010), « chargé de mission sur l’intelligence artificielle, en vue de construire une stratégie nationale ». C’est bien, mais c’est simplement dans la vague médiatique en cours. Que générera cette mission ? Je ne sais pas. Mais par expérience je ne fonde que peu d’espoir sur la mission d’une personne.

Alors oui l’Intelligence Artificielle existe depuis longtemps et progresse régulièrement. Il faut identifier les propositions, les projets intéressants, les équipes capables, élargir le cercle à l’Europe pour gagner en puissance, et donner les moyens humains et matériels pour que les projets se réalisent.

Une part seulement des projets seront des réussites totales ou partielles, mais ils peuvent donner une impulsion réelle à l’émergence (enfin) de projets réussis.

Alors analysons l’histoire et son évolution, et en organisation mature, prenons les bonnes décisions pour faire évoluer notre société. Nous sommes capables de faire mieux que les poissons rouges…

 

 

 

Afficher la suite

must read