
🔥 Produits recommandés : Canon EOS R6 II • DJI Mini 4 Pro • MacBook Pro M4
Pour la trentième fois aujourd’hui, j’ouvre Facebook sans réfléchir et je regarde ce qu’il y a dans le fil d’actualité.
Je vois des articles sur les dernières questions politiques aux États-Unis et en Australie.
La bulle de filtre fonctionne, mais je n’en suis pas vraiment conscient. Je continue à faire défiler les pages.
Un article paraît maintenant sur le fait que le changement climatique est dû à l’homme et que les énergies renouvelables sont porteuses d’espoir.
Je clique, je lis l’article pendant environ 30 secondes et je le partage avec quelques amis.
Encore une fois, ma perspective est limitée par la bulle de filtre. Mais je ne vois pas très bien ce qui se passe. J’ai l’impression d’avoir appris quelque chose et je me remets à faire défiler les pages.
Ensuite, je vois ce qui se passe dans la Ligue australienne de football, qui me passionne davantage.
J’ai l’impression d’être une personne informée, car je suis au courant des derniers événements politiques et je lis des articles sur les moyens de lutter contre le changement climatique. Je suis également en mesure de discuter avec ma famille de ce qui se passe au sein de l’AFL.
La bulle de filtre est en pleine vigueur, et elle limite ma perspective du monde.
Je n’ai jamais décidé consciemment que Facebook deviendrait ma principale source d’information. Mais c’est désormais ma façon de m’informer. Je suis tout à fait typique. Selon une nouvelle enquête du Pew Research Center, 68 % des Américains s’informent par le biais des médias sociaux.
Selon la même enquête, 57 % des personnes qui s’informent sur les médias sociaux s’attendent à ce que les informations soient largement inexactes.
Les « fake news » sont un problème bien connu depuis les dernières élections américaines, et Facebook fait tout ce qu’il peut pour les combattre.
Mais il existe un problème potentiellement plus important et plus insidieux que celui des « fake news ».
C’est la bulle filtrante, qui enferme les gens dans des modes de pensée très limités.
Qu’est-ce qu’une bulle de filtration ?
Selon Wikipedia, une bulle de filtre est « un état d’isolement intellectuel qui résulterait de recherches personnalisées lorsqu’un algorithme de site web devine de manière sélective les informations qu’un utilisateur aimerait voir sur la base d’informations le concernant, telles que sa localisation, son comportement antérieur en matière de clics et son historique de recherche ».
Voyons cela plus en détail.
Lorsque nous utilisons Google, Facebook, Twitter et de nombreux autres sites web, des algorithmes déterminent ce qui nous est présenté. Ces algorithmes sont basés sur la façon dont nous avons précédemment utilisé ces sites web et sur notre historique de navigation sur Internet.
C’est logique. Facebook, par exemple, ne peut pas nous montrer tout ce que nos amis publient en ligne. Il opère une sélection sur la base de ce qui est le plus susceptible de nous intéresser.
Le problème est le suivant :
Nous sommes plus enclins à nous intéresser à des contenus qui correspondent à notre point de vue actuel. Par exemple, si nous penchons politiquement vers le libéralisme, nous verrons du contenu qui vient d’un point de vue libéral. Si nous sommes plus conservateurs, Facebook apprendra au fil du temps que nous nous intéressons à des contenus qui sont un peu plus à droite.
Il ne s’agit pas d’une conspiration. Facebook n’a pas pour objectif d’enfermer les gens dans leur mode de pensée actuel. Au contraire, Facebook est conçu pour que les gens continuent à se connecter au site web tous les jours. Il veut que nous trouvions quelque chose qui nous intéresse.
Si notre fil d’actualité affichait un contenu qui remettait en question notre vision actuelle du monde, nous commencerions probablement à trouver d’autres sources d’information.
C’est peut-être mieux pour nous en tant qu’individus. Mais ce n’est pas bon pour Facebook. Ils veulent que nous passions plus de temps à l’utiliser chaque jour pour que nous soyons plus utiles à la publicité.
D’autres entreprises technologiques sont animées par des motivations similaires.
Au début des années 2000, le juriste américain Cass Sunstein a mis en garde contre cette éventualité.
L’Internet, a-t-il dit, peut nous permettre d’établir un patrimoine commun mondial qui nous permet de surmonter les barrières géographiques et sociales entre les gens en ayant accès à des perspectives plus équilibrées. Mais il est tout aussi possible que nous érigions simplement de nouveaux murs à mesure que les personnes partageant les mêmes idées se siphonnent pour former des groupes homogènes de personnes partageant toutes le même point de vue et tirant leurs opinions des mêmes sources.
Bien que des millions de personnes utilisent l’internet pour élargir leurs horizons, beaucoup font l’inverse, créant un « Daily Me » spécifiquement adapté à leurs propres intérêts et préjugés », écrit-il.
La question peut sembler anodine. Mais les bulles de filtre créent des chambres d’écho, une situation dans laquelle nos croyances sont amplifiées ou renforcées par la communication au sein d’un système fermé.
On pourrait penser qu’Internet est la technologie qui permet à une diversité d’idées de se répandre dans le monde et d’unir des personnes issues de communautés différentes. Au lieu de cela, des bulles de filtres sont apparues et contribuent à la polarisation du monde.
Comment éviter les bulles de filtration ?
La plupart des recommandations visant à éviter les bulles de filtres se concentrent sur l’élimination de l’impact de la personnalisation par les plateformes technologiques.
Il s’agit d’un aspect de la prévention des bulles de filtration, alors passons en revue quelques conseils :
- Utilisez des navigateurs incognito, effacez régulièrement vos historiques de recherche et essayez d’utiliser Internet autant que possible sans être connecté à vos comptes de médias sociaux.
- Supprimer ou bloquer les cookies de navigation.
- Lire activement les sites d’information qui favorisent la diversité des points de vue.
- Suivez activement les leaders d’opinion sur les médias sociaux qui partagent des points de vue plus équilibrés.
Il ne s’agit là que d’une première étape. Comme nous l’avons expliqué plus haut, le problème vient aussi de la façon dont les grandes entreprises médiatiques sont incitées à créer des contenus de plus en plus polarisés afin d’alimenter un public qui exige ce type de contenu.
Par conséquent, une autre étape clé que nous devons franchir consiste à rechercher des perspectives plus nuancées et plus équilibrées.
Je ne pense pas qu’il soit efficace d’éviter simplement les sites des grands médias et de les remplacer par des sites plus petits et plus indépendants. Cela aiderait probablement les gens à un niveau individuel, et je vous encourage certainement à essayer de trouver d’autres sources d’information.
Toutefois, à un niveau plus général, la réalité est que les sites de médias traditionnels deviendront des acteurs de plus en plus importants sur les médias sociaux dans les années à venir. En effet, Google et Facebook accordent plus de poids aux sources d’information « réputées » dans leurs efforts pour lutter contre la désinformation et les « fake news ».
Par conséquent, je pense qu’en tant que consommateurs, nous devons exiger davantage de nuances et d’équilibre dans la manière dont les médias grand public rendent compte de l’actualité.
Ces perspectives nuancées et équilibrées existent. Elles sont simplement noyées dans le sensationnalisme et les contenus polarisés qui obtiennent des clics et des vues.
Eli Pariser explique le fonctionnement des bulles de filtration
Le concept de bulles de filtres a été porté à l’attention du monde entier en 2012 par Eli Pariser avec la publication de The Filter Bubble : How the Personalized Web is Changing What We Read and How We Think (La bulle de filtres : comment le web personnalisé change ce que nous lisons et comment nous pensons). Pariser est le fondateur d’Upworthy, un site d’informations virales très populaire, et également un activiste.
Dans son livre fascinant, M. Pariser explique comment les recherches Google donnent des résultats radicalement différents en fonction de l’historique de navigation de l’utilisateur.
Par exemple, une recherche sur « BP » fait apparaître des informations relatives à l’investissement dans l’entreprise pour certaines personnes et des informations sur les marées noires pour d’autres.
Pariser considère votre ordinateur comme « une sorte de miroir sans tain, qui reflète vos propres intérêts tandis que des observateurs algorithmiques surveillent ce que vous cliquez ».
Ce miroir sans tain est la bulle de filtre en fonctionnement, créant un « écosystème personnel d’informations ».
Le résultat :
Nous sommes à l’abri de la dissonance cognitive, c’est-à-dire, en termes simples, de la présentation d’informations qui diffèrent de ce que nous croyons actuellement.
Chaque fois que nous cliquons sur un lien, regardons une vidéo, commentons quelque chose ou partageons un article d’actualité, nous communiquons aux grandes plateformes des informations sur ce qui nous intéresse.
Comme le dit Pariser :
« Ce qui était autrefois un média anonyme où n’importe qui pouvait être n’importe qui – où, pour reprendre les termes de la célèbre bande dessinée du New Yorker, personne ne sait que vous êtes un chien – est désormais un outil permettant de solliciter et d’analyser nos données personnelles ».
Les entreprises technologiques utilisent nos données personnelles pour nous présenter des publicités très ciblées.
« Si Gmail et Facebook sont des outils utiles et gratuits, ce sont aussi des moteurs d’extraction extrêmement efficaces et voraces dans lesquels nous déversons les détails les plus intimes de notre vie. En tant que stratégie commerciale, la formule des géants de l’internet est simple : Plus leurs offres d’informations sont pertinentes sur le plan personnel, plus ils peuvent vendre de publicités et plus vous êtes susceptibles d’acheter les produits qu’ils proposent. Et la formule fonctionne. Amazon vend pour des milliards de dollars de marchandises en prédisant ce qui intéresse chaque client et en le plaçant à l’avant du magasin virtuel ».
Nous fournissons aux entreprises technologiques des informations pertinentes sur nous-mêmes d’une manière dont vous n’avez probablement pas conscience. Pariser explique certaines des méthodes utilisées par Amazon pour mieux vous connaître :
« Lorsque vous lisez des livres sur votre Kindle, les données concernant les phrases que vous surlignez, les pages que vous tournez et le fait que vous lisiez directement ou que vous passiez d’une page à l’autre sont toutes renvoyées aux serveurs d’Amazon et peuvent être utilisées pour vous indiquer les livres qui pourraient vous intéresser ensuite. Lorsque vous vous connectez après une journée passée à lire des livres électroniques Kindle à la plage, Amazon peut subtilement personnaliser son site en fonction de ce que vous avez lu : Si vous avez passé beaucoup de temps à lire le dernier James Patterson, mais que vous n’avez fait que jeter un coup d’œil à ce nouveau guide diététique, vous verrez peut-être plus de thrillers commerciaux et moins de livres sur la santé ».
Cela fonctionne de la manière suivante:
« La plupart des filtres personnalisés sont basés sur un modèle en trois étapes. Tout d’abord, vous déterminez qui sont les gens et ce qu’ils aiment. Ensuite, on leur fournit le contenu et les services qui leur conviennent le mieux. Enfin, vous procédez à des ajustements pour obtenir la meilleure adéquation possible. Votre identité façonne vos médias. Il n’y a qu’une seule faille dans cette logique : Les médias façonnent également l’identité. Par conséquent, ces services peuvent finir par créer une bonne adéquation entre vous et vos médias en changeant … vous ».
Ces algorithmes continuent à nous nourrir d’informations pertinentes (et à nous montrer des publicités très pertinentes). Mais, selon M. Pariser, nous avons besoin d’un régime plus équilibré qui comprenne également des informations inconfortables, stimulantes et importantes. Il plaide pour des algorithmes qui encodent un sens de la responsabilité civique et un discours public qui nous permettent d’avoir des perspectives plus équilibrées. C’est ainsi que nous pourrons libérer tout le potentiel de l’internet.
L’internet devrait nous permettre de découvrir de nouvelles idées, de nouvelles personnes et des perspectives différentes. Mais les bulles de filtre empêchent cela de se produire.
Les médias sociaux nous enferment-ils dans des bulles de filtre ?
Sommes-nous vraiment « piégés » à l’intérieur de bulles de filtres par les entreprises technologiques, comme le laisse entendre M. Pariser ?
Selon Mark Zuckerberg, fondateur de Facebook, la réponse est non.
En 2016, Mark Zuckerberg a nié le fonctionnement des bulles de filtre dans le fil d’actualité de Facebook :
« Nous avons donc étudié l’effet dont vous parlez et publié les résultats de nos recherches qui montrent que Facebook, et les médias sociaux en général, sont les formes de médias les plus diversifiées qui existent. En fait, même si beaucoup de vos amis viennent du même milieu ou ont les mêmes convictions politiques ou religieuses, si vous connaissez quelques centaines de personnes, il y a de fortes chances que même un petit pourcentage, peut-être 5, 10 ou 15 % d’entre elles aient des points de vue différents, ce qui signifie que ces points de vue vont maintenant être affichés dans votre fil d’actualité.
« Et si vous comparez cela aux médias traditionnels où les gens choisissent généralement un journal ou une chaîne de télévision qu’ils veulent regarder et en tirent 100 % de l’information, les gens sont en fait exposés à beaucoup plus de types de contenus différents par le biais des médias sociaux qu’ils ne l’auraient fait autrement ou qu’ils ne l’ont été dans le passé. C’est donc une théorie qui sonne bien, et je comprends pourquoi les gens la répètent, mais ce n’est pas vrai. Je pense donc que si les gens lisent les études que nous publions, ils s’en rendront compte ».
Nous ne sommes probablement pas « piégés » dans une sorte de cauchemar orwellien où les entreprises technologiques nous lavent le cerveau et nous empêchent de voir des perspectives opposées.
Au contraire, c’est nous qui nous enfermons dans des bulles de filtres. Facebook permet cela.
Je m’explique.
Consommation des médias en fonction des identités politiques
En décembre 2018, Matt Grossman a rédigé un rapport pour la Knight Foundation intitulé Partisan Media and Political Distrust ( vous pouvez lire le résumé ici).
« Le choix des médias est devenu plus qu’auparavant un véhicule d’expression politique », écrit Grossmann. « Les partisans ont donc tendance à surestimer leur utilisation des médias partisans, tandis que la plupart des citoyens se tiennent à l’écart des informations politiques du mieux qu’ils peuvent.
Zuckerberg a probablement raison de dire que les médias sociaux nous offrent une plus grande variété de perspectives que si nous ne recevions nos informations que d’une seule source.
Mais beaucoup d’entre nous tirent encore l’essentiel de leurs informations de Facebook. Dans le même temps, l’étude de la Knight Foundation suggère également que nous utilisons de plus en plus notre consommation de médias d’information pour signifier nos identités politiques.
La consommation des médias devient de plus en plus un « acte politique expressif ». Par exemple, les républicains de droite pensent qu’ils devraient s’en tenir à Fox News, et les démocrates de droite pensent qu’ils devraient être fidèles à MSNBC.
Les médias sociaux présentent en surface une variété de médias polarisés
Les utilisateurs des médias sociaux et des moteurs de recherche sont exposés à des points de vue plus diversifiés. Une enquête Pew réalisée à l’occasion de l’élection présidentielle américaine de 2016 a révélé que la majorité des gens étaient confrontés à un éventail d’opinions dans leurs fils d’actualité sur les médias sociaux. Une étude de l’Université d’Ottawa est parvenue à des conclusions similaires. L’enquête menée auprès de 2 000 adultes britanniques a révélé que la majorité des personnes recherchent régulièrement des points de vue différents de ceux qu’elles ont déjà. La plupart des gens ont une idée raisonnable de ce que « l’autre côté » pense d’un sujet particulier.
Mais l’exposition à d’autres perspectives ne conduit pas les gens à adopter un point de vue plus modéré ou plus nuancé. En fait, ceux qui ont été exposés à d’autres perspectives ont fini par se conforter dans leur point de vue initial.
Une autre étude a procédé à une analyse linguistique des électeurs républicains exposés à des points de vue libéraux. Cela a entraîné une augmentation des sentiments négatifs et des mots émotifs utilisés dans leurs expressions à l’égard des leaders d’opinion libéraux.
Cela suggère que nos œillères ne sont peut-être pas directement causées par des bulles de filtre. Au contraire, nous devenons inconsciemment de plus en plus aveugles même lorsque nous sommes exposés à d’autres perspectives.
Le psychologue social Jonathan Haidt, de l’université de New York, l’explique comme suit:
« Si l’on se penche sur ce que les gens pensent des gens d’en face, on constate qu’ils sont devenus beaucoup plus hostiles.
Nous voulons consommer des contenus qui correspondent à nos identités politiques et à ce que nous croyons déjà être vrai.
Le problème n’est pas que les sites de médias sociaux et les moteurs de recherche nous empêchent de voir d’autres perspectives. Ils personnalisent ce que nous voyons et nous montrent des contenus avec lesquels nous sommes plus susceptibles de nous engager. Mais ils font également du bon travail en nous montrant un éventail de perspectives.
Le problème, c’est que les informations qui arrivent dans les fils d’actualité sont de plus en plus polarisées.
Les sites médiatiques sont incités à créer leurs propres chambres d’écho
Les bulles de filtres façonnent le monde dans lequel nous vivons, mais en même temps, nous sommes exposés à des perspectives extérieures à nos propres chambres d’écho.
Comment comprendre cela ?
Nous devons également comprendre le rôle que jouent les entreprises de médias et les intellectuels publics dans la création active de leurs propres chambres d’écho.
Ils sont incités à le faire en raison du fonctionnement des bulles de filtres. Pour se constituer une audience, ils doivent créer et partager des contenus qui trouveront un écho auprès des personnes qui considèrent les médias qu’ils consomment comme un « acte politique expressif ».
Dans le même temps, les gens sont de plus en plus polarisés et tribaux dans les informations qu’ils consomment, comme l’affirme le rapport de la Fondation Knight.
Les entreprises de médias sont donc incitées à créer un contenu polarisé afin d’atteindre les consommateurs qui considèrent la consommation de médias comme un acte politique expressif.
Une étude récente du Reuters Institute a publié des résultats qui vont dans ce sens. Le Digital News Report a étudié les enquêtes menées auprès de 70 000 personnes dans 13 pays, en se concentrant sur la consommation moderne de l’information. Le rapport a révélé une polarisation croissante aux États-Unis.
Les gens s’en tiennent de plus en plus à ce qu’ils considèrent comme des sources d’information « fiables » qui correspondent à leur identité politique. Par exemple, deux tiers des conservateurs regardent Fox News et 19 % visitent régulièrement le site web d’ultra-droite Breitbart.com.
Alors que les Américains de droite préfèrent Fox News, les libéraux se tournent vers des sites tels que Buzzfeed, CNN ou le New York Times pour s’informer.

Ce spectre entre la gauche et la droite n’est pas propre aux États-Unis. Il en va de même en Australie et dans la plupart des pays européens, où la politique est caractérisée par le clivage gauche-droite. Par exemple, voir les résultats pour le Royaume-Uni ci-dessous.

Il est essentiel pour les entreprises de médias de créer un contenu qui touche leur public. Dans le climat actuel, leur public est de plus en plus polarisé. Cela incite les entreprises de médias à créer des contenus de nature plus polarisée.
Dans le même temps, les médias sociaux deviennent très efficaces pour nous présenter des contenus avec lesquels nous sommes plus susceptibles de nous engager. Ils nous montrent également une diversité de points de vue, du moins par rapport à l’époque où nous recevions nos informations principalement par le biais des journaux et des magazines.
Mais en tant que consommateurs, nous sommes de plus en plus polarisés et le fait de voir d’autres perspectives ne fait que nous conforter dans ce que nous croyons déjà. Nous passons rapidement sur les articles de notre fil d’actualité qui pourraient nous aider à développer une perspective plus nuancée du monde.
Les médias sociaux ne sont pas la cause directe de notre enfermement dans des modes de pensée limités. Ils ne font que faciliter les choses, en nous apportant les médias polarisés que nous désirons de plus en plus.
Nous avons besoin des médias sociaux pour promouvoir l’engagement civique et des perspectives plus équilibrées
Les médias sociaux ne sont pas directement à l’origine de la polarisation croissante que nous observons dans le monde. Mais ils constituent une grande partie du problème.
Nous sommes immergés dans un flux constant d’indignations incroyables perpétrées par « l’autre côté ». Les médias sociaux nous permettent de voir cela plus facilement et de nous engager avec d’autres personnes qui font partie de nos propres chambres d’écho.
Il est peu probable que nous puissions renforcer la confiance et la compréhension entre les gens si les médias sociaux sont notre principal moyen de communication politique.
Nous devons reconnaître que nous sommes en crise et que le fossé gauche-droite est probablement infranchissable avec nos méthodes actuelles de communication et de consommation d’informations.
C’est vraiment dommage, car nous avons besoin de la politique pour unir les gens autour d’agendas à grande échelle qui nécessitent de transcender le clivage actuel entre la gauche et la droite.
La polarisation est là pour de nombreuses décennies, et elle va probablement s’aggraver. La question clé que nous devons nous poser est donc la suivante : comment adapter notre démocratie à la vie dans un contexte de polarisation intense ?
En attendant, chacun d’entre nous doit prendre la responsabilité d’éviter les bulles de filtre et les chambres d’écho.
Construire un moteur de recherche pour des perspectives nuancées et équilibrées
C’est pourquoi, chez Ideapod, nous créons un « filtre anti-bulles ». Il s’agit d’un nouveau type de moteur de recherche pour les informations, qui permet de faire apparaître des perspectives nuancées et équilibrées et de filtrer les médias d’information qui contribuent à la polarisation du corps politique.
Pour ce faire, nous procédons à un certain nombre d’analyses de réseaux sociaux, en cartographiant des centaines de « chambres d’écho », c’est-à-dire des communautés fondées sur la connaissance qui partagent régulièrement des informations entre elles. Ces chambres d’écho seront cartographiées en fonction des identités politiques qu’elles expriment. Par exemple, nous isolerons les chambres d’écho le long du continuum gauche-droite, tout en appliquant une analyse transversale des groupes de personnes qui partagent des perspectives similaires sur des questions provocatrices telles que le contrôle des armes à feu.
La plupart des contenus partagés en ligne sont bien accueillis dans une chambre d’écho particulière, mais ne font pas surface dans les chambres d’écho où les participants partagent un point de vue opposé.
Mais parfois, des contenus sont créés sur des sujets provocateurs qui sont partagés dans de multiples chambres d’écho. Ces contenus représentent donc un point de vue qui rassemble les gens dans une conversation.
Par exemple, imaginons qu’un article sur le contrôle des armes à feu aux États-Unis ait été partagé uniquement dans une chambre d’écho pro-Donald Trump et dans une chambre d’écho pro-Bernie Sanders. Cet article n’aurait peut-être pas un grand nombre de clics et ne représenterait pas une valeur pour le média grand public qui l’a publié. Mais notre moteur de recherche le ferait remonter à la surface car il contiendrait un point de vue qui aurait un impact sur des personnes issues de diverses chambres d’écho.
C’est le contenu que notre filtre anti-bulles fera remonter à la surface.
Nous mettons notre filtre anti-bulles à la disposition des journalistes d’ici la fin de l’année 2019, en amont des campagnes électorales présidentielles de 2020. Nous espérons qu’il aidera les journalistes à utiliser des sources plus nuancées et plus équilibrées en perspective.
Si vous souhaitez être le premier à utiliser une version préliminaire de notre prototype, vous pouvez vous inscrire ici.
Articles connexes de Ideapod
Découvrez une nouvelle approche révolutionnaire pour trouver votre but
De nos jours, de plus en plus de personnes sont confrontées à la question existentielle : « Quel est mon but dans la vie ? »
Mais pour beaucoup, il est difficile de connaître sa véritable raison d’être en raison de l’afflux écrasant d’attentes sociétales, de distractions et d’un manque d’outils d’introspection ou d’orientation.
C’est pourquoi Justin Brown, cofondateur d’Ideapod, a décidé de révéler une nouvelle approche contre-intuitive et révolutionnaire pour trouver votre véritable but dans la vie.
Il a appris cette technique qui a changé sa vie auprès d’un chaman au Brésil et s’est maintenant engagé à la partager avec le monde entier.
La technique est un peu bizarre mais très logique une fois qu’on l’a apprise.
Il ne s’agit pas de visualiser la vie que vous souhaitez dans le futur.
Et il n’est pas nécessaire de s’asseoir et de méditer pour le découvrir.
Il s’agit plutôt d’une approche nouvelle et innovante.
Si vous êtes intéressé par le développement personnel et que vous souhaitez clarifier votre véritable objectif dans la vie, consultez la masterclass gratuite de Justin.
Les avantages de la connaissance de son objectif :
- Clarté dans les choix de vie : Plus d’errance sans but, chaque décision est prise dans un but précis.
- Motivation accrue : Réveillez-vous chaque matin avec une vision claire de ce que vous voulez accomplir.
- Croissance personnelle : Relever les défis et évoluer en tant qu’individu.
- Connexions significatives : Favorisez des relations plus profondes en accord avec votre véritable personnalité.
Profitez de l’occasion pour participer à la masterclass gratuite du cofondateur d’Ideapod, Justin Brown.
Non seulement vous aurez un aperçu de cette nouvelle approche, mais vous apprendrez également de quelqu’un qui a fait des progrès significatifs dans le domaine du développement personnel et de la sensibilisation aux médias numériques.
Vous avez aimé mon article ? Likez moi sur Facebook pour voir plus d’articles comme celui-ci dans votre fil d’actualité.