CransWiki:

S'informer : science, discours, média

Cette promenade se compose de plusieurs chemins, initialement indépendants, mais qui finissent par se rejoindre…

Les points de départ sont :

Il s'agit d'avancer en parallèle et à sa guise sur ces trois chemins initiaux et de les terminer pour accéder aux chemins suivants !

Note de style : Quand un syntagme est souligné c'est qu'il s'agit d'une définition.

Chemin A : la modélisation scientifique sous l'angle des statistiques


hypothèse nulle

Étant donné une question, on peut faire plusieurs hypothèses sur sa réponse. L'hypothèse nulle est par définition celle qui serait la plus facile à réfuter si elle était fausse.

La notion d'hypothèse nulle permet de mieux concevoir ce qu'est apprendre : à moyens mobilisés pour l'investigation égaux, je n'apprends pas grand chose si on a échoué à réfuter une hypothèse qui serait très dure à réfuter si elle était fausse (l'échec n'est pas surprenant, que je pense que l'hypothèse soit vraie ou fausse), j'apprends davantage si on a échoué à réfuter une hypothèse qui serait plus facile à réfuter si elle était fausse (l'échec est assez surprenant si je pense que l'hypothèse est fausse).

À la base du paradigme statistique dit fréquentiste, il y a le fait de privilégier le modèle considérant l'hypothèse nulle, et ce jusqu'à preuve du contraire, et en particulier dès le début, avant toute observation. Il ne s'agit pas d'une considération épistémique (= dire que l'hypothèse nulle serait plus probable, alors même qu'on n'a rien observé) mais d'une considération épistémologique (= dire que ça permet mieux d'apprendre de considérer par défaut l'hypothèse nulle). C'est une version améliorée du principe de parcimonie, car cela permet de traiter d'autres cas que les questions d'existence.

[ philosophie des sciences 🤔 14 min ]


facteur de risque

Dans le cadre de modélisations probabilistes, le savoir vient des statistiques. La notion de base est alors celle de facteur de risque, particulièrement utilisée dans le domaine médical.

[ épidémiologie 🏥 14 min ]


taille d'effet

Risque relatif, rapport de cotes, nombre de personnes pour traiter… il existe différents indicateurs de taille d'effet pour comparer des facteurs de risque. Et en effet, tous les facteurs de risques ne se valent pas du tout.

[ statistiques 🎲 17 min ]


risque relatif, risque absolu et balance bénéfice-risque

Les tailles d'effet sont exprimées en risque relatif. Mais pour la prise de décision (balance bénéfice-risque) ce sont les risques absolus qui comptent.

[ statistiques 🎲 15 min ]


puissance, étude négative et preuve de l’absence

Lorsqu'une étude ne permet pas de mettre en évidence une taille d'effet non nulle, il se pourrait que ce soit parce que la taille d'effet réelle n'est pas nulle mais quand même trop petite pour que la proba de résultat positif soit importante. Autrement dit, ça peut être parce que la probabilité conditionnelle d'obtenir un résultat positif sachant qu'il y a un phénomène est trop faible. Cette probabilité s'appelle la puissance d'une étude. Elle croît notamment avec la taille de l'échantillon. Les résultat négatifs d'études de forte puissance réduisent la confiance qu'on peut avoir dans l'existence d'une taille d'effet d'une certaine ampleur.

[ statistique 🎲 16 min ]


paradoxe de Simpson et facteur de confusion

Quand on demande à leurs amis de comparer des pâtisseries qu'iels cuisinent, il ressort qu'en moyenne Alex fait de meilleurs pâtisseries que Charlie. Mais en moyenne, les forêts noires de Charlie sont meilleures que les celles d'Alex, et ses choux à la crème aussi sont meilleurs que ceux d'Alex. Comment est-ce possible, alors que Charlie et Alex ne savent cuisiner que des forêts noires et des choux à la crème ? Et surtout, qui cuisine le mieux ?

La voilà la limite fondamentale des études observationnelles dans la recherche de la causalité : les facteurs de confusion potentiels par lesquels on n'aurait pas contrôlé.

Réponse : Charlie cuisine bien plus de choux à la crème, qui sont intrinsèquement souvent moins bons que les forêts noires, mais c'est bien Charlie qui cuisine le mieux.

[ statistiques 🎲 14 min ]


causalité et critères de Bradford-Hill

Maintenant qu'on est au clair sur les corrélations, leur ampleur (taille d'effet) et leur absence, quid de la causalité ? On peut la mettre en évidence par l'observation d'une corrélation dans une étude prospective contrôlée randomisée en double aveugle. Mais lorsqu'on ne peut pas faire d'étude prospective, c'est fichu ? Non, les critères de Bradford-Hill peuvent aider à conclure.

[ statistiques 🎲 31 min ]


régression à la moyenne

En moyenne, vous poivrez raisonnablement vos salades, et dans chaque salade le poivre est potentiellement réparti de façon inhomogène. Dans la salade que vous venez de prendre au hasard dans votre réfrigérateur, la première bouchée que vous avez prise est fort poivrée. À propos de la deuxième bouchée, vous pensez que :

Réponse : (a) est le sophisme du joueur, mauvaise réponse ; (1) est la régression à la moyenne, bonne réponse ; (c) est aussi une bonne réponse, cette salade est probablement plus poivrée que la moyenne

bonus : théorème centrale limite

[ statistiques 🎲 14 min ]


réalisme scientifique, réalisme métaphysique, réalisme structural, antiréalisme, instrumentalisme

Le réalisme métaphysique est la thèse selon laquelle il y a quelque chose d'autre que les données des sens : il y a une réalité en dehors des perceptions et elle les influence. C'est ça qu'on entend par réalité dans la suite.

La méthode scientifique conduit à produire des théories prédictives des données des sens (instrumentalisme). Les objets et mécanismes postulés par ces théories ont-ils pour autant une correspondance avec la réalité ? Plusieurs positions existent à ce sujet, dont voici la nomenclature :

[ philosophie des sciences 🤔 17 min ]


probabilité et bayésianisme

Il y a plusieurs types de probabilités :

Données et théories se croisent dans les probabilités conditionnelles :

Ces deux façons différentes de mêler observations et théories sont à la base de deux paradigmes statistiques : le fréquentisme et le bayésianisme.

[ statistiques 🎲 22 min ]


fréquentisme

L'inférence à la meilleure hypothèse (aussi appelée abduction) est un enjeu épistémologique majeur. Il s'agit de retenir comme modèle celui qui au vu des données est le meilleur. Dit comme ça, ça a pourtant l'air trivial. A-t-on vraiment avancé dans la formalisation d'une méthode scientifique avec cette présentation ? En fait oui, car formulée ainsi, on voit que pour spécifier une méthode statistique il suffit de spécifier :

Le fréquentisme est le paradigme statistique qui spécifie ces éléments ainsi :

Les outils du fréquentisme sont très puissants mais les hypothèses fortes sur les données supposent des designs d'études rigoureux pour collecter des données. Aujourd'hui il y a un enjeu à pouvoir extraire des connaissances de façon statistiquement rigoureuse :

Le bayésianisme propose pour cela d'adopter un autre triptyque modèles-données-discrimination. Rendez-vous un peu plus loin dans le chemin A !

[ statistiques 🎲 17 min ]


test statistique

Ouvrons pour quelques épisodes la boîte à outils de læ statisticien⋅ne fréquentiste.

Une façon cheap et au rabais d'approcher l'abduction fréquentiste par maximum de vraisemblance, c'est de pratiquer le rejet d'une hypothèse peu vraisemblable H0 en la soumettant à un test statistique qu'elle échoue à passer. Ceci n'est possible que si on dispose d'une procédure de test dont l'hypothèse nulle est justement H0. (En pratique c'est parce qu'il existe des procédures de test dont l'hypothèse nulle est H0 qu'on étudie la question… rendez-vous au chemin AC.)

Plus précisément, le rôle de læ statisticien⋅ne est alors de concevoir des procédures de test composées de :

Techniquement, le risque (probabilité fréquentiste) de rejet d'une hypothèse nulle vraie est nommé risque alpha. Ainsi, s est un majorant du risque alpha.

La vidéo prend l'exemple de la distribution hypergéométrique.

[ statistiques 🎲 10 min ]


p-valeur

Le test d'hypothèse de l'épisode précédent est le plus souvent de la forme suivante :

Propriété fondamentale des tests statistiques par p-valeur :

Si l'hypothèse nulle est vraie, les données collectées échouent au test avec probabilité au plus s. Dit autrement, le s "p-valeur seuil" ce cet épisode est le même que le s "majorant du risque alpha" de l'épisode précédent.

Les principaux points d'attention concernant les tests statistiques par p-valeur sont :

[ statistiques 🎲 14 min ]


intervalle de fluctuation, intervalle de confiance

À la fête foraine du coin, il y a un jeu consistant à donner un coup de filet dans un bassin d'eau trouble pour capturer un petit poisson qui y nage. Et c'est difficile car les seules informations sont les mouvements parfois trompeurs de l'eau en surface.

Votre pote Alex est très doué⋅e à ce jeu. Iel repère les vaguelettes en surface comme personne. Iel réussi 95 % du temps.

Aujourd'hui vous accompagnez Alex. Et vous savez (mais Alex ne le sais pas) que le poisson qui est dans le bassin aujourd'hui a une préférence très marquée pour le coin en haut à gauche : il ne passe qu'un millième de son temps hors de cette zone. 1… 2… 3 ! Alex vient de donner un coup de filet en bas à droite du bassin. Vous ne vous attendiez pas à ça : vous, vous auriez essayé en haut à gauche. Alex aurait raté ? Après tout ça lui arrive une fois sur vingt de rater son coup, alors que le poisson n'est qu'une fois sur mille hors du coin en haut à gauche. Le coup de filet d'Alex vous fait un peu douter sur la position sur poisson, mais tout de même ce coup-ci vous ne diriez pas qu'Alex a 95 % de chances d'avoir attrapé le poisson. Carrément, si vous deviez pariez, vous parieriez qu'Alex a raté.

Un intervalle de confiance, c'est un coup de filet d'Alex. C'est une information importante car ça capture souvent le paramètre. Mais ce que vous savez ne se résume pas à ça : le coup de filet ne vient qu'ajuster ce que vous pensez de la position du poisson.

Il est tout aussi faux :

Un intervalle de fluctuation, c'est la zone dans laquelle on peut s'attendre à voir la prochaine vaguelette en surface quand on sait où se trouve le poisson.

On ferme ici la boîte à outils fréquentiste.

[ statistiques 🎲 13 min ]


design d'étude épidémiologique

On l'a dit, un des rôles des statisticien⋅ne⋅s et autre méthodologistes, c'est de mettre au point des designs d'étude permettant des tests statistiques. Un test statistique vise à établir s'il y a vraisemblablement une association entre des variables. Mais ce qui permet d'interpréter cette association (notamment savoir si elle est causale) c'est le design d'étude. Enfin, l'enjeu n'est pas seulement de pouvoir tester de nombreux types d'hypothèse nulle différents, mais aussi pour chaque type d'hypothèse nulle de maximiser la puissance statistique et de minimiser les coûts de l'expérience. C'est par exemple l'objet du design d'essai randomisé en bras croisés, qui lorsqu'il est réalisable permet une plus grande puissance statistique à moindre coûts que l'essai randomisé contrôlé (les deux permettant d'interpréter les associations comme causales).

[ épidémiologie 🏥 11 min ]


facteur de Bayes et rapport de cotes
(en anglais)

Vous vous souvenez de votre pote Alex d'il y a deux épisodes, particulièrement doué⋅e à ce jeu de fête foraine. Vous vous souvenez donc qu'un coup de filet d'Alex, aussi souvent réussi soit-il, ne doit qu'ajuster votre connaissance. Formalisons cela, d'une façon néanmoins pratique pour être manipulée de tête.

[ statistiques 🎲 20 min ]


problème de l'induction et principe d'uniformitarisme

Prédire des observations futures à partir d'observations passées, c'est faire de l'induction. Mais comment justifier le fait d'adopter cette démarche ? On pourrait dire que jusqu'ici ça a marché, donc ça fait sens de continuer… mais cet argument relève lui-même de l'induction. Il faut adopter un principe permettant de justifier la démarche d'induction.

Ce principe c'est le principe d'uniformitarisme (ou principe de régularité, ou principe d'actualisme) : jusqu'à preuve du contraire, les choses se passaient avant comme elles se passent aujourd'hui. Mais que signifie "se passer comme" ? Il s'agit des lois de la nature sous-jacentes aux observables. Le principe de régularité, c'est donc deux assertions :

Pour formaliser la notion de "loi de la nature", il faut faire appel à la notion d'algorithme et une théorie mathématique associée : la théorie algorithmique de l'information.

L'incertitude concernant les prédictions faites par induction provient fondamentalement de l'incertitude concernant les lois de la nature. Pour formaliser cela, il faut allier la théorie des probabilités et la théorie algorithmique de l'information en une théorie des probabilités algorithmique.

[ philosophie des sciences 🤔 15 min ]


théorie à la Solomonoff

Vous vous souvenez du triptyque modèles-données-discrimination ? En voilà la version bayésienne à la Solomonoff :

Le principe de parcimonie consiste à privilégier les modèles les plus simples… mais dit comme ça c'est assez flou. Dans l'épisode 1 du chemin A, on a précisé ce principe dans un cadre fréquentiste en donnant :

L'a priori universel de Solomonoff est une façon bayésienne de préciser le principe de parcimonie, en donnant cette fois :

Note sur le vocabulaire : "universel" dans "a priori universel de Solomonoff" signifie juste qu'aucune crédence a priori n'est nulle.

bonus : a priori universel de Solomonoff

[ informatique théorique ✅ 23 min ]


complétude partielle de l'induction de Solomonoff

Le problème de l'induction de Solomonoff, c'est qu'il n'existe pas d'algorithme permettant de classifier les algorithmes entre ceux qui sont des théories à la Solomonoff et ceux qui ne le sont pas (on dit que le problème de décision des théories à la Solomonoff n'est pas calculable). Impossible de mettre en place la machinerie décrite à l'épisode précédent (ni même de l'approximer). C'est cependant possible pour un sous-ensemble des théories à la Solomonoff : celles qui décrivent l'univers comme un automate cellulaire (on parle de théories au temps de calcul constant). Précisons cela.

Étant donné une observation (par exemple : 01101) une théories à la Solomonoff lui affecte une certaine probabilité (01101 -> p). Les observations correspondant à la même observation mais récoltant une donnée supplémentaire (011010 et 011011) se partagent cette probabilité (011010 -> p0 ; 011011 -> p1 ; avec p0 + p1 = p). Une théorie au temps de calcul constant est une théorie à la Solomonoff qui calcule ce type de partage en un temps toujours plus petit qu'un certain temps forfaitaire (calculer 011010 -> p0 et 011011 -> p1 quand on a déjà calculé 01101 -> p ne prend pas plus de temps que le temps forfaitaire).

On en vient donc au triptyque modèles-données-discrimination bayésien suivant :

Ce n'est pas parce qu'il est possible de mettre en place cette machinerie qu'il est possible de le faire efficacement. Tout l'enjeu ici pour les statisticien⋅ne⋅s, informaticien⋅ne⋅s et autres méthodologistes est donc de trouver des façons cheap d'approximer cette référence, tout comme le test d'hypothèse approxime l'abduction fréquentiste. Le champ de recherche porte le nom d'apprentissage statistique.

bonus : thèse de l'irréductibilité algorithmique et sophisme de l'omniscience logique

[ informatique théorique ✅ 10 min ]


valeur épistémique et modélisation
(le lien commence la vidéo au début de l'extrait)

Voilà essentiellement les trois objectifs (valeurs épistémiques) que peut viser une modélisation :

On l'a vu, les statistiques et la théorie des probabilité algorithmique ont poussé très loin les méthodes pour faire des prédictions. Pour nous, c'est l'occasion de sentir la difficulté d'optimiser conjointement ces différentes valeurs épistémiques : les meilleures méthodes prédictives sont des tambouilles statistiques qui n'ont que faire des mécanismes qui sous-tendent les phénomènes.

Typiquement un réseau de neurones :

Pour autant, ces valeurs épistémiques ne font pas que s'opposer. Comme on l'a vu dans l'épisode sur le réalisme structural, faire des prédictions correctes dans des conditions toutes autres que les observations qui ont conduit à élaborer la théorie (ou dans un langage plus proche de l'apprentissage statistique, faire des prédictions correctes hors du domaine d'entraînement), c'est un indice de compréhension, voire de réalisme structural.

[ philosophie des sciences 🤔 3 min ]


variance expliquée
(le lien commence la vidéo au début de l'extrait)

La variance expliquée est une notion plus en phase avec la valeur épistémique de compréhension : elle permet par exemple d'évaluer à quel point un modèle est bon au sens de la valeur épistémique de compréhension. N'allez pas penser pour autant qu'il s'agit de la technique statistique la plus élaborée dans sa direction. Il existe par exemple l'analyse en composantes principales qui identifie dans un jeu de données les n paramètres indépendants expliquant ensemble la plus grande part de la variance. Zut ! On retombe sur les bases de l'apprentissage statistique…

Ah, et sachez que l'héritabilité est une variance expliquée ! (C'est essentiel à comprendre pour interpréter correctement cet indicateur de biologie évolutive… mais certes, c'est une autre histoire.)

[ statistiques 🎲 6 min]


Après avoir terminé le chemin C, la suite est au chemin AC.

Chemin B : rhétorique


appel à la nature

La rhétorique s'intéresse aux effets des discours. Et certaines façons de discourir produisent des effets essentiellement indépendants de la valeur argumentative du propos. On parle de procédé rhétorique pour les désigner.

L'appel à la nature est le procédé rhétorique consistant à présenter une position morale (= "telle chose est bien" ou "faire telle chose est mal") comme étant justifiée par le fait que telle chose soit naturelle ou telle autre artificielle. L'effet est là : l'impression d'une argumentation (au lieu d'une affirmation semblant arbitraire). Dit autrement, on a augmenté la profondeur argumentative du discours, ce qui ne le rend pas forcément plus valide, mais en donne l'impression.

En fait :

Bien entendu, les procédés rhétoriques n'ont pas à être cohérents entre eux du point de vue argumentatif. Ainsi on pourrait aussi bien se revendiquer de la modernité ou de la technologie et produire le même type d'effet. La structure importante à identifier, c'est l'utilisation d'une connotation comme argument. Précisons cela.

C'est le couple dénotation/connotation qui est en jeu :

Toute l'entourloupe réside dans le fait de donner l'impression d'un raisonnement argumenté (c'est-à-dire explicite) alors qu'il se fonde sur de l'implicite. C'est ça, utiliser une connotation comme argument.

bonus : guillotine de Hume

[ rhétorique 🗣️ 14 min ]


homme de paille

La reformulation des thèses et la discussion des conséquences sont des éléments essentiels aux discussions. C'est pourquoi elles sont porteuses d'effets rhétoriques… même lorsqu'elles sont effectuées de façon abusive.

bonus : pente glissante

[ rhétorique 🗣️ 5 min ]


appel à la pitié

Susciter la pitié peut permettre de modifier la perception du reste du discours et en particulier permettre de contourner les questions d'argumentation (persuasion). Cela peut aussi rendre l'interlocuteur plus prompt à l'action. Il s'agit bien là d'un procédé rhétorique puisque ces effets ne passent pas par l'argumentation.

D'un point de vue argumentatif, pointer le caractère pitoyable d'une situation sert à soutenir qu'il faut un changement. Le verbe falloir est important ici : l'appel à la pitié n'est pas un argument qu'on emploie pour obtenir l'adhésion à une description, mais pour obtenir l'adhésion à un devoir et en particulier pour obtenir une prise de décision. Il ne prend d'ailleurs pas toujours la forme d'un argument isolable, mais aussi parfois celle d'une stratégie argumentative (façon d'articuler les arguments et de construire l'argumentaire). Certaines conceptions considèrent que l'appel à la pitié n'est jamais une forme argumentative (argument ou stratégie argumentative) valide, tandis que d'autres considèrent que ce sont seulement certaines articulations avec le reste de l'argumentaire qui sont invalides.

L'appel à la pitié fait l'objet de critiques sur les plans rhétorique et argumentatif. Cela pousse à considérer des formes argumentatives alternatives :

[ rhétorique 🗣️ 12 min ]


quelques procédés rhétoriques

Quitte à moins les détailler, voyons d'autres procédés rhétoriques et des exemple de mise en pratique pour avoir plus de facilité à les repérer et y réagir de façon adéquate.

Bref, le but du chemin B n'est pas de dresser une liste exhaustive des procédés rhétoriques, d'autant que ça ne permettrait pas de faire le tour de ce qui est trompeur ou ne l'est pas les concernant. Passons à autre chose.

bonus : quelques autres encore

[ rhétorique 🗣️ 24 min ]


contexte autour de l'image : montage et effet Koulechov, micro-trottoir, extrait, légende…

Dans notre société où la communication n'est plus basée sur l'écrit mais sur l'image, celle-ci s'intègre au discours. Dans cette optique, la vidéo présente des situations où le contexte – ou l'absence de contexte dans le cadre des extraits – sert la rhétorique. Elle présente notamment les bases du montage, avec l'exemple du micro-trottoir.

Finalement, cacher des éléments permettant la vérification de l'information peut servir le discours. La rencontre entre les chemin B et chemin C ne saurait tarder.

[ rhétorique 🗣️ 36 min ]


introduction à la lecture d'image partie 1 et partie 2

Symbolique, ethnocentrisme, répétition, humour, saillance de la mort… les images sont tout autant sujettes aux procédés rhétoriques que les autres formes de discours. Cela vient du fait qu'elles sont porteuses de signification, aussi bien par ce qui est explicitement montré à l'image (dénotation) que par l'imaginaire et les représentations qui sont mobilisés (connotation). Étudier comment la construction des images permet de leur donner une signification relève de la sémiologie.

[ sémiologie 🖼️ 13 + 17 = 30 min ]


Après avoir terminé le chemin C, la suite est au chemin BC.

Chemin C : de la diffusion de l'information à sa vérification


modèle socio-psychologique de la diffusion des informations

La diffusion médiatique des informations participe à la construction des représentations populaires, influençant à leur tour les témoignages qui pourront être repris dans la presse. La boucle est bouclée !

[ éducation aux médias et à l'information 📰 20 min ]


formation et diffusion de rumeur

En ligne, la structure de la propagation d'une information est un indicateur de sa véracité. De plus, la reproduction imparfaite aux différentes étapes de la propagation conduit à une distorsion de l'information. Cette distorsion n'est pas aléatoire, elle va dans le sens des représentations du groupe social dans lequel la rumeur se diffuse.

bonus : simplification et distorsion réduisant la dissonance cognitive lors de la diffusion de rumeur

[ psychologie sociale 👥 13 min ]


chambre d'échos, effet de groupe et identité sociale

On parle de chambre d’échos lorsque la diversité de l'information à laquelle un individu est exposé est réduite. Plusieurs phénomènes expliquent les effets de chambre d'échos en ligne :

Cette vidéo se concentre notamment sur les effets de groupe, qui sont la conséquence du phénomène d'identité sociale (construction d'une image de soi par les catégories sociales d'appartenance) et de la tendance à chercher à avoir une identité sociale valorisée. Avoir une identité sociale valorisée passe notamment par :

Finalement, certaines thèses sont davantage l'affirmation d'une identité sociale que d'une connaissance.

[ psychologie sociale 👥 24 min ]


remonter aux sources, croiser les sources

Vérifier une information consiste à :

Recherche par mots clefs, par image, par image similaire, sur un moteur de recherche spécialisé (journalistique, académique…) etc. C'est l'occasion de mettre à profit de multiples outils.

[ éducation aux médias et à l'information 📰 21 min ]


vérification d'image

La vérification de l'information peut comporter une dimension technique et les images présentent à cet égard certaines spécificités :

bonus : dégradation de la qualité d'image

[ éducation aux médias et à l'information 📰 48 min ]


lecture de graphique : choix de représentation de données

Avoir des données chiffrées représentées visuellement, c'est bien. Savoir les lire en temps réel et porter son attention sur les potentiels erreurs et aspects trompeurs, c'est mieux !

La vérification de données graphiques consiste à vérifier :

La vérification de graphique mêle donc une attention sur :

Bref, les chemin B et chemin C en viennent à se rencontrer.

bonus : lecture de graphique : choix de données à représenter

[ éducation aux médias et à l'information 📰 28 min ]


Après avoir terminé le chemin A, la suite est au chemin AC. Après avoir terminé le chemin B, la suite est au chemin BC.

Chemin AC : la scientificité face à la pratique de la publication


publication scientifique

La publication scientifique est caractérisée par le processus de revue par les pairs. Elle suppose aussi de situer le travail par rapport au reste des travaux scientifiques (introduction, bibliographie…).

Dans un journal scientifique on trouve différents types d'articles :

Les journaux scientifiques sont spécialisés (par domaine, par importance scientifique ou sociétale des résultats…). Leur influence fait l'objet d'indicateurs. Le facteur d'impact (nombre moyen de citations par article au cours des deux dernières années) vise à comparer des journaux ayant une spécialisation semblable, mais il ne reflète ni la variabilité du nombre de citations entre les articles d'un journal, ni l'accumulation de citations par les articles sur le long terme (cela dit, l'accumulation de citations sur le long terme est grandement prédictible à partir de l'accumulation de citations dans la période suivant la publication).

Les revues prédatrices sont des pratiques commerciales trompeuses consistant à faire passer un processus de publication pour scientifique alors qu'il ne l'est pas. Court délai et faible coût de publication, comité éditorial fictif, taux d'acceptation d'article proche de 100%, pas de référencement dans les bases de données d'articles scientifiques ou les répertoires internationaux de journaux scientifiques, spam… sont autant d'indices permettant de les identifier.

Il existe aussi des journaux scientifiques autopromotionnels permettant de gonfler artificiellement le nombre de publication des scientifiques proches du comité éditorial.

Le modèle économique des journaux scientifiques vise l'indépendance et se base donc exclusivement sur la réputation (comme de nombreux autres aspects de la pratique scientifique). Notamment, les scientifiques relecteurs pour la revue par les pairs sont bénévoles, c'est-à-dire qu'ils sont payés par leur employeur indépendamment de leur participation à telle ou telle relecture de tel ou tel journal. L'engagement des chercheur⋅se⋅s dans des processus de publication participe d'ailleurs de leur réputation. De même, les éditeurs scientifiques sont indépendants des structures qui financent et organisent la recherche. Les frais de publication d'un article couvrent les frais de fonctionnement du journal, mais ils rétribuent surtout le journal pour :

(Plus de détails dans le complément sur le modèle économique ci-dessous.)

Le fait que la lecture d'articles (individuels ou par abonnement) soit payante complète le modèle économique, mais certains journaux, dits en accès libre, ne font pas payer la lecture. Des initiatives illégales (car la propriété intellectuelle revient souvent à l'éditeur) visent la diffusion gratuite des articles scientifiques payants. Il existe aussi des plateformes légales et gratuites de publication en accès libre d'articles avant la relecture par les pairs (on parle de pré-print) qui permettent la diffusion d'articles avant les versions ultérieures qui deviennent propriétaires de l'éditeur (par exemple la plateforme arXiv qui porte principalement sur les sciences formelles et la physique, ou la plateforme medRxiv qui porte sur les sciences biomédicales).

Plus de la moité des parts de marché de la publication scientifique sont détenues par un oligopole de cinq éditeurs.

Complément sur le modèle économique de la publication scientifique :

Le cœur de métier d'un journal scientifique, plutôt que le travail d'édition, c'est le travail de sélection. En ne sélectionnant presque que des bons articles et en donnant tous les gages de confiance que quand il y a un article qui est passé alors que vraiment c'est une erreur on indique l'article comme rétracté, le journal se constitue une réputation, et à travers cette réputation, un lectorat. Quand on est un organisme de recherche et qu'on veut faire connaître ses travaux, on veut le faire connaître auprès de ce lectorat, et donc on veut publier dans le journal en question. Mais en publiant notre article, le journal prend un risque : il prend le risque que l'article ne soit en fait pas si bon et que le lectorat soit déçu, bref, il prend un risque pour sa réputation. Or la réputation du journal, c'est ce qui fait toute sa valeur marchande. Il faut donc rémunérer le journal pour ce risque. Et c'est ça que paye l'organisme de recherche. Il rémunère le capital réputation :

En passant, on comprend que la relecture par les pairs (je dis relecture pour distinguer du reste de la revue par les pairs qui a lieu après publication, une fois que le journal a engagé sa réputation), ce n'est pas un service qu'on paye au journal et que celui-ci aurait intérêt à faire à la va vite pour faire plus de marge. Pas du tout : la revue par les pairs, le journal la fait pour garantir la qualité des articles et ainsi protéger sa réputation. Le journal a économiquement intérêt à organiser une excellente et rigoureuse relecture par les pairs même si on ne le payait pas pour ça (par opposition au modèle économique des journaux prédateurs). Et comme on l'a vu, effectivement on ne le paye pas pour ça : on rémunère le risque pris pour la réputation, car cette réputation permettra le même genre de rémunération dans le futur.

Digression : introduction à l'épistémologie sociale (en anticipation du chemin ABC)

Ce qu'il faut sentir aussi, c'est que les mécanismes de réputation sont fondamentalement liés à la construction des connaissances. En fait la connaissance (au-delà du cercle extrêmement restreint des quelques spécialistes qui maîtrisent absolument tous les tenants et aboutissants de pourquoi on sait qu'on sait, bref tous les détails de la preuve – ce qui d'ailleurs est un cercle souvent vide puisqu'on utilise partout des technologies et des résultats développées par d'autres, et de façon plus cruciale encore par d'autre disciplines qu'on ne maîtrise pas – au-delà donc de ce cercle souvent vide) c'est la réputation. Et vu qu'en plus la connaissance est aussi par définition quelque chose qu'on peut transmettre, or on ne peut pas se permettre de considérer qu'il faut pour cela transmettre l'intégralité de l'expertise qu'il faut pour tout comprendre de la preuve, alors littéralement, la connaissance c'est la réputation. En tout cas, si on accepte l'idée que connaître:

alors c'est inévitable, la connaissance scientifique c'est une certaine forme de réputation, relative à certains groupes sociaux (aussi appelés les domaines scientifiques, composés de leurs spécialistes) et certaines institutions (usuellement dénommées sociétés savantes, ou encore… journaux scientifiques réputés).

Fin de la digression.

Reprenons en soulignant en quoi l'accumulation de capital réputation est fonctionnelle (= participe à ce que le processus de publication scientifique remplisse ses fonctions) car ainsi on comprend le service que paye la société à travers la rémunération de ce capital.

D'une part, ça permet de regrouper les avancées les plus importantes à diffuser dans les journaux lus par le plus vaste public et au contraire les résultats qui intéressent un public plus spécialisé dans des journaux plus spécialisés. C'est une organisation super efficace de la diffusion des connaissances que la société rémunère.

D'autre part, si vous avez suivi la digression, un résultat qu'on peut affirmer quand on a une grande réputation à défendre (le genre de réputation qu'aucun individu ne peut effleurer, seulement des institutions comme des grands journaux), c'est-à-dire quand on a beaucoup à perdre, un tel résultat c'est un résultat très solide (si bien que non seulement il est peu probable qu'il casse, mais que même s'il cassait ce serait une telle surprise pour tout le monde qu'on ne nous en voudra pas trop de l'avoir affirmé), ou plutôt c'est un résultat que consensuellement on considère solide. En fait, la réputation c'est le consensus. Avoir des institutions avec un grand capital réputation, c'est avoir des garants du consensus : des entités qui ont des grands incitatifs à dire, et à ne dire que, des choses très consensuelles, c'est-à-dire très bien établies et très importantes dans leurs domaines respectifs. Et le modèle économique de la publication scientifique fait que perdre du capital réputation, pour les journaux scientifiques c'est perdre du capital économique : puisque le reflet fidèle du consensus actuel est un enjeu de réputation, le modèle économique en fait un enjeu économique.

Donc c'est ça le rôle des multiples journaux scientifiques, c'est d'avoir cette diffusion efficace et stratifiée des connaissances :

C'est-à-dire un rôle fondamental de construction des connaissances. Et c'est ça que la société paye quand les structures de recherche payent les journaux pour publier.

Ce qu'on paye à la publication est en gros indépendant du prix du travail d'édition et seulement fonction de la réputation. C'est juste la façon de faire exister matériellement le consensus, c'est-à-dire la connaissance. Aujourd'hui il y a beaucoup de recherche donc il est possible d'avoir une grande réputation (car il y a beaucoup de choses pertinentes à dire), et par ailleurs le travail d'édition coûte peu cher, donc les journaux gagnent très très bien leur vie en faisant payer la publication. Mais dans l'état actuel du processus de publication scientifique, ça n'est pas une déviance par rapport à un fonctionnement normal, c'est bien le fonctionnement normal qui permet de remplir la fonction.

Notons enfin que le coût de la publication n'est pas un incitatif économique à jouer le jeu uniquement pour le journal, mais aussi pour les instituts de recherche. En effet, ne vont publier dans des grands journaux que les instituts de recherche qui estiment tenir un résultat suffisamment important pour que ça vaille ce prix là de le faire connaître, car ça va vraiment augmenter/entretenir leur propre réputation. Dit autrement, le prix décourage de ne faire qu'un petit coup de communication visant à attirer l'attention alors que le résultat présenté est décevant : il faut que ça vaille vraiment le coût (littéralement) pour que publier dans ce journal soit (économiquement) intéressant.

Tout cela concernait le fait de faire payer la publication. Faire payer la lecture, c'est différent. C'est juste une façon de convertir en capital économique le capital réputation, d'une façon qui n'a rien à voir avec la construction des connaissances (contrairement au fait de faire payer la publication). Et il s'agit bien d'une conversion de capital : quand le prix à la lecture est un peu plus élevé (augmentation du capital économique), le journal perd un peu du lectorat cible pour lequel il est payé à la publication, c'est-à-dire qu'il a un peu perdu en réputation (diminution du capital réputation), et en effet il pourra vendre un peu moins chère la publication.

Ces considérations éclairent aussi :

[ éducation aux médias et à l'information 📰 18 min ]


pratique du test statistique par p-valeur partie 1 et partie 2

Mécompréhension, mésusages (p-hacking, biais de publication…) et focalisation sur certains enjeux (existence d'effet plutôt que taille d'effet, significativité statistique plutôt que prise de décision, étude de situation facilitant la mise en évidence d'effet plutôt qu'étude de situation de potentielle application, étude de questions se prêtant aux outils statistiques plutôt qu'étude des questions importantes). La pratique du test statistique par p-valeur conduit à une crise des méthodologies scientifiques – en particulier à une crise de la reproductibilité – appelant un renouveau des standards des statistiques et de leur enseignement. La mise en avant du paradigme statistique bayésien participe de ce renouveau.

[ statistiques 🎲 16 + 20 = 36 min ]


crise de la reproductibilité

La crise de la reproductibilité est le fait que dans de nombreuses disciplines scientifiques, lorsqu'on réplique de façon systématique un ensemble d'études, une grande part des réplications (de l'ordre de plusieurs dizaines de pourcents avec des variations importantes entre les disciplines) aboutissent à une conclusion opposée à la publication originale.

bonus : la critique du test statistique par p-valeur et de sa pratique est consensuelle en statistiques

[ statistiques 🎲 14 min ]


expert⋅e non chercheur, méthodologiste, statisticien⋅ne
(le lien commence l'écoute au début de l'extrait)

Les scientifiques ne sont pas forcément des inconscient⋅e⋅s sans recul critique sur leur pratique ou les outils statistiques et méthodologiques qu'iels utilisent. Les organisations de recherche mettent même en place des statuts garants de la méthodologie. La crise de la reproductibilité est néanmoins le témoin que le système est largement imparfait.

[ éducation aux médias et à l'information 📰 5 min ]


revue par les pairs

ajouter un résumé/teaser

[ métascience 📰 2 h 07 ]


Après avoir terminé le chemin BC, la suite est au chemin ABC.

Chemin BC : médiatisation


efficacité de la vulgarisation : insuffisance de la vulgarisation des résultats seuls et nécessité de souligner l'écart avec l'intuition
(en anglais)

Enseigner, ce n'est pas que combler un vide en apportant de l'information. Il s'agit aussi de défaire les préconceptions.

La cognition désigne l'ensemble des processus d'un organisme qui relèvent du traitement d'information (mémoire, perception, raisonnement, apprentissage…). Un biais cognitif est une tendance de la cognition à :

Remarques :

Les biais de confirmation sont des biais cognitifs favorisant ce que l'on pense déjà. Ils concernent diverses fonctions comme l'attention ou la mémoire.

Ainsi :

se mêlent et forment ensemble des phénomènes médiatiques plus riches.

Note sur le vocabulaire : "phénomène médiatique" tel que défini ici n'est pas du vocabulaire classique, c'est juste une proposition pour éclaircir le propos.

[ sciences de l'éducation 🧑‍🏫 8 min ]


désinformation

Le caractère faux ou trompeur d'informations provient de :

La désinformation recouvre :

Cette classification rencontre néanmoins des limites, car les dynamiques médiatiques mêlent profondément désinformation et mésinformation comme on va le voir dans la suite du chemin BC.

[ éducation aux médias et à l'information 📰 8 min ]


sondage et journalisme politique

Dans le champ politique on tire la légitimité de sa parole notamment des résultats aux élections. Mais le champ journalistique dispose désormais d'un outil pour prétendre à une légitimité du même ordre. Après micro-trottoir, parlons sondage d'opinion.

[ sociologie 🏙️ 14 min ]


opinion publique

Il faut penser le caractère trompeur des propos bien au-delà des questions :

Il faut aussi prendre en compte les catégories types ("les Français nés à l'étranger", "l'érosion du littoral", "les mâles sigma"….) et les énoncés types ("les Français nés à l'étranger sont de vrais Français", "les tempêtes érodent le littoral", "les mâles sigma sont les meilleurs"…) auxquelles se réfèrent les propos, que ce soit pour les valider, les dénoncer ou critiquer leur utilisation même. Notamment, certaines catégories et certains énoncés (pour ne pas avoir à répéter catégorie ou énoncé à chaque fois, je propose d'appeler ça des représentations) ne sont juste pas pertinentes pour penser certains sujets (par exemple "les mâles sigma").

J'insiste sur le fait qu'on peut avoir en tête certaines représentations sans pour autant penser qu'elles sont pertinentes pour penser. Il suffit de penser que d'autres personnes les ont en tête.

Concernant le caractère trompeur des propos, se posent alors les questions suivantes :

Par exemple concernant (1), s'il est dit "A est cancérigène", l'information peut être vraie, pertinente, tout ce qu'on veut. Mais est-ce que encore parler de cancérogénicité sans parler de taille d'effet est vraiment une bonne idée ? Penser la cancérogénicité sans la notion de taille d'effet, c'est mal penser les choses.

Par exemple concernant (3), s'il est dit "A conduit à la libération de dopamine dans le cerveau et ça procure du plaisir", la formulation ne porte pas en elle-même l'idée que le plaisir n'est qu'une histoire de molécules relâchées dans l'ensemble du cerveau. La formulation est même tout à fait compatible avec le fait que la dopamine est un neurotransmetteur utilisé par le circuit de la récompense, qu'il ne s'agit que d'un moyen pour transmettre l'information dans cette partie du cerveau, que le circuit de la récompense aurait aussi bien pu utiliser d'autres neurotransmetteurs et que c'est bien davantage la connectivité de cette partie du cerveau qui produit la fonction. Mais la formulation est aussi compatible avec l'idée fausse que la dopamine serait "la molécule du plaisir" du fait même de sa nature chimique.

La répétition de formulations compatibles avec des représentations trompeuses (ici la notion de "molécule d'une émotion") participe à leur maintien.

Par exemple concernant (4), on ne peut pas attendre qu'une information sur une recherche médicale en test clinique de phase 1 visant à traiter une pathologie grave soit reçue avec la même distance par une personne selon qu'elle vient d'apprendre être concernée par la pathologie (elle-même ou son entourage).

Ces généralités terminées, passons au sujet de l'épisode. L'opinion publique est collectée selon les sujets en vigueur, les questions en vigueur, certains discours en vigueur… bref, selon les représentations en vigueur. La collecte de l'opinion publique peut donc être trompeuse car poser les questions en des termes trompeurs.

La restitution (ou prétendue restitution) de l'opinion publique porte alors un enjeu de pouvoir : celui de poser le débat en certains termes. Bref plus largement, celui de promouvoir certaines représentations.

[ sociologie 🏙️ 17 min ]


effet de cadrage

Choix des sujets, des invité⋅e⋅s, des questions posées, des images et discours diffusés, des contextes pour les micro-trottoirs… tout au long de la boucle médiatique de diffusion de l'information, chaque étape résulte d'une analyse de la situation et à la fois influence en retour la situation et son analyse.

Vous noterez la similarité avec l'épisode 1 du chemin C. Incroyable… tout se déroule comme si cette promenade était organisée !

[ éducation aux médias et à l'information 📰 25 min ]


heuristique de disponibilité, exemple du syndrome du grand méchant monde

L'estimation intuitive de la fréquence d'un événement se base sur les informations disponibles en mémoire et non sur la recherche de nouvelles informations. On parle d'heuristique de disponibilité pour désigner ce mécanisme. Les jugements obtenus de cette manière dépendent donc essentiellement des informations et évènements passés dont on se souvient, notamment ceux étiquetés comme réels (presse, journal télévisé, témoignage, expérience personnelle…) ou réalistes (rumeur, mythe, élément non fantastique d'une fiction…).

La construction des programmes télévisés (notamment les journaux télévisés) :

Capter l'attention (typiquement en suscitant des émotions) sert aussi l'audimat, ce qui favorise la vente d'espaces publicitaires.

Cette construction des programmes télévisés :

[ psychologie sociale 👥 43 min ]


réseau social

S'exposer à de l'information sur un réseau social suppose à minima de connaître certains phénomènes façonnant l'information qui y circule : biais cognitifs, dynamiques collectives, gestion algorithmique de la visibilité et désinformation se mêlent pour semer le chemin d'embûches…

[ éducation aux médias et à l'information 📰 ?? min ]


Après avoir terminé le chemin AC, la suite est au chemin ABC.

Chemin ABC : informer, s'informer, être exposé à l'information


sociologie de l'ignorance

Il n'y a pas que des mécanismes de diffusion de l'information (avec son lot de distorsion). Il y a aussi des mécanismes de non diffusion de l'information. Et ils ne se limitent pas à des questions de réception et de (non) transmission d'information par des individus (ce qui relève de la psychologie sociale). Il y a aussi des questions de statut social des différents acteurs, de cloisonnement des groupes sociaux qui fait que si l'information s'arrête en chemin elle n'arrivera pas au bout du chemin, d'organisation qui produit certains chemins pour certains types d'information… Bref, il y a des mécanismes proprement sociologiques.

Quand les informations en question sont des connaissances, on peut parler d'une production sociale de l'ignorance. Et il y a justement une sociologie de l'ignorance qui étudie cela.

[ sociologie 🏙️ 28 min ]


régime épistémique et argumentation en conflit éditorial sur Wikipédia

Étant acté que s'informer n'est pas produire soi-même de la connaissance scientifique, comment obtenir de la connaissance en s'informant ? (car ça n'a rien d'automatique !) Et en particulier, quelle est la bonne notion de connaissance à considérer, dans ce contexte où l'on n'est pas expert⋅e du sujet et encore moins producteur⋅rice de connaissance ? Philosophiquement, c'est le sujet de l'épistémologie sociale : qu'est-ce que l'expertise ? comment la reconnaître ? etc. L'édition de Wikipédia est une pratique pleinement confrontée à ces enjeux.

Un régime épistémique est une conception de ce qu'est la connaissance, en lien avec des valeurs. Un régime épistémique statue notamment sur ce qui fait :

Sur Wikipédia, lorsqu'il s'agit d'argumenter dans le contexte d'un conflit éditorial, les régimes épistémiques et valeurs correspondantes mobilisés sont principalement :

Concernant leurs conceptions de la pertinence, ces régimes épistémiques se distinguent notamment par la façon dont ils donnent de l'importance à et hiérarchisent (ou non) les différents points de vue et les différentes sources.

bonus : neutralité de point de vue

[ sociologie 🏙️ 13 min ]


épistémologie sociale

Une connaissance est une croyance :

Le type de connaissance étudié par l'épistémologie sociale (que j'appellerai connaissance sociale) est un cas particulier de cette notion générale de connaissance. On l'obtient en donnant une définition particulière à "correct".

Une connaissance sociale est une croyance dont on a de bonnes raisons de penser qu'elle a été validée par des procédures socialement reconnues comme étant à même d'élever la croyance au statut de connaissance (ce que j'appellerai procédure de validation experte). Pourquoi experte ? Parce qu'il y a d'autres procédures de validation de l'information (comme le journalisme scientifique, l'écriture de rapport par le GIEC ou une agence européenne etc.) mais elles n'ont pas le même statut d'élévation d'une croyance en connaissance, il s'agit juste de vérifier que des procédures de validation expertes ont été réalisées (ainsi que de produire une synthèse non trompeuse, mais on a déjà parlé du caractère trompeur d'une information au-delà de sa fiabilité et de sa pertinence dans le chemin BC).

Noter que la connaissance sociale ne suppose de maîtriser :

S'imaginer qu'il y a des procédures de validation expertes, c'est concevoir une source à la connaissance sociale. L'acquisition de connaissance sociale consiste alors à se convaincre qu'il doit bien y avoir une source valide à telle ou telle croyance. Ces raisons qu'on a de penser que la connaissance sociale a été validée par des procédures expertes peuvent être :

Appelons le premier type de raisons des arguments sociaux et le second des argument procéduraux.

Les procédures socialement reconnues sont dépendantes du contexte social. On parle d'épistémè pour désigner un contexte social consacrant certaines procédures de validation comme étant expertes, c'est-à-dire légitimes pour élever des croyances au statut de connaissance. La capacité à faire valoir certains propos comme étant des connaissances (autorité épistémique) provient alors de la confiance que les autres ont :

Noter que dans le cas de læ chercheur⋅se, ce ne sont pas ses arguments experts qui convainquent au sens de la connaissance sociale, c'est sa maîtrise supposée des procédures de validation expertes. En bref, les explications scientifiques sont souvent moins convaincantes qu'une publication scientifique dans un journal prestigieux ou un avis d'académie (alors même que c'est plus proche de la source).

D'ailleurs, vous vous souvenez quand on a parlé du fait que le modèle économique des journaux scientifiques soit fondé sur la réputation (dans le chemin AC), eh bien c'est parce que c'est fondamentalement lié à la notion de connaissance (sociale).

Les épistémès varient selon les époques et les contextes sociaux (religion, science…). Une épistémè scientifique est une épistémè dont les procédures de validation reconnues comme expertes sont les procédures scientifiques. Mais ce que la notion d'épistémè (d'épistémè scientifique en particulier) permet de souligner, c'est que ce n'est pas tant ce qui est scientifique qui compte pour la connaissance sociale d'un individu, c'est ce qui a l'air scientifique et plus largement quelles sont les conceptions de la science qui sont disponibles dans l'environnement social de l'individu.

La façon d'acquérir de la connaissance sociale dépend assez peu de l'épistémè : comme on l'a dit, il s'agit de s'assurer qu'on peut avoir raisonnablement confiance dans le fait que la connaissance a été dûment validée. C'est l'acquisition de ce que j'appellerai une connaissance experte (connaissance qui suppose une maîtrise de la pertinence des procédures de validation expertes, appelons ça une maîtrise des arguments experts) qui diffère vraiment d'une épistémè à l'autre : une connaissance scientifique est bien différente d'une connaissance théologique, car les arguments experts sont bien différents. Les arguments scientifiques (statistiques, calcul, expérimentation, observation…) diffèrent des arguments théologiques (exégèse de texte sacré, parole sacrée d'autorité religieuse, révélation…).

Noter qu'une connaissance experte n'est pas entièrement acquise par des arguments experts. Au contraire, elle s'appuie presque toujours sur des connaissances sociales. Elle se caractérise juste par le fait de ne pas être exclusivement une connaissance sociale.

En bref, la connaissance se construit dans une épistémè avec des arguments (raisons correctes de croire dont on a conscience) qui sont de trois types :

bonus : intelligence de groupe et reconnaissance d'expertise

Note sur le vocabulaire :

[ philosophie des sciences 🤔 1 h 12 ]


réactance

La réactance est le phénomène psychologique consistant à porter son attention sur et souvent s'opposer à ce qu'on identifie (plus ou moins consciemment) comme une privation de liberté, précisément pour la raison que ça serait une privation de liberté. Elle implique des émotions et des raisonnements.

Le décalage entre une restriction effective de liberté et ce qu'on identifie comme une privation de liberté (spontanément ou du fait d'une rhétorique dédiée) peut conduire la réactance à participer à l'acceptation de certaines restrictions de liberté (aussi appelée soumission librement consentie).

Enfin, la réactance joue notamment un rôle dans la diffusion de l'information :

Et sinon, vous avez remarqué comme ça revient, dans cet épisode comme dans le précédent, le lien entre s'informer et être vulnérable ?

[ psychologie sociale 👥 1 h 06 ]


Recherche de document scientifique en tant que non spécialiste :

La littérature scientifique d'un domaine est destinée aux spécialistes du domaine. Pour autant, même en tant que non spécialiste, il peut y avoir un intérêt à rechercher et consulter ce type de sources, pour s'informer soi ou pour informer autrui.

Il faut alors connaître et savoir utiliser les bases de données d'articles scientifiques, être familièr⋅e de la structure des articles scientifiques et porter son attention sur certains marqueurs de fiabilité accessibles aux non spécialistes :

bonus : lecture d'article scientifique en tant que non spécialiste

[ éducation aux médias et à l'information 📰 14 min ]


erreur de jugement : interne et externe, biais et bruit

Cette vidéo éclaire les erreurs de jugement à la lumière d'une classification selon leur source (interne, externe) et leur nature (biais et heuristique, bruit). Mais vous remarquerez aussi qu'elle commente les activités du mouvement zététique à la lumière de cette analyse.

C'est l'occasion, dans les textes accompagnant cet épisode et le suivant, de présenter ce mouvement. En effet, l'essentiel des contenus de cette promenade s'y rattachent ou y réagissent. La transparence et la réflexivité obligent donc à adresser le sujet.

La zététique est un mouvement militant et de vulgarisation qui s'intéresse au rapport de notre société à l'information, et en particulier à la connaissance scientifique. Ses activités se concentrent autour de trois pôles d'intérêt.

Premièrement, elle vulgarise ou recommande des contenus de diffusion des savoirs concernant :

C'est de ce premier pôle d'activité que relèvent l'essentiel des contenus de cette promenade.

[ psychologie 🎭 30 min ]


journalisme scientifique dans la presse généraliste

Deuxièmement, elle produit des contenus sur d'autres thèmes ayant trait à la science et qu'elle estime sujets à de la désinformation ou de la mésinformation. Il peut s'agir :

(Læ lecteur⋅rice attentif⋅ve aura remarqué que les trois premiers points ne sont en fait que des cas particuliers importants du quatrième point.)

Troisièmement, elle porte une critique du journalisme axée sur :

Dans cette optique, la zététique se constitue en acteur de la diffusion des savoirs, visant une moindre distorsion de l'information scientifique, par exemple avec des interviews longues d'universitaires ou de la vulgarisation faite directement par des expert⋅e⋅s. Bien que le format documentaire permette d'éviter l'écueil de la réduction de l'information à l'actualité, la zététique trouve plus naturellement sa place dans la vulgarisation scientifique. Cette dernière est en effet constituée en un réseau de médias spécialisés et la référence à d'autres contenus comme prérequis, la recommandation de contenus et de médias davantage spécialisés, et la réalisation de contenus destinés à se suivre (facilement plus longs qu'une série documentaire) sont des pratiques qui y sont normalisées.

En fait, plus largement (c'était juste plus pratique pour moi de le présenter dans cet ordre) qu'une critique du traitement journalistique des sciences et que la mise en pratique de propositions cohérentes avec cette critique, la zététique promeut une société où la science n'est pas considérée comme énonçant des vérités, des opinions ou des histoires mais comme produisant des connaissances (et où on comprend bien ce que ça veut dire, surtout), où le rapport à la science délaisse le mystique ("je ne comprends pas, ce n'est pas pour moi, j'y crois"), où une explication compliquée n'est pas considérée comme ennuyeuse et où temps libre et distraction sont moins systématiquement synonymes de folklore. Bref, un autre rapport de notre société à l'information.

(Læ lecteur⋅rice attentif⋅ve aura relevé que, plus largement qu'une critique du traitement journalistique des sciences, le troisième pôle d'activité est politique.)

Super, j'espère que vous êtes galvanisé⋅e⋅s ! Cela dit, c'était là une définition normative de la zététique. Une proposition de définition philosophique si vous voulez. (Et pour ma part ce qui m'intéresse c'est surtout l'accès à de multiples disciplines grâce à un premier contact sur les enjeux épistémiques.)

Mais on peut en avoir une description sociologique : que fait effectivement le mouvement zététique et qui le compose. Cela met en évidence quelques décalages entre le mouvement zététique et la définition normative que j'ai proposé de la zététique. En effet, le mouvement zététique a aussi ses codes, son public, sa démographie, ses figures, ses associations, ses contenus et activités davantage tournés vers la vie de la communauté et le divertissement, une intégration encore à la traîne des approches sociologiques peut-être du fait d'un ancrage fort dans les approches de psychologie et en particulier de psychologie cognitive, son héritage d'athéisme militant, sa parenté avec les mouvements sceptiques anglo-saxons, son tropisme pour le libre en terme de solution technique et de propriété intellectuelle etc. Historiquement, ce mouvement de vulgarisation est aussi à considérer comme la deuxième vague de la zététique. La première vague zététique est un mouvement universitaire visant l'étude scientifique (notamment expérimentale) des phénomènes présentés comme paranormaux ainsi qu'une documentation systématique de (voire une érudition sur) ce type de folklores. Elle se complète dans le monde de l'enseignement par un volet d'éducation à l'esprit critique, qui a donné naissances à la seconde vague.

bonus : impact médiatique d'une information scientifique, un exemple d'outil

Note : La définition normative que j'ai proposée de la zététique, c'est bien moi qui la propose. En particulier, la thèse sur le journalisme, je ne l'ai jamais vue énoncée ainsi. J'ai juste cherché à reconstituer une thèse permettant de comprendre les différents contenus produits par le mouvement sur le sujet.

[ éducation aux médias et à l'information 📰 2 h 02 ]


esprit critique

De façon très générale, la pensée critique désigne toute forme de pensée fondée sur la raison et la métacognition (pensée à propos de ses propres modes de pensée) pour déterminer quoi faire ou quoi croire.

Une forme de pensée critique est l'esprit critique qui, pour déterminer quoi faire ou quoi croire, associe :

Quelques commentaires sur cette définition. D'une part, l'esprit critique n'est pas une composante naturelle de la cognition. C'est un construit théorique et en particulier il s'apprend : chacun de ces points peut faire l'objet d'apprentissages. D'autre part, il n'y a pas d'esprit critique généraliste : chez une personne, chacun de ces points peut dépendre du contexte (fatigue, interlocuteur⋅rice, type de discussion, état d'esprit…) et du sujet abordé. À ce propos, relever notamment la nécessité de connaissances spécialisées pour faire preuve d'esprit critique sur un sujet précis.

Remarque :

On a détaillé précédemment dans l'épisode 3 du chemin ABC sur l'épistémologie sociale que les connaissances se construisent avec des arguments. L'évaluativisme consiste à étendre cette conception aux points de vue, qui intègrent non seulement ce qu'il y a lieu de croire (et parmi cela les connaissances) mais aussi ce qu'il y a lieu de faire. L'évaluativisme ne soutient pas qu'il y aurait un hypothétique point de vue valide dont il s'agirait de se rapprocher (comme la connaissance visant à se rapprocher de la vérité). Pour autant il soutient que les points de vue, et en particulier les questions prescriptives, sont des choses dont on peut débattre et surtout sur lesquelles on peut argumenter de façon précise.

Les sciences de l'éducation identifient plusieurs types d'approches de la pensée critique et de l'éducation à la pensée critique, parmi lesquelles :

Ce que l'approche rationaliste valorise, c'est la raison, et c'est pourquoi elle se concentre sur l'évaluation de la vraisemblance et de la fiabilité des discours. Ce que l'approche matérialiste valorise pour sa part, c'est la justice sociale, et c'est pourquoi elle se concentre sur l'évaluation des enjeux de pouvoirs et des effets des discours (c'est-à-dire un certain aspect de leur potentiel trompeur). Cette distinction fondamentale sur les valeurs rend difficile la conciliation des deux approches, chacune considérant plutôt l'autre comme au mieux un moyen d'arriver à sa propre fin, au pire une conception déviante de la pensée critique et nuisible à sa propre fin.

bonus : conceptions de la pensée critique

[ sciences de l'éducation 🧑‍🏫 2 h 21 ]


littératie en santé

La littératie en santé est le phénomène par lequel :

interagissent en permettant à l'individu (ce sont notamment ces points qui font l'objet de mesures pour évaluer le niveau de littératie en santé d'un individu ou d'une population) :

de façon pertinente pour sa santé, dans les différents domaines sur lesquels portent les informations de santé :

Le concept de littératie en santé est développé notamment pour être utilisé lors de l'élaboration et de la mise en place d'interventions visant à modifier le contexte, par exemple des interventions de communication sur des informations de santé, ou des interventions visant à modifier un contexte social pour permettre de trouver du soutien dans sa communauté au sujet de la santé. La santé est un des secteurs (sinon le secteur) où le concept de littératie est le plus développé et étudié.

Concernant le fait d'informer et de s'informer de façon plus générale (pas spécifiquement sur des questions de santé), des concepts de littératie sont développés dans le cadre des interactions avec le système médiatique, avec les outils numériques, avec les données (collecte, sources, analyse…) etc.

[ santé publique 🚭 2 h 40 ]


Fin !

CransWiki: petit_gastéropode/Vulgarisation_promenades/quatrième_promenade (dernière édition le 2024-01-28 23:08:13 par petit gastéropode)