S'informer : science, discours, média
Sommaire
-
S'informer : science, discours, média
- Chemin A : la modélisation scientifique sous l'angle des statistiques
- Chemin B : rhétorique
- Chemin C : de la diffusion de l'information à sa vérification
- Chemin AC : la scientificité face à la pratique de la publication
- Chemin BC : médiatisation
- Chemin ABC : informer, s'informer, être exposé à l'information
Cette promenade se compose de plusieurs chemins, initialement indépendants, mais qui finissent par se rejoindre…
Les points de départ sont :
Chemin A : la modélisation scientifique sous l'angle des statistiques
Chemin C : de la diffusion de l'information à sa vérification
Il s'agit d'avancer en parallèle et à sa guise sur ces trois chemins initiaux et de les terminer pour accéder aux chemins suivants !
Note de style : Quand un syntagme est souligné c'est qu'il s'agit d'une définition.
Chemin A : la modélisation scientifique sous l'angle des statistiques
Étant donné une question, on peut faire plusieurs hypothèses sur sa réponse. L'hypothèse nulle est par définition celle qui serait la plus facile à réfuter si elle était fausse. La notion d'hypothèse nulle permet de mieux concevoir ce qu'est apprendre. À moyens égaux mobilisés pour l'investigation : À la base du paradigme statistique dit fréquentiste, il y a le fait de privilégier le modèle considérant l'hypothèse nulle, et ce jusqu'à preuve du contraire, et en particulier dès le début, avant toute observation. Il ne s'agit pas d'une considération épistémique (= dire que l'hypothèse nulle serait plus probable, alors même qu'on n'a rien observé) mais d'une considération épistémologique (= dire que ça permet mieux d'apprendre de considérer par défaut l'hypothèse nulle). C'est une version améliorée du principe de parcimonie, car cela permet de traiter d'autres cas que les questions d'existence.
[ philosophie des sciences 🤔 14 min ]
Dans le cadre de modélisations probabilistes, le savoir vient des statistiques. La notion de base est alors celle de facteur de risque, particulièrement utilisée dans le domaine médical.
[ épidémiologie 🏥 14 min ]
Risque relatif, rapport de cotes, nombre de personnes pour traiter… il existe différents indicateurs de taille d'effet pour comparer des facteurs de risque. Et en effet, tous les facteurs de risques ne se valent pas du tout.
[ statistiques 🎲 17 min ]
risque relatif, risque absolu et balance bénéfice-risque
Les tailles d'effet sont exprimées en risque relatif. Mais pour la prise de décision (balance bénéfice-risque) ce sont les risques absolus qui comptent.
[ statistiques 🎲 15 min ]
puissance, étude négative et preuve de l’absence
Lorsqu'une étude ne permet pas de mettre en évidence une taille d'effet non nulle, il se pourrait que ce soit parce que la taille d'effet réelle n'est pas nulle mais quand même trop petite pour que la proba de résultat positif soit importante. Autrement dit, ça peut être parce que la probabilité conditionnelle d'obtenir un résultat positif sachant qu'il y a un phénomène est trop faible. Cette probabilité s'appelle la puissance d'une étude. Elle croît notamment avec la taille de l'échantillon. Les résultat négatifs d'études de forte puissance réduisent la confiance qu'on peut avoir dans l'existence d'une taille d'effet d'une certaine ampleur.
[ statistique 🎲 16 min ]
paradoxe de Simpson et facteur de confusion
Quand on demande à leurs amis de comparer des pâtisseries qu'iels cuisinent, il ressort qu'en moyenne Alex fait de meilleurs pâtisseries que Charlie. Mais en moyenne, les forêts noires de Charlie sont meilleures que les celles d'Alex, et ses choux à la crème aussi sont meilleurs que ceux d'Alex. Comment est-ce possible, alors que Charlie et Alex ne savent cuisiner que des forêts noires et des choux à la crème ? Et surtout, qui cuisine le mieux ? La voilà la limite fondamentale des études observationnelles dans la recherche de la causalité : les facteurs de confusion potentiels par lesquels on n'aurait pas contrôlé. Réponse : Charlie cuisine bien plus de choux à la crème, qui sont intrinsèquement souvent moins bons que les forêts noires, mais c'est bien Charlie qui cuisine le mieux.
[ statistiques 🎲 14 min ]
causalité et critères de Bradford-Hill
Maintenant qu'on est au clair sur les corrélations, leur ampleur (taille d'effet) et leur absence, quid de la causalité ? On peut la mettre en évidence par l'observation d'une corrélation dans une étude prospective contrôlée randomisée en double aveugle. Mais lorsqu'on ne peut pas faire d'étude prospective, c'est fichu ? Non, les critères de Bradford-Hill peuvent aider à conclure.
[ statistiques 🎲 31 min ]
En moyenne, vous poivrez raisonnablement vos salades, et dans chaque salade le poivre est potentiellement réparti de façon inhomogène. Dans la salade que vous venez de prendre au hasard dans votre réfrigérateur, la première bouchée que vous avez prise est fort poivrée. À propos de la deuxième bouchée, vous pensez que : Réponse : (a) est le sophisme du joueur, mauvaise réponse ; (1) est la régression à la moyenne, bonne réponse ; (c) est aussi une bonne réponse, cette salade est probablement plus poivrée que la moyenne
bonus : théorème centrale limite
[ statistiques 🎲 14 min ]
réalisme scientifique, réalisme métaphysique, réalisme structural, antiréalisme, instrumentalisme
Le réalisme métaphysique est la thèse selon laquelle il y a quelque chose d'autre que les données des sens : il y a une réalité en dehors des perceptions et elle les influence. C'est ça qu'on entend par réalité dans la suite. La méthode scientifique conduit à produire des théories prédictives des données des sens (instrumentalisme). Les objets et mécanismes postulés par ces théories ont-ils pour autant une correspondance avec la réalité ? Plusieurs positions existent à ce sujet, dont voici la nomenclature : réalisme scientifique : oui, ne serait-ce qu'en tant qu'approximation, antiréalisme scientifique : non, il n'y a pas de raison, réalisme structurale : mais concernant la structure des relations entre les objets (par exemple : il y a des trucs qui interagissent entre eux au moins approximativement comme la mécanique quantique décrit l'interaction des électrons – même si la nature de cette interaction, états quantifiés superposés, fonction d'onde et tout, n'a rien à voir avec la réalité – et ce sont ces interactions qui expliquent la chimie) oui, au moins pour les théories qui ont conduit à des prédictions correctes dans des conditions toutes autres que les observations qui ont conduit à les élaborer.
[ philosophie des sciences 🤔 17 min ]
Il y a plusieurs types de probabilités : probabilité fréquentiste : une probabilité est une fréquence, une proportion d’occurrences, probabilité épistémique : une probabilité est une confiance qu'on a en une affirmation. Pour une théorie, le terme technique employé est crédence de la théorie (comprendre crédibilité). Pour une observation, on parle simplement de probabilité (épistémique) de l'observation (c'est plus court que : crédence de la théorie "on fera telle observation"). Données et théories se croisent dans les probabilités conditionnelles : vraisemblance de données : la probabilité fréquentiste d'observer telles données sachant une théorie, plausibilité d'une théorie : la probabilité épistémique d'une théorie sachant qu'on a observé telles données. Ces deux façons différentes de mêler observations et théories sont à la base de deux paradigmes statistiques : le fréquentisme et le bayésianisme.
[ statistiques 🎲 22 min ]
L'inférence à la meilleure hypothèse (aussi appelée abduction) est un enjeu épistémologique majeur. Il s'agit de retenir comme modèle celui qui au vu des données est le meilleur. Dit comme ça, ça a pourtant l'air trivial. A-t-on vraiment avancé dans la formalisation d'une méthode scientifique avec cette présentation ? En fait oui, car formulée ainsi, on voit que pour spécifier une méthode statistique il suffit de spécifier : Le fréquentisme est le paradigme statistique qui spécifie ces éléments ainsi : discrimination : le meilleur modèle est celui qui est le meilleur selon un estimateur statistique (typiquement, le meilleur modèle est celui dont la vraisemblance vis-à-vis des données est maximale – on parle d'estimateur statistique du maximum de vraisemblance). Les outils du fréquentisme sont très puissants mais les hypothèses fortes sur les données supposent des designs d'études rigoureux pour collecter des données. Aujourd'hui il y a un enjeu à pouvoir extraire des connaissances de façon statistiquement rigoureuse : Le bayésianisme propose pour cela d'adopter un autre triptyque modèles-données-discrimination. Rendez-vous un peu plus loin dans le chemin A !
[ statistiques 🎲 17 min ]
Ouvrons pour quelques épisodes la boîte à outils de læ statisticien⋅ne fréquentiste. Une façon cheap et au rabais d'approcher l'abduction fréquentiste par maximum de vraisemblance, c'est de pratiquer le rejet d'une hypothèse peu vraisemblable H0 en la soumettant à un test statistique qu'elle échoue à passer. Ceci n'est possible que si on dispose d'une procédure de test dont l'hypothèse nulle est justement H0. (En pratique c'est parce qu'il existe des procédures de test dont l'hypothèse nulle est H0 qu'on étudie la question… rendez-vous au chemin AC.) Plus précisément, le rôle de læ statisticien⋅ne est alors de concevoir des procédures de test composées de : un test statistique pour cette distribution : un test dans lequel, si l'hypothèse nulle est vraie, les données collectées échouent à ce test avec probabilité (fréquentiste) au plus s (où s est un seuil fixé à l'avance, typiquement 5 % ou 1 %). Il s'agit d'une garantie qu'une proportion au plus s des hypothèses nulles vraies testées seront rejetées à tort. Techniquement, le risque (probabilité fréquentiste) de rejet d'une hypothèse nulle vraie est nommé risque alpha. Ainsi, s est un majorant du risque alpha. La vidéo prend l'exemple de la distribution hypergéométrique.
[ statistiques 🎲 10 min ]
Le test d'hypothèse de l'épisode précédent est le plus souvent de la forme suivante : une formule pour calculer la p-valeur des données, c'est-à-dire la vraisemblance (vis-à-vis de cette distribution) de collecter des données au moins aussi défavorables à l'hypothèse nulle que les données effectivement collectées, Propriété fondamentale des tests statistiques par p-valeur : Si l'hypothèse nulle est vraie, les données collectées échouent au test avec probabilité au plus s. Dit autrement, le s "p-valeur seuil" ce cet épisode est le même que le s "majorant du risque alpha" de l'épisode précédent. Les principaux points d'attention concernant les tests statistiques par p-valeur sont : ne pas oublier les autres biais pour autant : ce n'est pas parce que l'étape de traitement statistique bénéficie d'une garantie – qui de plus ne porte que sur le risque de rejeter une hypothèse vraie (risque alpha) et pas du tout sur celui de ne pas rejeter une hypothèse fausse (risque bêta) – que le processus du labo à la publication (voire à la lecture) bénéficie d'une garantie du même ordre.
[ statistiques 🎲 14 min ]
intervalle de fluctuation, intervalle de confiance
À la fête foraine du coin, il y a un jeu consistant à donner un coup de filet dans un bassin d'eau trouble pour capturer un petit poisson qui y nage. Et c'est difficile car les seules informations sont les mouvements parfois trompeurs de l'eau en surface. Votre pote Alex est très doué⋅e à ce jeu. Iel repère les vaguelettes en surface comme personne. Iel réussi 95 % du temps. Aujourd'hui vous accompagnez Alex. Et vous savez (mais Alex ne le sais pas) que le poisson qui est dans le bassin aujourd'hui a une préférence très marquée pour le coin en haut à gauche : il ne passe qu'un millième de son temps hors de cette zone. 1… 2… 3 ! Alex vient de donner un coup de filet en bas à droite du bassin. Vous ne vous attendiez pas à ça : vous, vous auriez essayé en haut à gauche. Alex aurait raté ? Après tout ça lui arrive une fois sur vingt de rater son coup, alors que le poisson n'est qu'une fois sur mille hors du coin en haut à gauche. Le coup de filet d'Alex vous fait un peu douter sur la position du poisson, mais tout de même ce coup-ci vous ne diriez pas qu'Alex a 95 % de chances d'avoir attrapé le poisson. Carrément, si vous deviez pariez, vous parieriez qu'Alex a raté. Un intervalle de confiance, c'est un coup de filet d'Alex. C'est une information importante car ça capture souvent le paramètre (la position du poisson). Mais ce que vous savez ne se résume pas à ça : le coup de filet ne vient qu'ajuster ce que vous pensez de la position du poisson a priori. Il est tout aussi faux : Un intervalle de fluctuation, c'est la zone dans laquelle on peut s'attendre à voir la prochaine vaguelette en surface quand on sait où se trouve le poisson. On ferme ici la boîte à outils fréquentiste.
[ statistiques 🎲 13 min ]
design d'étude épidémiologique
On l'a dit, un des rôles des statisticien⋅ne⋅s et autre méthodologistes, c'est de mettre au point des designs d'étude permettant des tests statistiques. Un test statistique vise à établir s'il y a vraisemblablement une association entre des variables. Mais ce qui permet d'interpréter cette association (notamment savoir si elle est causale) c'est le design d'étude. Enfin, l'enjeu n'est pas seulement de pouvoir tester de nombreux types d'hypothèse nulle différents, mais aussi pour chaque type d'hypothèse nulle de maximiser la puissance statistique et de minimiser les coûts de l'expérience. C'est par exemple l'objet du design d'essai randomisé en bras croisés, qui lorsqu'il est réalisable permet une plus grande puissance statistique à moindre coûts que l'essai randomisé contrôlé (les deux permettant d'interpréter les associations comme causales).
[ épidémiologie 🏥 11 min ]
facteur de Bayes et rapport de cotes
(en anglais)
Vous vous souvenez de votre pote Alex d'il y a deux épisodes, particulièrement doué⋅e à ce jeu de fête foraine. Vous vous souvenez donc qu'un coup de filet d'Alex, aussi souvent réussi soit-il, ne doit qu'ajuster votre connaissance. Formalisons cela, d'une façon néanmoins pratique pour être manipulée de tête.
[ statistiques 🎲 20 min ]
problème de l'induction et principe d'uniformitarisme
Prédire des observations futures à partir d'observations passées, c'est faire de l'induction. Mais comment justifier le fait d'adopter cette démarche ? On pourrait dire que jusqu'ici ça a marché, donc que ça fait sens de continuer… mais cet argument relève lui-même de l'induction. Il faut adopter un principe permettant de justifier la démarche d'induction. Ce principe c'est le principe d'uniformitarisme (ou principe de régularité, ou principe d'actualisme) : jusqu'à preuve du contraire, les choses se passaient avant comme elles se passent aujourd'hui. Mais que signifie "se passer comme" ? Il s'agit des lois de la nature sous-jacentes aux observables. Le principe de régularité, c'est donc deux assertions : Pour formaliser la notion de "loi de la nature", il faut faire appel à la notion d'algorithme et une théorie mathématique associée : la théorie algorithmique de l'information. L'incertitude concernant les prédictions faites par induction provient fondamentalement de l'incertitude concernant les lois de la nature. Pour formaliser cela, il faut allier la théorie des probabilités et la théorie algorithmique de l'information en une théorie des probabilités algorithmique.
[ philosophie des sciences 🤔 15 min ]
Vous vous souvenez du triptyque modèles-données-discrimination ? En voilà la version bayésienne à la Solomonoff : modèles : algorithme associant à chaque observation une probabilité épistémique (ce qu'on peut appeler une théorie à la Solomonoff), discrimination : on utilise l'induction de Solomonoff (issue de la théorie des probabilités algorithmique) pour calculer la crédence de chaque modèle et par abduction on retient le modèle ayant la plus grande crédence. L'induction de Solomonoff procède comme suit : a priori universel de Solomonoff : la crédence a priori d'un modèle est proportionnelle à exp(-l), où l est la longueur du code nécessaire pour décrire l'algorithme qu'est le modèle (aussi appelée complexité de Kolmogorov de l'algorithme) ; et même si cette longueur est dépendante du langage de programmation, cela n'affecte finalement que peu le résultat de l'induction de Solomonoff, Le principe de parcimonie consiste à privilégier les modèles les plus simples… mais dit comme ça c'est assez flou. Dans l'épisode 1 du chemin A, on a précisé ce principe dans un cadre fréquentiste en donnant : L'a priori universel de Solomonoff est une façon bayésienne de préciser le principe de parcimonie, en donnant cette fois : une signification probabiliste épistémique de "privilégier" : la crédence a priori des modèles plus complexes est plus petite (exponentiellement plus petite en la complexité de Kolmogorov du modèle).
Le théorème de complétude de Solomonoff énonce que :
- si on considère (magiquement) un nombre dénombrable de théories (ce qui est en particulier le cas des théories à la Solomonoff)
- si les lois de l'univers correspondent à une de ces théories (c'est-à-dire si ces lois sont un algorithme qui à un état de l'univers associe l'état suivant, quitte à user d'aléatoire, avec des probabilités égales à celles de cette théorie)
- si on affecte une crédence a priori non nulle à chacune de ces théories (c'est-à-dire si on a un a priori universel sur ces théories, ce qui est le cas avec l'a priori universel de Solomonoff)
- si on met à jour la crédence de chaque théorie grâce aux observations en appliquant les lois des probabilités (comme dans l'induction de Solomonoff)
alors
- la crédence de la théorie qui correspond aux lois de l'univers tend vers 1
- c'est-à-dire que les prédictions qu'on fait avec la théorie la plus crédible jusqu'ici tend vers les mêmes prédictions que celles qu'on ferait en connaissant les lois de l'univers (c'est-à-dire en ignorant seulement l'aléatoire)
- de plus, l’espérance du cumul d'erreur quadratique (carré de l'écart entre la probabilité donnée par la théorie la plus crédible jusqu'ici que la prochaine observation soit 1 et la probabilité donnée par les lois de l'univers que la prochaine observation soit 1) des prédictions est fini (et inférieur à la complexité de Kolmogorov desdites lois de l'univers).
C'est-à-dire que l'induction de Solomonoff fonctionne… si parmi les algorithmes on peut magiquement ne considérer que les théories à la Solomonoff.
Note sur le vocabulaire : "universel" dans "a priori universel de Solomonoff" signifie juste qu'aucune crédence a priori n'est nulle.
bonus : a priori universel de Solomonoff
[ informatique théorique ✅ 23 min ]
complétude partielle de l'induction de Solomonoff
Justement, le problème de l'induction de Solomonoff, c'est qu'il n'existe pas d'algorithme permettant de classifier les algorithmes entre ceux qui sont des théories à la Solomonoff et ceux qui ne le sont pas (on dit que le problème de décision des théories à la Solomonoff n'est pas calculable). Impossible de mettre en place la machinerie décrite à l'épisode précédent (ni même de l'approximer en fait). C'est cependant possible pour un sous-ensemble des théories à la Solomonoff : les théories au temps de calcul constant (plus intuitivement, celles qui décrivent l'univers comme un automate cellulaire). Précisons cela. Étant donné une observation (par exemple : 01101) une théories à la Solomonoff lui affecte une certaine probabilité (01101 -> p). Les observations correspondant à la même observation mais récoltant une donnée supplémentaire (011010 et 011011) se partagent cette probabilité (011010 -> p0 ; 011011 -> p1 ; avec p0 + p1 = p). Une théorie au temps de calcul constant est une théorie à la Solomonoff qui calcule ce type de partage en un temps toujours plus petit qu'un certain temps forfaitaire (calculer 011010 -> p0 et 011011 -> p1 quand on a déjà calculé 01101 -> p ne prend pas plus de temps que le temps forfaitaire). On en vient donc au triptyque modèles-données-discrimination bayésien suivant : Mais bien qu'il soit possible de mettre en place cette machinerie, il n'est pas possible de le faire efficacement. En effet, l'étape de l'induction de Solomonoff consistant à mettre à jour la crédence d'une théories grâce à la nouvelle observation est un problème NP-difficile (et nécessite donc un temps exponentiel en la taille de la théorie, selon la conjecture P différent de NP qui est consensuelle en théorie de la complexité). Tout l'enjeu ici pour les statisticien⋅ne⋅s, informaticien⋅ne⋅s et autres méthodologistes est donc de trouver des façons cheap d'approximer cette référence, tout comme le test d'hypothèse approxime l'abduction fréquentiste. Le champ de recherche porte le nom d'apprentissage statistique.
bonus : thèse de l'irréductibilité algorithmique et sophisme de l'omniscience logique
[ informatique théorique ✅ 10 min ]
valeur épistémique et modélisation
(le lien commence la vidéo au début de l'extrait)
Voilà essentiellement les trois objectifs (valeurs épistémiques) que peut viser une modélisation : On l'a vu, les statistiques et la théorie des probabilité algorithmique ont poussé très loin les méthodes pour faire des prédictions. Pour nous, c'est l'occasion de sentir la difficulté d'optimiser conjointement ces différentes valeurs épistémiques : les meilleures méthodes prédictives sont des tambouilles statistiques qui n'ont que faire des mécanismes qui sous-tendent les phénomènes. Typiquement un réseau de neurones : Pour autant, ces valeurs épistémiques ne font pas que s'opposer. Comme on l'a vu dans l'épisode sur le réalisme structural, faire des prédictions correctes dans des conditions toutes autres que les observations qui ont conduit à élaborer la théorie (ou dans un langage plus proche de l'apprentissage statistique, faire des prédictions correctes hors du domaine d'entraînement), c'est un indice de compréhension, voire de réalisme structural.
[ philosophie des sciences 🤔 3 min ]
variance expliquée
(le lien commence la vidéo au début de l'extrait)
La variance expliquée est une notion plus en phase avec la valeur épistémique de compréhension : elle permet par exemple d'évaluer à quel point un modèle est bon au sens de la valeur épistémique de compréhension. N'allez pas penser pour autant qu'il s'agit de la technique statistique la plus élaborée dans sa direction. Il existe par exemple l'analyse en composantes principales qui identifie dans un jeu de données les n paramètres indépendants expliquant ensemble la plus grande part de la variance. Zut ! On retombe sur les bases de l'apprentissage statistique… Ah, et sachez que l'héritabilité est une variance expliquée ! (C'est essentiel à comprendre pour interpréter correctement cet indicateur de biologie évolutive… mais certes, c'est une autre histoire.)
[ statistiques 🎲 6 min]
Après avoir terminé le chemin C, la suite est au chemin AC.
Chemin B : rhétorique
La rhétorique s'intéresse aux effets des discours. Et certaines façons de discourir produisent des effets essentiellement indépendants de la valeur argumentative du propos. On parle de procédé rhétorique pour les désigner. L'appel à la nature est le procédé rhétorique consistant à présenter une position morale (= "telle chose est bien" ou "faire telle chose est mal") comme étant justifiée par le fait que telle chose soit naturelle ou telle autre artificielle. L'effet est là : l'impression d'une argumentation (au lieu d'une affirmation semblant arbitraire). Dit autrement, on a augmenté la profondeur argumentative du discours, ce qui ne le rend pas forcément plus valide, mais en donne l'impression. En fait : Bien entendu, les procédés rhétoriques n'ont pas à être cohérents entre eux du point de vue argumentatif. Ainsi on pourrait aussi bien se revendiquer de la modernité ou de la technologie et produire le même type d'effet. La structure importante à identifier, c'est l'utilisation d'une connotation comme argument. Précisons cela. C'est le couple dénotation/connotation qui est en jeu : Toute l'entourloupe réside dans le fait de donner l'impression d'un raisonnement argumenté (c'est-à-dire explicite) alors qu'il se fonde sur de l'implicite. C'est ça, utiliser une connotation comme argument.
bonus : guillotine de Hume
[ rhétorique 🗣️ 14 min ]
La reformulation des thèses et la discussion des conséquences sont des éléments essentiels aux discussions. C'est pourquoi elles sont porteuses d'effets rhétoriques… même lorsqu'elles sont effectuées de façon abusive.
bonus : pente glissante
[ rhétorique 🗣️ 5 min ]
Susciter la pitié peut permettre de modifier la perception du reste du discours et en particulier permettre de contourner les questions d'argumentation (persuasion). Cela peut aussi rendre l'interlocuteur plus prompt à l'action. Il s'agit bien là d'un procédé rhétorique puisque ces effets ne passent pas par l'argumentation. D'un point de vue argumentatif, pointer le caractère pitoyable d'une situation sert à soutenir qu'il faut un changement. Le verbe falloir est important ici : l'appel à la pitié n'est pas un argument qu'on emploie pour obtenir l'adhésion à une description, mais pour obtenir l'adhésion à un devoir et en particulier pour obtenir une prise de décision. Il ne prend d'ailleurs pas toujours la forme d'un argument isolable, mais aussi parfois celle d'une stratégie argumentative (façon d'articuler les arguments et de construire l'argumentaire). Certaines conceptions considèrent que l'appel à la pitié n'est jamais une forme argumentative (argument ou stratégie argumentative) valide, tandis que d'autres considèrent que ce sont seulement certaines articulations avec le reste de l'argumentaire qui sont invalides. L'appel à la pitié fait l'objet de critiques sur les plans rhétorique et argumentatif. Cela pousse à considérer des formes argumentatives alternatives : appel à l'intérêt bien compris.
[ rhétorique 🗣️ 12 min ]
Quitte à moins les détailler, voyons d'autres procédés rhétoriques et des exemple de mise en pratique pour avoir plus de facilité à les repérer et y réagir de façon adéquate. Bref, le but du chemin B n'est pas de dresser une liste exhaustive des procédés rhétoriques, d'autant que ça ne permettrait pas de faire le tour de ce qui est trompeur ou ne l'est pas les concernant. Passons à autre chose.
bonus : quelques autres encore
[ rhétorique 🗣️ 24 min ]
contexte autour de l'image : montage et effet Koulechov, micro-trottoir, extrait, légende…
Dans notre société où la communication n'est plus basée sur l'écrit mais sur l'image, celle-ci s'intègre au discours. Dans cette optique, la vidéo présente des situations où le contexte – ou l'absence de contexte dans le cadre des extraits – sert la rhétorique. Elle présente notamment les bases du montage, avec l'exemple du micro-trottoir. Finalement, cacher des éléments permettant la vérification de l'information peut servir le discours. La rencontre entre les chemin B et chemin C ne saurait tarder.
[ rhétorique 🗣️ 36 min ]
introduction à la lecture d'image partie 1 et partie 2
Symbolique, ethnocentrisme, répétition, humour, saillance de la mort… les images sont tout autant sujettes aux procédés rhétoriques que les autres formes de discours. Cela vient du fait qu'elles sont porteuses de signification, aussi bien par ce qui est explicitement montré à l'image (dénotation) que par l'imaginaire et les représentations qui sont mobilisés (connotation). Étudier comment la construction des images permet de leur donner une signification relève de la sémiologie.
[ sémiologie 🖼️ 13 + 17 = 30 min ]
Après avoir terminé le chemin C, la suite est au chemin BC.
Chemin C : de la diffusion de l'information à sa vérification
modèle socio-psychologique de la diffusion des informations
La diffusion médiatique des informations participe à la construction des représentations populaires, influençant à leur tour les témoignages qui pourront être repris dans la presse. La boucle est bouclée !
[ éducation aux médias et à l'information 📰 20 min ]
formation et diffusion de rumeur
En ligne, la structure de la propagation d'une information est un indicateur de sa véracité. De plus, la reproduction imparfaite aux différentes étapes de la propagation conduit à une distorsion de l'information. Cette distorsion n'est pas aléatoire, elle va dans le sens des représentations du groupe social dans lequel la rumeur se diffuse.
bonus : simplification et distorsion réduisant la dissonance cognitive lors de la diffusion de rumeur
[ psychologie sociale 👥 13 min ]
chambre d'échos, effet de groupe et identité sociale
On parle de chambre d’échos lorsque la diversité de l'information à laquelle un individu est exposé est réduite. Plusieurs phénomènes expliquent les effets de chambre d'échos en ligne : les bulles de filtre (effet le plus minime des trois à court terme) : conséquences de la personnalisation automatique des fils d'information et résultats de recherches, les effets de groupe (principal phénomène à court terme) : on échange plus d'information avec des personnes ayant des opinions et centres d'intérêt proches, Cette vidéo se concentre notamment sur les effets de groupe, qui sont la conséquence du phénomène d'identité sociale (construction d'une image de soi par les catégories sociales d'appartenance) et de la tendance à chercher à avoir une identité sociale valorisée. Avoir une identité sociale valorisée passe notamment par : Finalement, certaines thèses sont davantage l'affirmation d'une identité sociale que d'une connaissance.
[ psychologie sociale 👥 24 min ]
remonter aux sources, croiser les sources
Vérifier une information consiste à : Recherche par mots clefs, par image, par image similaire, sur un moteur de recherche spécialisé (journalistique, académique…) etc. C'est l'occasion de mettre à profit de multiples outils.
[ éducation aux médias et à l'information 📰 21 min ]
La vérification de l'information peut comporter une dimension technique et les images présentent à cet égard certaines spécificités : utilisation de moteur de recherche par image (et on retombe ici sur les aspects généraux de la vérification d'information).
bonus : dégradation de la qualité d'image
[ éducation aux médias et à l'information 📰 48 min ]
lecture de graphique : choix de représentation de données
Avoir des données chiffrées représentées visuellement, c'est bien. Savoir les lire en temps réel et porter son attention sur les potentiels erreurs et aspects trompeurs, c'est mieux ! La vérification de données graphiques consiste à vérifier : La vérification de graphique mêle donc une attention sur :
bonus : lecture de graphique : choix de données à représenter
[ éducation aux médias et à l'information 📰 28 min ]
Après avoir terminé le chemin A, la suite est au chemin AC. Après avoir terminé le chemin B, la suite est au chemin BC.
Chemin AC : la scientificité face à la pratique de la publication
La publication scientifique est caractérisée par le processus de revue par les pairs, qui suggèrent des améliorations et ultimement conditionnent le fait qu'une production soit publiée. Cela conduit (supposément) à s'assurer que les publications scientifiques respectent des normes, certaines étant très générales, comme le fait de situer le travail par rapport au reste des travaux scientifiques (introduction, bibliographie…), d'autres étant très spécifiques à un domaine de recherche. Dans un journal scientifique on trouve différents types d'articles : article de recherche originale : présente de nouvelles recherches, revue de la littérature : revue narrative : synthèse sur un sujet, permettant notamment sa découverte par læ lecteur⋅rice, revue systématique de la littérature : réponse à une question de recherche via l'étude de la littérature sur le sujet (avec une méthodologie précise de sélection et d'analyse des études), méta-analyse : revue systématique avec une approche statistique d'agrégation des résultats, Les journaux scientifiques sont spécialisés (par domaine, par importance scientifique ou sociétale des résultats…). Leur influence fait l'objet d'indicateurs. Le facteur d'impact (nombre moyen de citations par article au cours des deux dernières années) vise à comparer des journaux ayant une spécialisation semblable, mais il ne reflète ni la variabilité du nombre de citations entre les articles d'un journal, ni l'accumulation de citations par les articles sur le long terme (cela dit, l'accumulation de citations sur le long terme est grandement prédictible à partir de l'accumulation de citations dans la période suivant la publication). Les revues prédatrices sont des pratiques commerciales trompeuses consistant à faire passer un processus de publication pour scientifique alors qu'il ne l'est pas. Court délai et faible coût de publication, comité éditorial fictif, taux d'acceptation d'article proche de 100%, pas de référencement dans les bases de données d'articles scientifiques ou les répertoires internationaux de journaux scientifiques, spam… sont autant d'indices permettant de les identifier. Il existe aussi des journaux scientifiques autopromotionnels permettant de gonfler artificiellement le nombre de publication des scientifiques proches du comité éditorial. Le modèle économique des journaux scientifiques vise l'indépendance et se base donc exclusivement sur la réputation (comme de nombreux autres aspects de la pratique scientifique). Notamment, les scientifiques relecteurs pour la revue par les pairs sont bénévoles, c'est-à-dire qu'ils sont payés par leur employeur indépendamment de leur participation à telle ou telle relecture de tel ou tel journal. L'engagement des chercheur⋅se⋅s dans des processus de publication participe d'ailleurs de leur réputation. De même, les éditeurs scientifiques sont indépendants des structures qui financent et organisent la recherche. Les frais de publication d'un article couvrent les frais de fonctionnement du journal, mais ils rétribuent surtout le journal pour : (Plus de détails dans le complément sur le modèle économique ci-dessous.) Le fait que la lecture d'articles (individuels ou par abonnement) soit payante complète le modèle économique, mais certains journaux, dits en accès libre, ne font pas payer la lecture. Des initiatives illégales (car la propriété intellectuelle revient souvent à l'éditeur) visent la diffusion gratuite des articles scientifiques payants. Il existe aussi des plateformes légales et gratuites de publication en accès libre d'articles avant la relecture par les pairs (on parle de pré-print) qui permettent la diffusion d'articles avant les versions ultérieures qui deviennent propriétaires de l'éditeur (par exemple la plateforme arXiv qui porte principalement sur les sciences formelles et la physique, ou la plateforme medRxiv qui porte sur les sciences biomédicales). Plus de la moité des parts de marché de la publication scientifique sont détenues par un oligopole de cinq éditeurs.
Complément sur le modèle économique de la publication scientifique :
Le cœur de métier d'un journal scientifique, plutôt que le travail d'édition, c'est le travail de sélection. En ne sélectionnant presque que des bons articles et en donnant tous les gages de confiance que quand il y a un article qui est passé alors que vraiment c'est une erreur on indique l'article comme rétracté, le journal se constitue une réputation, et à travers cette réputation, un lectorat. Quand on est un organisme de recherche et qu'on veut faire connaître ses travaux, on veut les faire connaître auprès de ce lectorat, et donc on veut publier dans le journal en question. Mais en publiant notre article, le journal prend un risque : il prend le risque que l'article ne soit en fait pas si bon et que le lectorat soit déçu, bref, il prend un risque pour sa réputation. Or la réputation du journal, c'est ce qui fait toute sa valeur marchande. Il faut donc rémunérer le journal pour ce risque. Et c'est ça que paye l'organisme de recherche. Il rémunère le capital réputation : En passant, on comprend que la relecture par les pairs (je dis relecture pour distinguer du reste de la revue par les pairs qui a lieu après publication, une fois que le journal a engagé sa réputation), ce n'est pas un service qu'on paye au journal et que celui-ci aurait intérêt à faire à la va vite pour faire plus de marge. Pas du tout : la revue par les pairs, le journal la fait pour garantir la qualité des articles et ainsi protéger sa réputation. Le journal a économiquement intérêt à organiser une excellente et rigoureuse relecture par les pairs même si on ne le payait pas pour ça (par opposition au modèle économique des journaux prédateurs). Et comme on l'a vu, effectivement on ne le paye pas pour ça : on rémunère le risque pris pour la réputation, car cette réputation permettra le même genre de rémunération dans le futur. Digression : introduction à l'épistémologie sociale (en anticipation du chemin ABC) Ce qu'il faut sentir aussi, c'est que les mécanismes de réputation sont fondamentalement liés à la construction des connaissances. En fait la connaissance (au-delà du cercle extrêmement restreint des quelques spécialistes qui maîtrisent absolument tous les tenants et aboutissants de pourquoi on sait qu'on sait, bref tous les détails de la preuve – ce qui d'ailleurs est un cercle souvent vide puisqu'on utilise partout des technologies et des résultats développées par d'autres, et de façon plus cruciale encore par d'autre disciplines qu'on ne maîtrise pas – au-delà donc de ce cercle souvent vide) c'est la réputation. Vu qu'en plus la connaissance est aussi par définition quelque chose qu'on peut transmettre, or on ne peut pas se permettre de considérer qu'il faut pour cela transmettre l'intégralité de l'expertise qu'il faut pour tout comprendre de la preuve, alors littéralement, la connaissance c'est la réputation. En tout cas, si on accepte l'idée que connaître: alors c'est inévitable, la connaissance scientifique c'est une certaine forme de réputation, relative à certains groupes sociaux (aussi appelés les domaines scientifiques, composés de leurs spécialistes) et certaines institutions (usuellement dénommées sociétés savantes, ou encore… journaux scientifiques réputés). Fin de la digression. Reprenons en soulignant en quoi l'accumulation de capital réputation est fonctionnelle (= participe à ce que le processus de publication scientifique remplisse ses fonctions) car ainsi on comprend le service que paye la société à travers la rémunération de ce capital. D'une part, ça permet de regrouper les avancées les plus importantes à diffuser dans les journaux lus par le plus vaste public et au contraire les résultats qui intéressent un public plus spécialisé dans des journaux plus spécialisés. C'est une organisation super efficace de la diffusion des connaissances que la société rémunère. D'autre part, si vous avez suivi la digression, un résultat qu'on peut affirmer quand on a une grande réputation à défendre (le genre de réputation qu'aucun individu ne peut effleurer, seulement des institutions comme des grands journaux), c'est-à-dire quand on a beaucoup à perdre, un tel résultat c'est un résultat : En fait, la réputation c'est le consensus. Avoir des institutions avec un grand capital réputation, c'est avoir des garants du consensus : des entités qui ont des grands incitatifs à dire, et à ne dire que, des choses très consensuelles, c'est-à-dire très bien établies et très importantes dans leurs domaines respectifs. Et le modèle économique de la publication scientifique fait que perdre du capital réputation, pour les journaux scientifiques, c'est perdre du capital économique : le reflet fidèle du consensus actuel est un enjeu de réputation pour les journaux scientifique, et leur modèle économique fait de cette réputation un enjeu économique. Donc c'est ça le rôle des multiples journaux scientifiques, c'est d'avoir cette diffusion efficace et stratifiée des connaissances : C'est-à-dire un rôle fondamental de construction des connaissances. Et c'est ça que la société paye quand les structures de recherche payent les journaux pour publier. Ce qu'on paye à la publication est en gros indépendant du prix du travail d'édition et seulement fonction de la réputation. C'est juste la façon de faire exister matériellement le consensus, c'est-à-dire la connaissance. Aujourd'hui il y a beaucoup de recherche donc il est possible d'avoir une grande réputation (car il y a beaucoup de choses pertinentes à dire), et par ailleurs le travail d'édition coûte peu cher, donc les journaux gagnent très très bien leur vie en faisant payer la publication. Mais dans l'état actuel du processus de publication scientifique, ça n'est pas une déviance par rapport à un fonctionnement normal, c'est bien le fonctionnement normal qui permet de remplir la fonction. Dire cela n’empêche d'ailleurs pas d'envisager des réformes du modèle économique des journaux scientifiques, mais ça pointe effectivement qu'une simple abolition du coût à la publication poserait des problèmes cruciaux. Notons enfin que le coût de la publication n'est pas un incitatif économique à jouer le jeu uniquement pour le journal, mais aussi pour les instituts de recherche. En effet, ne vont publier dans des grands journaux que les instituts de recherche qui estiment tenir un résultat suffisamment important pour que ça vaille ce prix-là de le faire connaître, car ça va vraiment augmenter/entretenir leur propre réputation. Dit autrement, le prix décourage de faire un coup de communication visant à attirer l'attention alors que le résultat présenté est décevant : il faut que ça vaille vraiment le coût (littéralement) pour que publier dans ce journal soit (économiquement) intéressant. Tout cela concernait le fait de faire payer la publication. Faire payer la lecture, c'est différent. C'est juste une façon de convertir en capital économique le capital réputation, d'une façon qui n'a rien à voir avec la construction des connaissances (contrairement au fait de faire payer la publication). Et il s'agit bien d'une conversion de capital : quand le prix à la lecture est un peu plus élevé (augmentation du capital économique), le journal perd un peu du lectorat cible pour lequel il est payé à la publication, et donc il perd un peu en réputation (diminution du capital réputation), et en effet il pourra vendre un peu moins chère la publication. Ces considérations éclairent aussi : Dans certains domaines de recherche, il existe aussi des journaux scientifiques gratuits non seulement à la lecture mais aussi à la publication et qui comptent sur la bonne intelligence des membres du journal (qui sont typiquement des scientifiques du domaine) pour organiser une revue par les pairs de qualité.
[ éducation aux médias et à l'information 📰 18 min ]
pratique du test statistique par p-valeur partie 1 et partie 2
La pratique du test statistique par p-valeur rencontre des difficultés importantes : mésusages : p-hacking (pratique par laquelle une p-value est artificiellement réduite mais son interprétation faussée), biais de publication (sous-publication des résultats négatifs)…, Ces difficultés conduisent à une crise des méthodologies scientifiques – en particulier à une crise de la reproductibilité – appelant un renouveau des standards des statistiques et de leur enseignement. La mise en avant du paradigme statistique bayésien participe de ce renouveau.
[ statistiques 🎲 16 + 20 = 36 min ]
crise de la reproductibilité et crise des statistiques
La fiabilité des résultats scientifiques dans le temps (attente dont la forme est variable selon les disciplines) suppose que la preuve soit administrée de sorte à pouvoir vérifier les arguments avancés (et non pas seulement de faire confiance sur parole), et donc parfois reproduire des procédures ayant valeur d'argument. On distingue à cette effet : le fait de reproduire la procédure mise en place par une étude, le fait que cette reproduction de l'étude réplique son résultat, c'est-à-dire parvienne aux mêmes conclusions (existence d'effet et taille d'effet comparable). Répliquer un effet peut consister à : reproduire toute l'étude à l'identique à partir de la collecte de données, par un laboratoire indépendant (réplication à l'identique), réaliser une étude portant sur le même phénomène mais dans d'autres conditions, ou sur un phénomène apparenté, ou utilisant la même méthodologie (réplication conceptuelle). Dans l'ensemble on parle de reproductibilité. La crise de la reproductibilité est le fait que dans de nombreuses disciplines scientifiques, lorsqu'on reproduit à l'identique de façon systématique un ensemble d'études, une grande part des reproductions (de l'ordre de plusieurs dizaines de pourcents avec des variations importantes entre les disciplines) échouent à répliquer les conclusions de la publication originale. Il est à noter que bien que la proportion d'études qui répliquent (au sens de mise en évidence d'un effet) soit parfois faible, cela relève d'une approche centrée sur l'existence d'un effet. Considérer plutôt les tailles d'effet limite l'ampleur de la crise de la reproductibilité : il demeure une certaine corrélation entre les études et leurs réplications. Dans la lignée de l'épisode précédent, cela met en exergue le fait que la recherche se penche beaucoup sur des effets de faible taille et des liens de causalité ténus (c'est-à-dire pas forcément des phénomènes importants). Enfin, étant donné qu'il existe des alertes concernant les problèmes de reproductibilité depuis des vingtaines d'années, plutôt que d'une crise de la reproductibilité, il s'agit de crises successives de prise de conscience des problèmes de reproductibilité, qui touchent désormais les organismes de gouvernance et de financement de la recherche et forme un consensus en statistiques concernant la critique des tests statistiques par p-valeur.
bonus : la critique du test statistique par p-valeur et de sa pratique est consensuelle en statistiques
Note sur le texte accompagnateur : un certain nombre de détails concernant la reproductibilité ne sont pas issus des recommandations (principale et bonus) de cet épisode mais des recommandations de l'épisode sur la science ouverte et la métascience (après le suivant).
[ statistiques 🎲 14 min ]
expert⋅e non chercheur, méthodologiste, statisticien⋅ne
(le lien commence l'écoute au début de l'extrait)
Les scientifiques ne sont pas forcément des inconscient⋅e⋅s sans recul critique sur leur pratique ou les outils statistiques et méthodologiques qu'iels utilisent. Les organismes de recherche mettent même parfois en place des statuts garants de la méthodologie. La crise de la reproductibilité est néanmoins le témoin que le système est largement imparfait.
[ éducation aux médias et à l'information 📰 5 min ]
Science ouverte et métascience :
« Toute personne a le droit de prendre part librement à la vie culturelle de la communauté, de jouir des arts et de participer au progrès scientifique et aux bienfaits qui en résultent. » (article 27 de la déclaration universelle des droits de l'homme) Le processus scientifique actuel, tel qu'il est réalisé et contrairement à comment il est conçu ou plutôt idéalisé, échoue à rechercher systématiquement les erreurs (et ce d'autant plus au niveau des sources principales d'erreur : dans les aspects les plus techniques d'administration de la preuve) conduisant à limiter profondément la crédibilité des résultats scientifiques, et remettant en cause des domaines entiers de recherche. En particulier les résultats expérimentaux sont assez peu reproductibles dans de nombreux domaines (crise de la reproductibilité). Mais d'autres aspects de l'administration de la preuve sont atteints, comme la fiabilité des citations avec : un biais de citation : les études positives sont davantage citées. Plus largement, on peut identifier une crise de la crédibilité des sciences – dépassant le cadre de la crise de la reproductibilité – et relever à cet effet un continuum de pratiques de recherches questionnables (au sens où elles sont déjà questionnables dans le système actuel), par exemple : (dans la lignée du point précédent) présenter comme résultat confirmatoire (test d'une hypothèse qu'on a avant l'expérience, ce qui permet de bénéficier des garanties des statistiques) un résultat en fait exploratoire (résultat obtenu sans garantie statistique, typiquement en essayant librement des conditions expérimentales ou en explorant un jeu de données en réalisant de multiples tests statistiques) : créer une hypothèse après que les résultats soient connus (harking : hypothesising after results are known) et éventuellement orienter a posteriori la revue de littérature pour abonder dans le sens de l'hypothèse, faussant ainsi la crédence a priori de l'hypothèse, La science ouverte (ou open science) est un mouvement politique et scientifique visant à transformer les pratiques scientifiques pour qu'elles soient transparentes et accessibles : open methods : partage des méthodes, ce qui recouvre : open materials : partage du matériel de recherche (par exemple le contenu des questionnaires utilisés, les références des lignées cellulaires, des agents chimiques, des machines, des kits de manipulation…), open protocol : partage des protocoles détaillés (par exemple le paramétrage précis – parfois non standard – d'une machine), partage du flux de travaux (ou workflow, c'est-à-dire les manipulations de données et de fichiers, ainsi que les outils utilisés à cette fin et la façon dont tout ça s'agence) et en particulier du code utilisé à cet effet (open code), notamment concernant le traitement statistique, conformément aux bonnes pratiques professionnelles de programmation, notamment en adressant les enjeux de reproductibilité de l'environnement logiciel (savoir quelles sont les versions de logiciels utilisées et avoir la possibilité d'automatiser la répétabilité de l'environnement logiciel, de sorte à pouvoir exécuter le code à nouveau avec le même comportement) ; plutôt que par exemple énoncer simplement que pour l'analyse statistique on a fait une ANOVA et que les images sont analysées avec ImageJ, open study plan : partage du plan d'étude (ou design d'étude), c'est-à-dire le recrutement des sujets, les critères d'exclusion ou d'inclusion des sujets – pour une expérience – ou des articles – pour une revue systématique de la littérature –, la randomisation des groupes, les contrôles, le condition de simple/double-aveugle etc. open data : partage des données brutes (sans aucun tri, ni transformation) et cahiers de laboratoire de façon (FAIR : findable, accessible, interoperable, reusable) : accessible : une fois qu'on les a trouvées, pouvoir y accéder avec d'éventuelles restrictions de droit d'accès proportionnées à la situation (données sensibles, embargo sur un serveur inaccessible le temps que les auteurs les utilisent), open access : partage des produits de la recherche en accès libre (articles de recherche, modèles d'IA, logiciels…), les méthodes avant le lancement de l'étude, typiquement en les formalisant dans un document – appelé pré-enregistrement – faisant foi en matière de traçabilité (comme un cahier de laboratoire), voire dans un rapport enregistré (ou register report, c'est-à-dire un pré-enregistrement soumis à un journal scientifique pour revue par les pairs et validation), qui permet de clairement identifier les résultats confirmatoires, ainsi que d'éviter les incitatifs conduisant au biais de publication en faveur des résultats positifs, Ces réformes peuvent notamment (mais pas uniquement, les aspects d'inclusivité pouvant primer) viser à : améliorer l'efficience (capacité à produire un certain niveau de qualité avec moins de ressources). Ces réformes nécessitent la formation de certains acteurs à la documentation, au management de données, au génie logiciel et aux statistiques (ou la création de postes avec ces qualifications) ainsi que de s'assurer que la revue par les pairs porte également sur ces aspects les plus techniques d'administration de la preuve (notamment les statistiques). En clair, elles requirent d'intégrer des documentalistes, des gestionnaires de données, des programmeur⋅se⋅s et des statisticien⋅ne⋅s aux équipes de recherche et aux équipes des journaux scientifiques ; ainsi que de repenser la formation des (futur⋅e⋅s) chercheur⋅se⋅s à ces sujets. La pratique scientifique est en elle-même un (ensemble de) phénomène(s), faisant l'objet d'études systématiques par des disciplines scientifiques : histoire des sciences, sociologie des sciences etc. Parmi elles, une discipline naissante, la métascience, se centre sur l'étude – notamment quantitative – de l'efficacité (qualité et efficience) des pratiques scientifiques : Son rôle n'est pas que d'évaluer les pratiques scientifiques mais aussi de proposer et mettre au point de nouvelles pratiques. Le positionnement courant actuellement en métascience est l'approche de science ouverte, ce qui guide notamment la vision commune au sein de cette discipline de ce qui est souhaitable ou non comme fonctionnement de la validation scientifique des résultats. Par exemple, pour évaluer les apports potentiels du développement des principes de science ouverte, la métascience s’attelle à documenter la différence de taille d'effet d'un traitement entre ce qu'on peut estimer à partir des travaux de science ouverte versus à partir de l'ensemble de la littérature scientifique (à titre d'illustration, une taille d'effet 6 fois plus faible dans le cas des antidépresseurs). La métascience est notamment utilisée par des organismes de gouvernance et de financement de la recherche (notamment l'Union Européenne dans son rôle de financement de la recherche, qui d'ailleurs cherche aussi à développer la science ouverte à travers sa politique de science ouverte) à des fin d'investigation scientifique (évaluation des recherches par les organes de gouvernance et de financement et identification des opportunités d'amélioration). En ce sens, la métascience joue le rôle de science régulatoire de la recherche scientifique. Culturellement, les propositions de la science ouverte sont à rapprocher de l'informatique et notamment du logiciel libre.
bonus : approche métascientifique de la revue par les pairs
[ métascience 🪆 2 h 06 + 1 h 57 = 4 h 03 ]
Après avoir terminé le chemin BC, la suite est au chemin ABC.
Chemin BC : médiatisation
Enseigner, ce n'est pas que combler un vide en apportant de l'information. Il s'agit aussi de défaire les préconceptions. La cognition désigne l'ensemble des processus d'un organisme qui relèvent du traitement d'information (mémoire, perception, raisonnement, apprentissage…). Un biais cognitif est une tendance de la cognition à : Remarques : en particulier, un biais cognitif peut provenir d'une heuristique tout à fait adaptée à la rationalité limitée (manque d'information ou de temps de réflexion et utilisation d'heuristiques), Les biais de confirmation sont des biais cognitifs favorisant ce que l'on pense déjà. Ils concernent diverses fonctions comme l'attention ou la mémoire. Ils sont orientés vers l'avenir : interpréter les nouvelles information comme conformes à ce qu'on pense déjà. Les biais rétrospectifs sont eux orientés vers le passé : penser que c'était évident, qu'on y avait pensé, oublier qu'on avait une autre hypothèse etc. Ainsi : processus rhétoriques (ici de la didactique) – chemin B processus de diffusion de l'information (ici cognitifs) – chemin C se mêlent et forment ensemble des phénomènes médiatiques plus riches.
Note sur le vocabulaire : "phénomène médiatique" tel que défini ici n'est pas du vocabulaire classique, c'est juste une proposition pour éclaircir le propos.
[ sciences de l'éducation 🧑🏫 8 min ]
Le caractère faux ou trompeur d'informations provient de : processus inintentionnels (mésinformation) comme on en a évoqués au début du chemin C, processus intentionnels (désinformation). La désinformation recouvre : le bullshit : information publiée sans souci de vérité (buzz ou publicité par exemple), les fake news : information délibérément fausse, la diversion stratégique : mise en avant voire production d'informations (potentiellement vraies) pour réduire la visibilité (mute news) ou l'impact (construction du doute) d'une information. Cette classification rencontre néanmoins des limites, car les dynamiques médiatiques mêlent profondément désinformation et mésinformation comme on va le voir dans la suite du chemin BC.
[ éducation aux médias et à l'information 📰 8 min ]
sondage et journalisme politique
Dans le champ politique on tire la légitimité de sa parole notamment des résultats aux élections. Mais le champ journalistique dispose désormais d'un outil pour prétendre à une légitimité du même ordre. Après micro-trottoir, parlons sondage d'opinion.
[ sociologie 🏙️ 14 min ]
Il faut penser le caractère trompeur des propos bien au-delà des questions : Il faut aussi prendre en compte les catégories types ("les Français nés à l'étranger", "l'érosion du littoral", "les mâles sigma"….) et les énoncés types ("les Français nés à l'étranger sont de vrais Français", "les tempêtes érodent le littoral", "les mâles sigma sont les meilleurs"…) auxquelles se réfèrent les propos, que ce soit pour les valider, les dénoncer ou critiquer leur utilisation même. Notamment, certaines catégories et certains énoncés (pour ne pas avoir à répéter catégorie ou énoncé à chaque fois, je propose d'appeler ça des représentations) ne sont juste pas pertinentes pour penser certains sujets (par exemple "les mâles sigma"). J'insiste sur le fait qu'on peut avoir en tête certaines représentations sans pour autant penser qu'elles sont pertinentes pour penser. Il suffit de penser que d'autres personnes les ont en tête. Concernant le caractère trompeur des propos, se posent alors les questions suivantes : (3) formulation des propos et situation de læ récepteur⋅rice : Est-ce que cette formulation, qui n'est pas en elle-même porteuse d'une représentation trompeuse pour penser le sujet, ne risque pas néanmoins de faire écho à des représentations trompeuses chez læ récepteur⋅rice et de les conforter ? (Vous vous souvenez qu'on a parlé de préconceptions dans l'épisode 1 du chemin BC ?) Par exemple concernant (1), s'il est dit "A est cancérigène", l'information peut être vraie, pertinente, tout ce qu'on veut. Mais est-ce que encore parler de cancérogénicité sans parler de taille d'effet est vraiment une bonne idée ? Penser la cancérogénicité sans la notion de taille d'effet, c'est mal penser les choses. Par exemple concernant (3), s'il est dit "A conduit à la libération de dopamine dans le cerveau et ça procure du plaisir", la formulation ne porte pas en elle-même l'idée que le plaisir n'est qu'une histoire de molécules relâchées dans l'ensemble du cerveau. La formulation est même tout à fait compatible avec le fait que la dopamine est un neurotransmetteur utilisé par le circuit de la récompense, qu'il ne s'agit que d'un moyen pour transmettre l'information dans cette partie du cerveau, que le circuit de la récompense aurait aussi bien pu utiliser d'autres neurotransmetteurs et que c'est bien davantage la connectivité de cette partie du cerveau qui produit la fonction. Mais la formulation est aussi compatible avec l'idée fausse que la dopamine serait "la molécule du plaisir" du fait même de sa nature chimique. La répétition de formulations compatibles avec des représentations trompeuses (ici la notion de "molécule d'une émotion") participe à leur maintien. Par exemple concernant (4), on ne peut pas attendre qu'une information sur une recherche médicale en test clinique de phase 1 visant à traiter une pathologie grave soit reçue avec la même distance par une personne selon qu'elle vient d'apprendre être concernée par la pathologie (elle-même ou son entourage). Ces généralités terminées, passons au sujet de l'épisode. L'opinion publique est collectée selon les sujets en vigueur, les questions en vigueur, certains discours en vigueur… bref, selon les représentations en vigueur. La collecte de l'opinion publique peut donc être trompeuse car poser les questions en des termes trompeurs. La restitution (ou prétendue restitution) de l'opinion publique porte alors un enjeu de pouvoir : celui de poser le débat en certains termes. Bref plus largement, celui de promouvoir certaines représentations.
[ sociologie 🏙️ 17 min ]
Choix des sujets, des invité⋅e⋅s, des questions posées, des images et discours diffusés, des contextes pour les micro-trottoirs… tout au long de la boucle médiatique de diffusion de l'information, chaque étape résulte d'une analyse de la situation et à la fois influence en retour la situation et son analyse. Vous noterez la similarité avec l'épisode 1 du chemin C. Incroyable… tout se déroule comme si cette promenade était organisée !
[ éducation aux médias et à l'information 📰 25 min ]
heuristique de disponibilité, exemple du syndrome du grand méchant monde
L'estimation intuitive de la fréquence d'un événement se base sur les informations disponibles en mémoire et non sur la recherche de nouvelles informations. On parle d'heuristique de disponibilité pour désigner ce mécanisme. Les jugements obtenus de cette manière dépendent donc essentiellement des informations et évènements passés dont on se souvient, notamment ceux étiquetés comme réels (presse, journal télévisé, témoignage, expérience personnelle…) ou réalistes (rumeur, mythe, élément non fantastique d'une fiction…). La construction des programmes télévisés (notamment les journaux télévisés) : en captant l'attention sur des éléments évoqués ensuite dans les publicités (amorçage cognitif) Capter l'attention (typiquement en suscitant des émotions) sert aussi l'audimat, ce qui favorise la vente d'espaces publicitaires. Cette construction des programmes télévisés : et ainsi biaise les jugements formés par les téléspectateur⋅rice⋅s par heuristique de disponibilité.
[ psychologie sociale 👥 43 min ]
S'exposer à de l'information sur un réseau social suppose à minima de connaître certains phénomènes façonnant l'information qui y circule : biais cognitifs, dynamiques collectives, gestion algorithmique de la visibilité et désinformation se mêlent pour semer le chemin d'embûches…
[ éducation aux médias et à l'information 📰 ?? min ]
Après avoir terminé le chemin AC, la suite est au chemin ABC.
Chemin ABC : informer, s'informer, être exposé à l'information
Il n'y a pas que des mécanismes de diffusion de l'information (avec son lot de distorsion). Il y a aussi des mécanismes de non diffusion de l'information. Et ils ne se limitent pas à des questions de réception et de (non) transmission d'information par des individus (ce qui relève de la psychologie sociale). Il y a aussi des questions de statut social des différents acteurs, de cloisonnement des groupes sociaux qui fait que si l'information s'arrête en chemin elle n'arrivera pas au bout du chemin, d'organisation qui produit certains chemins pour certains types d'information… Bref, il y a des mécanismes proprement sociologiques. Quand les informations en question sont des connaissances, on peut parler d'une production sociale de l'ignorance. Et il y a justement une sociologie de l'ignorance qui étudie cela.
[ sociologie 🏙️ 28 min ]
régime épistémique et argumentation en conflit éditorial sur Wikipédia
Étant acté que s'informer n'est pas produire soi-même de la connaissance scientifique, comment obtenir de la connaissance en s'informant ? (car ça n'a rien d'automatique !) Et en particulier, quelle est la bonne notion de connaissance à considérer, dans ce contexte où l'on n'est pas expert⋅e du sujet et encore moins producteur⋅rice de connaissance ? Philosophiquement, c'est le sujet de l'épistémologie sociale : qu'est-ce que l'expertise ? comment la reconnaître ? etc. L'édition de Wikipédia est une pratique pleinement confrontée à ces enjeux. Un régime épistémique est une conception de ce qu'est la connaissance, en lien avec des valeurs. Un régime épistémique statue notamment sur ce qui fait : la fiabilité : quels sont les critères corrects pour reconnaître – ou plus précisément parfois, pour argumenter… teaser ! – qu'une information est une connaissance ? la pertinence : quels sont les critères corrects pour reconnaître que telle ou telle connaissance permet de s'informer sur tel ou tel sujet ? Sur Wikipédia, lorsqu'il s'agit d'argumenter dans le contexte d'un conflit éditorial, les régimes épistémiques et valeurs correspondantes mobilisés sont principalement : Concernant leurs conceptions de la pertinence, ces régimes épistémiques se distinguent notamment par la façon dont ils donnent de l'importance à et hiérarchisent (ou non) les différents points de vue et les différentes sources.
bonus : neutralité de point de vue
[ sociologie 🏙️ 13 min ]
Une connaissance est une croyance : Le type de connaissance étudié par l'épistémologie sociale (que j'appellerai connaissance sociale) est un cas particulier de cette notion générale de connaissance. On l'obtient en donnant une définition particulière à "correct". Une connaissance sociale est une croyance dont on a de bonnes raisons de penser qu'elle a été validée par des procédures socialement reconnues comme étant à même d'élever la croyance au statut de connaissance (ce que j'appellerai procédure de validation experte). Pourquoi experte ? Parce qu'il y a d'autres procédures de validation de l'information (comme le journalisme scientifique, l'écriture de rapport par le GIEC ou une agence européenne etc.) mais elles n'ont pas le même statut d'élévation d'une croyance en connaissance, il s'agit juste de vérifier que des procédures de validation expertes ont été réalisées (ainsi que de produire une synthèse non trompeuse, mais on a déjà parlé du caractère trompeur d'une information au-delà de sa fiabilité et de sa pertinence dans le chemin BC). Noter que la connaissance sociale ne suppose de maîtriser : S'imaginer qu'il y a des procédures de validation expertes, c'est concevoir une source à la connaissance sociale. L'acquisition de connaissance sociale consiste alors à se convaincre qu'il doit bien y avoir une source valide à telle ou telle croyance. Ces raisons qu'on a de penser que la connaissance sociale a été validée par des procédures expertes peuvent être : Appelons le premier type de raisons des arguments sociaux et le second des argument procéduraux. Les procédures socialement reconnues sont dépendantes du contexte social et historique. On parle d'épistémè pour désigner les conditions de possibilité de la connaissance dans un contexte social et historique donnée, c'est-à-dire en particulier (et c'est ce sur quoi on va continuer de se concentrer dans la suite) les procédures de validation que ce contexte social consacre comme étant expertes, c'est-à-dire légitimes pour élever des croyances au statut de connaissance. La capacité à faire valoir certains propos comme étant des connaissances (autorité épistémique) provient alors de la confiance que les autres ont : Noter que dans le cas de læ chercheur⋅se, ce ne sont pas ses arguments experts qui convainquent au sens de la connaissance sociale, c'est sa maîtrise supposée des procédures de validation expertes. En bref, les explications scientifiques sont souvent moins convaincantes qu'une publication scientifique dans un journal prestigieux ou un avis d'académie (alors même que c'est plus proche de la source). D'ailleurs, vous vous souvenez quand on a parlé du fait que le modèle économique des journaux scientifiques soit fondé sur la réputation (dans le chemin AC), eh bien c'est parce que c'est fondamentalement lié à la notion de connaissance (sociale). Les épistémès varient selon les époques et les contextes sociaux (religion, science…). Une épistémè scientifique est une épistémè dont les procédures de validation reconnues comme expertes sont les procédures scientifiques. Mais ce que la notion d'épistémè (d'épistémè scientifique en particulier) permet aussi de souligner, c'est que ce qui compte pour la connaissance sociale d'un individu ce n'est pas tant ce qui est scientifique (selon une conception externe de la science : normée et indépendante de l'individu et de sa position), c'est ce qui a l'air scientifique et plus fondamentalement quelles sont les conceptions de la science qui sont disponibles dans l'environnement social de l'individu. La façon d'acquérir de la connaissance sociale dépend assez peu de l'épistémè : comme on l'a dit, il s'agit de s'assurer qu'on peut avoir raisonnablement confiance dans le fait que la connaissance a été dûment validée. C'est l'acquisition de ce que j'appellerai une connaissance experte (connaissance qui suppose une maîtrise de la pertinence des procédures de validation expertes, appelons ça une maîtrise des arguments experts) qui diffère vraiment d'une épistémè à l'autre : une connaissance scientifique est bien différente d'une connaissance théologique, car les arguments experts sont bien différents. Les arguments scientifiques (statistiques, calcul, expérimentation, observation…) diffèrent des arguments théologiques (exégèse de texte sacré, parole sacrée d'autorité religieuse, révélation…). Noter qu'une connaissance experte n'est pas entièrement acquise par des arguments experts. Au contraire, elle s'appuie presque toujours sur des connaissances sociales. Elle se caractérise juste par le fait de ne pas être exclusivement une connaissance sociale. En bref, la connaissance se construit dans une épistémè avec des arguments (raisons correctes de croire dont on a conscience) qui sont de trois types : les arguments experts dans cette épistémè.
bonus : intelligence de groupe et reconnaissance d'expertise
Note sur le vocabulaire :
- j'ai introduit pas mal de vocabulaire ici qui n'est en rien du vocabulaire classique, avec des définitions à ma sauce qui ne visent qu'à éclaircir et structurer ce résumé-teaser-commentaire : argument, connaissance sociale, argument social, argument procédural, connaissance experte, argument expert, procédure de validation experte,
- le vocabulaire défini ici de façon assez classique se résume à : connaissance, autorité épistémique, épistémè.
[ philosophie des sciences 🤔 1 h 12 ]
La réactance est le phénomène psychologique consistant à porter son attention sur et souvent s'opposer à ce qu'on identifie (plus ou moins consciemment) comme une privation de liberté, précisément pour la raison que ça serait une privation de liberté. Elle implique des émotions et des raisonnements. Le décalage entre une restriction effective de liberté et ce qu'on identifie comme une privation de liberté (spontanément ou du fait d'une rhétorique dédiée) peut conduire la réactance à participer à l'acceptation de certaines restrictions de liberté (aussi appelée soumission librement consentie). Enfin, la réactance joue notamment un rôle dans la diffusion de l'information : en devenant un élément clef de certaines conceptions de ce que serait une bonne façon de s'informer (læ lecteur·rice attentif·ve aura remarqué certains liens avec le régime épistémique critique dont on a parlé dans l'épisode 2 du chemin ABC… comme si les grandes problématiques du chemin avaient été posées dans cet épisode). Et sinon, vous avez remarqué comme ça revient, dans cet épisode comme dans le précédent, le lien entre s'informer et être vulnérable ?
[ psychologie sociale 👥 1 h 06 ]
Recherche de document scientifique en tant que non spécialiste :
La littérature scientifique d'un domaine est destinée aux spécialistes du domaine. Pour autant, même en tant que non spécialiste, il peut y avoir un intérêt à rechercher et consulter ce type de sources, pour s'informer soi ou pour informer autrui. Il faut alors connaître et savoir utiliser les bases de données d'articles scientifiques, être familièr⋅e de la structure des articles scientifiques et porter son attention sur certains marqueurs de fiabilité accessibles aux non spécialistes : la neutralité.
bonus : lecture d'article scientifique en tant que non spécialiste
[ éducation aux médias et à l'information 📰 14 min ]
erreur de jugement : interne et externe, biais et bruit
Cette vidéo éclaire les erreurs de jugement à la lumière d'une classification selon leur source (interne, externe) et leur nature (biais et heuristique, bruit). Mais vous remarquerez aussi qu'elle commente les activités du mouvement zététique à la lumière de cette analyse. C'est l'occasion, dans les textes accompagnant cet épisode et le suivant, de présenter ce mouvement. En effet, l'essentiel des contenus de cette promenade s'y rattachent ou y réagissent. La transparence et la réflexivité obligent donc à adresser le sujet. La zététique est un mouvement militant et de vulgarisation qui s'intéresse au rapport de notre société à l'information, et en particulier à la connaissance scientifique. Ses activités se concentrent autour de trois pôles d'intérêt. Premièrement, elle vulgarise ou recommande des contenus de diffusion des savoirs concernant : C'est de ce premier pôle d'activité que relèvent l'essentiel des contenus de cette promenade.
[ psychologie 🎭 30 min ]
journalisme scientifique dans la presse généraliste
Deuxièmement, elle produit des contenus sur d'autres thèmes ayant trait à la science et qu'elle estime sujets à de la désinformation ou de la mésinformation. Il peut s'agir : (Læ lecteur⋅rice attentif⋅ve aura remarqué que les trois premiers points ne sont en fait que des cas particuliers importants du quatrième point.) Troisièmement, elle porte une critique du journalisme axée sur : Dans cette optique, la zététique se constitue en acteur de la diffusion des savoirs, visant une moindre distorsion de l'information scientifique, par exemple avec des interviews longues d'universitaires ou de la vulgarisation faite directement par des expert⋅e⋅s. Bien que le format documentaire permette d'éviter l'écueil de la réduction de l'information à l'actualité, la zététique trouve plus naturellement sa place dans la vulgarisation scientifique. Cette dernière est en effet constituée en un réseau de médias spécialisés et la référence à d'autres contenus comme prérequis, la recommandation de contenus et de médias davantage spécialisés, et la réalisation de contenus destinés à se suivre (facilement plus longs qu'une série documentaire) sont des pratiques qui y sont normalisées. En fait, plus largement (c'était juste plus pratique pour moi de le présenter dans cet ordre) qu'une critique du traitement journalistique des sciences et que la mise en pratique de propositions cohérentes avec cette critique, la zététique promeut une société où la science n'est pas considérée comme énonçant des vérités, des opinions ou des histoires mais comme produisant des connaissances (et où on comprend bien ce que ça veut dire, surtout), où le rapport à la science délaisse le mystique ("je ne comprends pas, ce n'est pas pour moi, j'y crois"), où une explication compliquée n'est pas considérée comme ennuyeuse et où temps libre et distraction sont moins systématiquement synonymes de folklore. Bref, un autre rapport de notre société à l'information. (Læ lecteur⋅rice attentif⋅ve aura relevé que, plus largement qu'une critique du traitement journalistique des sciences, le troisième pôle d'activité est politique.) Super, j'espère que vous êtes galvanisé⋅e⋅s ! Cela dit, c'était là une définition normative de la zététique. Une proposition de définition philosophique si vous voulez. (Et pour ma part ce qui m'intéresse c'est surtout l'accès à de multiples disciplines grâce à un premier contact sur les enjeux épistémiques.) Mais on peut en avoir une description sociologique : que fait effectivement le mouvement zététique et qui le compose. Cela met en évidence quelques décalages entre le mouvement zététique et la définition normative que j'ai proposé de la zététique. En effet, le mouvement zététique a aussi ses codes, son public, sa démographie, ses figures, ses associations, ses contenus et activités davantage tournés vers la vie de la communauté et le divertissement, une intégration encore à la traîne des approches sociologiques peut-être du fait d'un ancrage fort dans les approches de psychologie et en particulier de psychologie cognitive, son héritage d'athéisme militant, sa parenté avec les mouvements sceptiques anglo-saxons, son tropisme pour le libre en terme de solution technique et de propriété intellectuelle etc. Historiquement, ce mouvement de vulgarisation est aussi à considérer comme la deuxième vague de la zététique. La première vague zététique est un mouvement universitaire visant l'étude scientifique (notamment expérimentale) des phénomènes présentés comme paranormaux ainsi qu'une documentation systématique de (voire une érudition sur) ce type de folklores. Elle se complète dans le monde de l'enseignement par un volet d'éducation à l'esprit critique, qui a donné naissances à la seconde vague.
bonus : impact médiatique d'une information scientifique, un exemple d'outil
Note : La définition normative que j'ai proposée de la zététique, c'est bien moi qui la propose. En particulier, la thèse sur le journalisme, je ne l'ai jamais vue énoncée ainsi. J'ai juste cherché à reconstituer une thèse permettant de comprendre les différents contenus produits par le mouvement sur le sujet.
[ éducation aux médias et à l'information 📰 2 h 02 ]
De façon très générale, la pensée critique désigne toute forme de pensée fondée sur la raison et la métacognition (pensée à propos de ses propres modes de pensée) pour déterminer quoi faire ou quoi croire. Une forme de pensée critique est l'esprit critique qui, pour déterminer quoi faire ou quoi croire, associe : une conception évaluativiste des points de vue, selon laquelle la bonne façon de construire des points de vue est par des arguments, et non pas par la subjectivité seule (conception multipliste) ni par la reconnaissance d'une vérité objective (conception absolutiste). On parle de croyance épistémique pour désigner ces différentes conceptions de la construction des points de vue, de leurs justifications et de l'origine des désaccords. Quelques commentaires sur cette définition. D'une part, l'esprit critique n'est pas une composante naturelle de la cognition. C'est un construit théorique et en particulier il s'apprend : chacun de ces points peut faire l'objet d'apprentissages. D'autre part, il n'y a pas d'esprit critique généraliste : chez une personne, chacun de ces points peut dépendre du contexte (fatigue, interlocuteur⋅rice, type de discussion, état d'esprit…) et du sujet abordé. À ce propos, relever notamment la nécessité de connaissances spécialisées pour faire preuve d'esprit critique sur un sujet précis. Remarque : On a détaillé précédemment dans l'épisode 3 du chemin ABC sur l'épistémologie sociale que les connaissances se construisent avec des arguments. L'évaluativisme consiste à étendre cette conception aux points de vue, qui intègrent non seulement ce qu'il y a lieu de croire (et parmi cela les connaissances) mais aussi ce qu'il y a lieu de faire. L'évaluativisme ne soutient pas qu'il y aurait un hypothétique point de vue valide dont il s'agirait de se rapprocher (comme la connaissance visant à se rapprocher de la vérité). Pour autant il soutient que les points de vue, et en particulier les questions prescriptives, sont des choses dont on peut débattre et surtout sur lesquelles on peut argumenter de façon précise. Les sciences de l'éducation identifient plusieurs types d'approches de la pensée critique et de l'éducation à la pensée critique, parmi lesquelles : l'approche rationaliste de la pensée critique se fonde sur le développement de l'esprit critique, notion développée à partir des standards intellectuels des disciplines s'étant intéressées à la pensée critique et à l'éducation à la pensée critique (psychologie, philosophie, pédagogie, sciences de l'information et de la communication, sociologie, sciences de l'éducation…) en lien avec le contexte social dans lequel elles s'y sont intéressées (propagande, compétences scolaires, culture scientifique…), l'approche matérialiste de la pensée critique se fonde sur le développement d'une conscience critique : une compréhension des rapports de pouvoir et de sa propre place dans la société, permettant ainsi l'émancipation vis-à-vis de systèmes de domination. Sur le plan de l'éducation on parle de pédagogie critique (ou pédagogie radicale). Elle prend souvent la forme de l'éducation populaire. Sur le plan philosophique, la pédagogie critique s'inscrit dans la théorie critique, une approche de la philosophie sociale qui ne dissocie pas la conceptualisation du monde social d'une part et d'autre part les effets sociaux de cette conceptualisation. Ce que l'approche rationaliste valorise, c'est la raison, et c'est pourquoi elle se concentre sur l'évaluation de la vraisemblance et de la fiabilité des discours. Ce que l'approche matérialiste valorise pour sa part, c'est la justice sociale, et c'est pourquoi elle se concentre sur l'évaluation des enjeux de pouvoirs et des effets des discours (c'est-à-dire un certain aspect de leur potentiel trompeur). Cette distinction fondamentale sur les valeurs rend difficile la conciliation des deux approches, chacune considérant plutôt l'autre comme au mieux un moyen d'arriver à sa propre fin, au pire une conception déviante de la pensée critique et nuisible à sa propre fin.
bonus : conceptions de la pensée critique
[ sciences de l'éducation 🧑🏫 2 h 21 ]
La littératie en santé est le phénomène par lequel : capacité de réception des informations de santé (aspect fonctionnel de la littératie en santé) : capacité visuelle, maîtrise de la lecture, maîtrise de la langue en question (y compris pour poser des questions), maîtrise du vocabulaire, capacité de concentration etc. interagissent en permettant à l'individu (ce sont notamment ces points qui font l'objet de mesures pour évaluer le niveau de littératie en santé d'un individu ou d'une population) : de façon pertinente pour sa santé, dans les différents domaines sur lesquels portent les informations de santé : Le concept de littératie en santé est développé notamment pour être utilisé lors de l'élaboration et de la mise en place d'interventions visant à modifier le contexte, par exemple des interventions de communication sur des informations de santé, ou des interventions visant à modifier un contexte social pour permettre de trouver du soutien dans sa communauté au sujet de la santé. La santé est un des secteurs (sinon le secteur) où le concept de littératie est le plus développé et étudié. Concernant le fait d'informer et de s'informer de façon plus générale (pas spécifiquement sur des questions de santé), des concepts de littératie sont développés dans le cadre des interactions avec le système médiatique, avec les outils numériques, avec les données (collecte, sources, analyse…) etc.
[ santé publique 🚭 2 h 40 ]
Fin !