#acl +All:read == S'informer : science, discours, média == <> Cette promenade se compose de plusieurs chemins, initialement indépendants, mais qui finissent par se rejoindre… Les points de départ sont : * [[#Chemin_A_:_la_mod.2BAOk-lisation_scientifique_sous_l.27angle_des_statistiques|Chemin A : la modélisation scientifique sous l'angle des statistiques]] * [[#Chemin_B_:_rh.2BAOk-torique|Chemin B : rhétorique]] * [[#Chemin_C_:_de_la_diffusion_de_l.27information_.2BAOA_sa_v.2BAOk-rification|Chemin C : de la diffusion de l'information à sa vérification]] Il s'agit d'avancer en parallèle et à sa guise sur ces trois chemins initiaux et de les terminer pour accéder aux chemins suivants ! __Note de style :__ Quand un syntagme est souligné c'est qu'il s'agit d'une définition. === Chemin A : la modélisation scientifique sous l'angle des statistiques === ----- [[https://www.youtube.com/watch?v=Ns1zx10kTKU|hypothèse nulle]] ''Étant donné une question, on peut faire plusieurs hypothèses sur sa réponse. L'__hypothèse nulle__ est par définition celle qui serait la plus facile à réfuter si elle était fausse. La notion d'hypothèse nulle permet de mieux concevoir ce qu'est apprendre. À moyens égaux mobilisés pour l'investigation : * je n'apprends pas grand chose si on a échoué à réfuter une hypothèse qui serait très dure à réfuter si elle était fausse (l'échec n'est pas surprenant, que je pense que l'hypothèse soit vraie ou fausse), * j'apprends davantage si on a échoué à réfuter une hypothèse qui serait plus facile à réfuter si elle était fausse (l'échec est assez surprenant si je pense que l'hypothèse est fausse). À la base du paradigme statistique dit fréquentiste, il y a le fait de privilégier le modèle considérant l'hypothèse nulle, et ce jusqu'à preuve du contraire, et en particulier dès le début, avant toute observation. Il ne s'agit pas d'une considération épistémique (= dire que l'hypothèse nulle serait plus probable, alors même qu'on n'a rien observé) mais d'une considération épistémologique (= dire que ça permet mieux d'apprendre de considérer par défaut l'hypothèse nulle). C'est une version améliorée du principe de parcimonie, car cela permet de traiter d'autres cas que les questions d'existence.'' ~-[ philosophie des sciences 🤔 14 min ]-~ ----- [[https://www.youtube.com/watch?v=k2JplEGJwBQ&list=PLlPZ8MwJhu5GxSsJk5azvFMjyURUzKt6d|facteur de risque]] ''Dans le cadre de modélisations probabilistes, le savoir vient des statistiques. La notion de base est alors celle de facteur de risque, particulièrement utilisée dans le domaine médical.'' ~-[ épidémiologie 🏥 14 min ]-~ ----- [[https://www.youtube.com/watch?v=eB1FMSCD5zc&list=PLlPZ8MwJhu5GxSsJk5azvFMjyURUzKt6d|taille d'effet]] ''Risque relatif, rapport de cotes, nombre de personnes pour traiter… il existe différents indicateurs de taille d'effet pour comparer des facteurs de risque. Et en effet, tous les facteurs de risques ne se valent pas du tout.'' ~-[ statistiques 🎲 17 min ]-~ ----- [[https://www.youtube.com/watch?v=KvyzgWR9CA0|risque relatif, risque absolu et balance bénéfice-risque]] ''Les tailles d'effet sont exprimées en risque relatif. Mais pour la prise de décision (balance bénéfice-risque) ce sont les risques absolus qui comptent.'' ~-[ statistiques 🎲 15 min ]-~ ----- [[https://www.youtube.com/watch?v=cHWHPFPj3vg&list=PLbkTYKoiva2WPx4163ovFGPqb4rrqejMm|puissance, étude négative et preuve de l’absence]] ''Lorsqu'une étude ne permet pas de mettre en évidence une taille d'effet non nulle, il se pourrait que ce soit parce que la taille d'effet réelle n'est pas nulle mais quand même trop petite pour que la proba de résultat positif soit importante. Autrement dit, ça peut être parce que la probabilité conditionnelle d'obtenir un résultat positif sachant qu'il y a un phénomène est trop faible. Cette probabilité s'appelle la __puissance__ d'une étude. Elle croît notamment avec la taille de l'échantillon. Les résultat négatifs d'études de forte puissance réduisent la confiance qu'on peut avoir dans l'existence d'une taille d'effet d'une certaine ampleur.'' ~-[ statistique 🎲 16 min ]-~ ----- [[https://www.youtube.com/watch?v=vs_Zzf_vL2I&list=PLxzM9a5lhAukIyNXqDKYl1A4JMRkMC5Qc|paradoxe de Simpson et facteur de confusion]] ''Quand on demande à leurs amis de comparer des pâtisseries qu'iels cuisinent, il ressort qu'en moyenne Alex fait de meilleurs pâtisseries que Charlie. Mais en moyenne, les forêts noires de Charlie sont meilleures que les celles d'Alex, et ses choux à la crème aussi sont meilleurs que ceux d'Alex. Comment est-ce possible, alors que Charlie et Alex ne savent cuisiner que des forêts noires et des choux à la crème ? Et surtout, qui cuisine le mieux ? La voilà la limite fondamentale des études observationnelles dans la recherche de la causalité : les facteurs de confusion potentiels par lesquels on n'aurait pas contrôlé. __,,Réponse :,,__,, ,,~-,,Charlie cuisine bien plus de choux à la crème, qui sont intrinsèquement souvent moins bons que les forêts noires, mais c'est bien Charlie qui cuisine le mieux.,,-~'' ~-[ statistiques 🎲 14 min ]-~ ----- [[https://www.youtube.com/watch?v=aqMyngADnMU&list=PLlPZ8MwJhu5GxSsJk5azvFMjyURUzKt6d|causalité et critères de Bradford-Hill]] ''Maintenant qu'on est au clair sur les corrélations, leur ampleur (taille d'effet) et leur absence, quid de la causalité ? On peut la mettre en évidence par l'observation d'une corrélation dans une étude prospective contrôlée randomisée en double aveugle. Mais lorsqu'on ne peut pas faire d'étude prospective, c'est fichu ? Non, les critères de Bradford-Hill peuvent aider à conclure.'' ~-[ statistiques 🎲 31 min ]-~ ----- [[https://www.youtube.com/watch?v=8ExzpvLKVuQ|régression à la moyenne]] ''En moyenne, vous poivrez raisonnablement vos salades, et dans chaque salade le poivre est potentiellement réparti de façon inhomogène. Dans la salade que vous venez de prendre au hasard dans votre réfrigérateur, la première bouchée que vous avez prise est fort poivrée. À propos de la deuxième bouchée, vous pensez que : .(1) elle sera probablement moins poivrée que la première bouchée ? C'était juste pas de chance. .(2) elle a la même probabilité d'être plus poivrée que moins poivrée que la première bouchée ? Les deux tirages sont indépendants. .(3) elle sera probablement plus poivrée que la première bouchée ? Cette première bouchée était de mauvais augure. .(4) on ne peut rien dire par rapport à la première bouchée ? .(a) elle sera probablement moins poivrée que la moyenne de vos salades ? C'était juste pas de chance. .(b) elle a la même probabilité d'être plus poivrée que moins poivrée que la moyenne de vos salades ? Tout est aléatoire dans cette expérience. .(c) elle sera probablement plus poivrée que la moyenne de vos salades ? Cette première bouchée était de mauvais augure. .(d) on ne peut rien dire par rapport à la moyenne de vos salades ? __,,Réponse :,,__,, ,,~-,,(a) est le sophisme du joueur, mauvaise réponse ; (1) est la régression à la moyenne, bonne réponse ; (c) est aussi une bonne réponse, cette salade est probablement plus poivrée que la moyenne,,-~'' bonus : [[https://www.youtube.com/watch?v=4dhm2QAA2x4|théorème centrale limite]] ~-[ statistiques 🎲 14 min ]-~ ----- [[https://www.youtube.com/watch?v=5dS1D_X5xRg&list=PLuL1TsvlrSnfFoWrxq-ai2tSWABRroQKT|réalisme scientifique, réalisme métaphysique, réalisme structural, antiréalisme, instrumentalisme]] ''Le __réalisme métaphysique__ est la thèse selon laquelle il y a quelque chose d'autre que les données des sens : il y a une réalité en dehors des perceptions et elle les influence. C'est ça qu'on entend par __réalité__ dans la suite. La méthode scientifique conduit à produire des théories prédictives des données des sens (__instrumentalisme__). Les objets et mécanismes postulés par ces théories ont-ils pour autant une correspondance avec la réalité ? Plusieurs positions existent à ce sujet, dont voici la nomenclature : * __réalisme scientifique__ : oui, ne serait-ce qu'en tant qu'approximation, * __antiréalisme scientifique__ : non, il n'y a pas de raison, * __réalisme structurale__ : * concernant la nature des objets (par exemple : les quanta au sens de la mécanique quantique ça existe, et c'est ça la nature des électrons) non, * mais concernant la structure des relations entre les objets (par exemple : il y a des trucs qui interagissent entre eux au moins approximativement comme la mécanique quantique décrit l'interaction des électrons – même si la nature de cette interaction, états quantifiés superposés, fonction d'onde et tout, n'a rien à voir avec la réalité – et ce sont ces interactions qui expliquent la chimie) oui, au moins pour les théories qui ont conduit à des prédictions correctes dans des conditions toutes autres que les observations qui ont conduit à les élaborer.'' ~-[ philosophie des sciences 🤔 17 min ]-~ ----- [[https://www.youtube.com/watch?v=x-2uVNze56s&list=PL8kpTYGNfAcbcbHO_jt9NYHP1KefT4Nfp|probabilité et bayésianisme]] ''Il y a plusieurs types de probabilités : * __probabilité fréquentiste__ : une probabilité est une fréquence, une proportion d’occurrences, * __probabilité épistémique__ : une probabilité est une confiance qu'on a en une affirmation. Pour une théorie, le terme technique employé est __crédence__ de la théorie (comprendre crédibilité). Pour une observation, on parle simplement de probabilité (épistémique) de l'observation (c'est plus court que : crédence de la théorie "on fera telle observation"). Données et théories se croisent dans les probabilités conditionnelles : * __vraisemblance__ de données : la probabilité fréquentiste d'observer telles données sachant une théorie, * __plausibilité__ d'une théorie : la probabilité épistémique d'une théorie sachant qu'on a observé telles données. Ces deux façons différentes de mêler observations et théories sont à la base de deux paradigmes statistiques : le fréquentisme et le bayésianisme.'' ~-[ statistiques 🎲 22 min ]-~ ----- [[https://www.youtube.com/watch?v=42-IuroPPyI&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|fréquentisme]] ''L'__inférence à la meilleure hypothèse__ (aussi appelée __abduction__) est un enjeu épistémologique majeur. Il s'agit de retenir comme modèle celui qui au vu des données est le meilleur. Dit comme ça, ça a pourtant l'air trivial. A-t-on vraiment avancé dans la formalisation d'une méthode scientifique avec cette présentation ? En fait oui, car formulée ainsi, on voit que pour spécifier une méthode statistique il suffit de spécifier : * une classe de modèles qu'on pourra prendre en compte, * une classe de données qu'on pourra prendre en compte pour discriminer les modèles, * une façon de déterminer le meilleur modèle d'un ensemble de modèles à partir desdites données. Le fréquentisme est le paradigme statistique qui spécifie ces éléments ainsi : * modèles : modèle dont on peut répéter l'observation des observables et dont lesdites observables sont décrites par des probabilités fréquentistes (en bref, un modèle dont les paramètres sont des probabilités fréquentistes et les observables sont des fréquences), * données : la fréquence observée de chaque issue possible d'un phénomène, avec des hypothèses fortes sur lesdites observations, typiquement qu'elles soient indépendantes et identiquement distribuées, * discrimination : le meilleur modèle est celui qui est le meilleur selon un estimateur statistique (typiquement, le meilleur modèle est celui dont la vraisemblance vis-à-vis des données est maximale – on parle d'estimateur statistique du __maximum de vraisemblance__). Les outils du fréquentisme sont très puissants mais les hypothèses fortes sur les données supposent des designs d'études rigoureux pour collecter des données. Aujourd'hui il y a un enjeu à pouvoir extraire des connaissances de façon statistiquement rigoureuse : * de données moins contrôlées, voire carrément influencées par des agents agissant de façon stratégique vis-à-vis du traitement qu'on souhaite réaliser, * de sorte à prendre en compte des modèles dont les paramètres ne sont pas que des probabilités fréquentistes, afin de pouvoir modéliser d'autres phénomènes tout en bénéficiant de la rigueur des statistiques. Le bayésianisme propose pour cela d'adopter un autre triptyque modèles-données-discrimination. Rendez-vous un peu plus loin dans le [[#Chemin_A_:_la_mod.2BAOk-lisation_scientifique_sous_l.27angle_des_statistiques|chemin A]] !'' ~-[ statistiques 🎲 17 min ]-~ ----- [[https://www.youtube.com/watch?v=AoFa59UUf-U|test statistique]] ''Ouvrons pour quelques épisodes la boîte à outils de læ statisticien⋅ne fréquentiste. Une façon cheap et au rabais d'approcher l'abduction fréquentiste par maximum de vraisemblance, c'est de pratiquer le rejet d'une hypothèse peu vraisemblable H0 en la soumettant à un test statistique qu'elle échoue à passer. Ceci n'est possible que si on dispose d'une procédure de test dont l'hypothèse nulle est justement H0. (En pratique c'est parce qu'il existe des procédures de test dont l'hypothèse nulle est H0 qu'on étudie la question… rendez-vous au [[#Chemin_AC_:_la_scientificit.2BAOk_face_.2BAOA_la_pratique_de_la_publication|chemin AC]].) Plus précisément, le rôle de læ statisticien⋅ne est alors de concevoir des procédures de test composées de : * un design d'étude pour collecter des données, * la distribution des données si l'hypothèse nulle est vraie, * un __test statistique__ pour cette distribution : un test dans lequel, si l'hypothèse nulle est vraie, les données collectées échouent à ce test avec probabilité (fréquentiste) au plus s (où s est un seuil fixé à l'avance, typiquement 5 % ou 1 %). Il s'agit d'une garantie qu'une proportion au plus s des hypothèses nulles vraies testées seront rejetées à tort. Techniquement, le risque (probabilité fréquentiste) de rejet d'une hypothèse nulle vraie est nommé __risque alpha__. Ainsi, s est un majorant du risque alpha. La vidéo prend l'exemple de la distribution hypergéométrique.'' ~-[ statistiques 🎲 10 min ]-~ ----- [[https://www.youtube.com/watch?v=jy9b1HSqtSk&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|p-valeur]] ''Le test d'hypothèse de l'épisode précédent est le plus souvent de la forme suivante : * un design d'étude pour collecter des données, * la distribution des données si l'hypothèse nulle est vraie, * une formule pour calculer la __p-valeur__ des données, c'est-à-dire la vraisemblance (vis-à-vis de cette distribution) de collecter des données au moins aussi défavorables à l'hypothèse nulle que les données effectivement collectées, * le test statistique par p-valeur consiste alors à voir si p est inférieur à un seuil s fixé à l'avance (typiquement 5 % ou 1 %). Si c'est le cas, le test échoue : l'hypothèse nulle est peu vraisemblable. Propriété fondamentale des tests statistiques par p-valeur : Si l'hypothèse nulle est vraie, les données collectées échouent au test avec probabilité au plus s. Dit autrement, le s "p-valeur seuil" ce cet épisode est le même que le s "majorant du risque alpha" de l'épisode précédent. Les principaux points d'attention concernant les tests statistiques par p-valeur sont : * leur interprétation, qui est trop souvent erronée, bien différente de la propriété ci-dessus (y compris chez les scientifiques amenés à les utiliser : il y a un enjeu de formation aux statistiques), * ne pas oublier les autres biais pour autant : ce n'est pas parce que l'étape de traitement statistique bénéficie d'une garantie – qui de plus ne porte que sur le risque de rejeter une hypothèse vraie (risque alpha) et pas du tout sur celui de ne pas rejeter une hypothèse fausse (__risque bêta__) – que le processus du labo à la publication (voire à la lecture) bénéficie d'une garantie du même ordre.'' ~-[ statistiques 🎲 14 min ]-~ ----- [[https://www.youtube.com/watch?v=PVb7aSOqx0Q&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|intervalle de fluctuation, intervalle de confiance]] ''À la fête foraine du coin, il y a un jeu consistant à donner un coup de filet dans un bassin d'eau trouble pour capturer un petit poisson qui y nage. Et c'est difficile car les seules informations sont les mouvements parfois trompeurs de l'eau en surface. Votre pote Alex est très doué⋅e à ce jeu. Iel repère les vaguelettes en surface comme personne. Iel réussi 95 % du temps. Aujourd'hui vous accompagnez Alex. Et vous savez (mais Alex ne le sais pas) que le poisson qui est dans le bassin aujourd'hui a une préférence très marquée pour le coin en haut à gauche : il ne passe qu'un millième de son temps hors de cette zone. 1… 2… 3 ! Alex vient de donner un coup de filet en bas à droite du bassin. Vous ne vous attendiez pas à ça : vous, vous auriez essayé en haut à gauche. Alex aurait raté ? Après tout ça lui arrive une fois sur vingt de rater son coup, alors que le poisson n'est qu'une fois sur mille hors du coin en haut à gauche. Le coup de filet d'Alex vous fait un peu douter sur la position du poisson, mais tout de même ce coup-ci vous ne diriez pas qu'Alex a 95 % de chances d'avoir attrapé le poisson. Carrément, si vous deviez pariez, vous parieriez qu'Alex a raté. Un __intervalle de confiance__, c'est un coup de filet d'Alex. C'est une information importante car ça capture souvent le paramètre (la position du poisson). Mais ce que vous savez ne se résume pas à ça : le coup de filet ne vient qu'ajuster ce que vous pensez de la position du poisson a priori. Il est tout aussi faux : * de dire que parce qu'Alex a donné un coup de filet en bas à droite il faut croire à 95 % que le poisson se trouve là, * que de dire que le paramètre a 95 % de chance de se trouver dans l'intervalle de confiance à 95 %. Un __intervalle de fluctuation__, c'est la zone dans laquelle on peut s'attendre à voir la prochaine vaguelette en surface quand on sait où se trouve le poisson. On ferme ici la boîte à outils fréquentiste.'' ~-[ statistiques 🎲 13 min ]-~ ----- [[https://www.youtube.com/watch?v=EUwgzGHurz0&list=PLf2Z3T17MzDQOC-IhvzhVghBXiuzk60yq|design d'étude épidémiologique]] ''On l'a dit, un des rôles des statisticien⋅ne⋅s et autre méthodologistes, c'est de mettre au point des designs d'étude permettant des tests statistiques. Un test statistique vise à établir s'il y a vraisemblablement une association entre des variables. Mais ce qui permet d'interpréter cette association (notamment savoir si elle est causale) c'est le design d'étude. Enfin, l'enjeu n'est pas seulement de pouvoir tester de nombreux types d'hypothèse nulle différents, mais aussi pour chaque type d'hypothèse nulle de maximiser la puissance statistique et de minimiser les coûts de l'expérience. C'est par exemple l'objet du design d'__essai randomisé en bras croisés__, qui lorsqu'il est réalisable permet une plus grande puissance statistique à moindre coûts que l'__essai randomisé contrôlé__ (les deux permettant d'interpréter les associations comme causales).'' ~-[ épidémiologie 🏥 11 min ]-~ ----- [[https://www.youtube.com/watch?v=lG4VkPoG3ko|facteur de Bayes et rapport de cotes]]<
> (en anglais) ''Vous vous souvenez de votre pote Alex d'il y a deux épisodes, particulièrement doué⋅e à ce jeu de fête foraine. Vous vous souvenez donc qu'un coup de filet d'Alex, aussi souvent réussi soit-il, ne doit qu'ajuster votre connaissance. Formalisons cela, d'une façon néanmoins pratique pour être manipulée de tête.'' ~-[ statistiques 🎲 20 min ]-~ ----- [[https://www.youtube.com/watch?v=ptJm_otaR5k&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|problème de l'induction et principe d'uniformitarisme]] ''Prédire des observations futures à partir d'observations passées, c'est faire de l'__induction__. Mais comment justifier le fait d'adopter cette démarche ? On pourrait dire que jusqu'ici ça a marché, donc que ça fait sens de continuer… mais cet argument relève lui-même de l'induction. Il faut adopter un principe permettant de justifier la démarche d'induction. Ce principe c'est le __principe d'uniformitarisme__ (ou __principe de régularité__, ou __principe d'actualisme__) : jusqu'à preuve du contraire, les choses se passaient avant comme elles se passent aujourd'hui. Mais que signifie "se passer comme" ? Il s'agit des lois de la nature sous-jacentes aux observables. Le principe de régularité, c'est donc deux assertions : * (tout se passe comme si) il y a(vait) des lois de la nature à l'origine des observables, * jusqu'à preuve du contraire, les lois du passé étaient les mêmes que les lois du présent. Pour formaliser la notion de "loi de la nature", il faut faire appel à la notion d'algorithme et une théorie mathématique associée : la théorie algorithmique de l'information. L'incertitude concernant les prédictions faites par induction provient fondamentalement de l'incertitude concernant les lois de la nature. Pour formaliser cela, il faut allier la théorie des probabilités et la théorie algorithmique de l'information en une __théorie des probabilités algorithmique__.'' ~-[ philosophie des sciences 🤔 15 min ]-~ ----- [[https://www.youtube.com/watch?v=TwQpmb1CKDM&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|théorie à la Solomonoff]] ''Vous vous souvenez du triptyque modèles-données-discrimination ? En voilà la version bayésienne à la Solomonoff : * données : n'importe quelle observation (c'est-à-dire n'importe quelle suite finie de bits car on suppose que les données sont numérisables), * modèles : algorithme associant à chaque observation une probabilité épistémique (ce qu'on peut appeler une __théorie à la Solomonoff__), * discrimination : on utilise l'induction de Solomonoff (issue de la théorie des probabilités algorithmique) pour calculer la crédence de chaque modèle et par abduction on retient le modèle ayant la plus grande crédence. L'__induction de Solomonoff__ procède comme suit : * __a priori universel de Solomonoff__ : la crédence a priori d'un modèle est proportionnelle à exp(-l), où l est la longueur du code nécessaire pour décrire l'algorithme qu'est le modèle (aussi appelée __complexité de Kolmogorov__ de l'algorithme) ; et même si cette longueur est dépendante du langage de programmation, cela n'affecte finalement que peu le résultat de l'induction de Solomonoff, * on met à jour la crédence de chaque théorie grâce aux observations en appliquant les lois des probabilités, typiquement comme dans l'épisode sur les facteurs de Bayes. (En fait il y a une infinité de théories, mais on peut se contenter de le faire seulement pour celles de plus grande crédence a priori, et on s'arrête quand on est sûr que les théories restantes ont une crédence a priori trop faible pour passer en tête et gagner l'abduction.) Le principe de parcimonie consiste à privilégier les modèles les plus simples… mais dit comme ça c'est assez flou. Dans l'épisode 1 du [[#Chemin_A_:_la_mod.2BAOk-lisation_scientifique_sous_l.27angle_des_statistiques|chemin A]], on a précisé ce principe dans un cadre fréquentiste en donnant : * une signification méthodologique de "simple" : peu coûteux (en temps et en moyens) à falsifier par l'expérience, * une signification non probabiliste de "privilégier" : retenir par défaut, jusqu'à preuve du contraire. L'a priori universel de Solomonoff est une façon bayésienne de préciser le principe de parcimonie, en donnant cette fois : * une signification algorithmique de "simple" : le modèle a une faible complexité de Kolmogorov, * une signification probabiliste épistémique de "privilégier" : la crédence a priori des modèles plus complexes est plus petite (exponentiellement plus petite en la complexité de Kolmogorov du modèle).'' Le __théorème de complétude de Solomonoff__ énonce que : * si on considère (magiquement) un nombre dénombrable de théories (ce qui est en particulier le cas des théories à la Solomonoff) * si les lois de l'univers correspondent à une de ces théories (c'est-à-dire si ces lois sont un algorithme qui à un état de l'univers associe l'état suivant, quitte à user d'aléatoire, avec des probabilités égales à celles de cette théorie) * si on affecte une crédence a priori non nulle à chacune de ces théories (c'est-à-dire si on a un a priori universel sur ces théories, ce qui est le cas avec l'a priori universel de Solomonoff) * si on met à jour la crédence de chaque théorie grâce aux observations en appliquant les lois des probabilités (comme dans l'induction de Solomonoff) alors * la crédence de la théorie qui correspond aux lois de l'univers tend vers 1 * c'est-à-dire que les prédictions qu'on fait avec la théorie la plus crédible jusqu'ici tend vers les mêmes prédictions que celles qu'on ferait en connaissant les lois de l'univers (c'est-à-dire en ignorant seulement l'aléatoire) * de plus, l’espérance du cumul d'erreur quadratique (carré de l'écart entre la probabilité donnée par la théorie la plus crédible jusqu'ici que la prochaine observation soit 1 et la probabilité donnée par les lois de l'univers que la prochaine observation soit 1) des prédictions est fini (et inférieur à la complexité de Kolmogorov desdites lois de l'univers). C'est-à-dire que l'induction de Solomonoff fonctionne… si parmi les algorithmes on peut magiquement ne considérer que les théories à la Solomonoff. __Note sur le vocabulaire :__ "universel" dans "a priori universel de Solomonoff" signifie juste qu'aucune crédence a priori n'est nulle. bonus : [[https://www.youtube.com/watch?v=oBNNKf_zoq8&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|a priori universel de Solomonoff]] ~-[ informatique théorique ✅ 23 min ]-~ ----- [[https://www.youtube.com/watch?v=6N0dlorL0r8&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|complétude partielle de l'induction de Solomonoff]] ''Justement, le problème de l'induction de Solomonoff, c'est qu'il n'existe pas d'algorithme permettant de classifier les algorithmes entre ceux qui sont des théories à la Solomonoff et ceux qui ne le sont pas (on dit que le problème de décision des théories à la Solomonoff n'est pas calculable). Impossible de mettre en place la machinerie décrite à l'épisode précédent (ni même de l'approximer en fait). C'est cependant possible pour un sous-ensemble des théories à la Solomonoff : les théories au temps de calcul constant (plus intuitivement, celles qui décrivent l'univers comme un automate cellulaire). Précisons cela. Étant donné une observation (par exemple : 01101) une théories à la Solomonoff lui affecte une certaine probabilité (01101 -> p). Les observations correspondant à la même observation mais récoltant une donnée supplémentaire (011010 et 011011) se partagent cette probabilité (011010 -> p0 ; 011011 -> p1 ; avec p0 + p1 = p). Une __théorie au temps de calcul constant__ est une théorie à la Solomonoff qui calcule ce type de partage en un temps toujours plus petit qu'un certain temps forfaitaire (calculer 011010 -> p0 et 011011 -> p1 quand on a déjà calculé 01101 -> p ne prend pas plus de temps que le temps forfaitaire). On en vient donc au triptyque modèles-données-discrimination bayésien suivant : * modèles : théorie au temps de calcul constant, * données : n'importe quelle observation (n'importe quelle suite finie de bits), * discrimination : on utilise l'induction de Solomonoff pour calculer la crédence de chaque modèle et par abduction on retient le modèle ayant la plus grande crédence. Mais bien qu'il soit possible de mettre en place cette machinerie, il n'est pas possible de le faire efficacement. En effet, l'étape de l'induction de Solomonoff consistant à mettre à jour la crédence d'une théories grâce à la nouvelle observation est un problème NP-difficile (et nécessite donc un temps exponentiel en la taille de la théorie, selon la conjecture P différent de NP qui est consensuelle en théorie de la complexité). Tout l'enjeu ici pour les statisticien⋅ne⋅s, informaticien⋅ne⋅s et autres méthodologistes est donc de trouver des façons cheap d'approximer cette référence, tout comme le test d'hypothèse approxime l'abduction fréquentiste. Le champ de recherche porte le nom d'__apprentissage statistique__.'' bonus : [[https://www.youtube.com/watch?v=lXRVZP-tUzw&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|thèse de l'irréductibilité algorithmique et sophisme de l'omniscience logique]] ~-[ informatique théorique ✅ 10 min ]-~ ----- [[https://youtu.be/rzbZk-MYBZA?t=471|valeur épistémique et modélisation]]<
> (le lien commence la vidéo au début de l'extrait) ''Voilà essentiellement les trois objectifs (__valeurs épistémiques__) que peut viser une modélisation : * compréhension : c'est ce dont il s'agit quand on cherche à identifier les grands phénomènes prépondérants (quelques exemples de telles modélisations en physique : les gaz parfaits, les approximations de faible amplitude à propos des pendules, à propos des ondes…), * réalisme : décrire avec le plus de détails tous les phénomènes, toutes les interactions (par exemple cartographier le système nerveux d'une drosophile jusqu'à l'échelle du neurone individuel), * prédiction : prédire les observables, identifier les paramètres sur lesquels agir et comment agir dessus pour influencer les observables (par exemple le réseau de neurone qui sur le réseau social de votre choix analyse votre comportement pour décider quoi vous recommander ou comment composer votre fil d'actualité, afin de vous y faire passer un maximum de temps et de maximiser votre engagement). On l'a vu, les statistiques et la théorie des probabilité algorithmique ont poussé très loin les méthodes pour faire des prédictions. Pour nous, c'est l'occasion de sentir la difficulté d'optimiser conjointement ces différentes valeurs épistémiques : les meilleures méthodes prédictives sont des tambouilles statistiques qui n'ont que faire des mécanismes qui sous-tendent les phénomènes. Typiquement un réseau de neurones : * peut être un très bon prédicteur : par exemple pour prédire la dynamique d'un fluide, * mais il ne donne que peu de compréhension : parfois on parvient à identifier que l'activation d'un neurone correspond à l'identification d'une structure clef (par exemple la commissure des lèvres dans une tâche de reconnaissance de visage) mais globalement l'exécution d'un réseau de neurone est peu interprétable, * et il n'a absolument rien de réaliste : la dynamique d'un fluide n'est pas l'exécution d'un réseau de neurone. Pour autant, ces valeurs épistémiques ne font pas que s'opposer. Comme on l'a vu dans l'épisode sur le réalisme structural, faire des prédictions correctes dans des conditions toutes autres que les observations qui ont conduit à élaborer la théorie (ou dans un langage plus proche de l'apprentissage statistique, faire des prédictions correctes hors du domaine d'entraînement), c'est un indice de compréhension, voire de réalisme structural.'' ~-[ philosophie des sciences 🤔 3 min ]-~ ----- [[https://youtu.be/MSuFckow8ms?t=30|variance expliquée]]<
> (le lien commence la vidéo au début de l'extrait) ''La variance expliquée est une notion plus en phase avec la valeur épistémique de compréhension : elle permet par exemple d'évaluer à quel point un modèle est bon au sens de la valeur épistémique de compréhension. N'allez pas penser pour autant qu'il s'agit de la technique statistique la plus élaborée dans sa direction. Il existe par exemple l'analyse en composantes principales qui identifie dans un jeu de données les n paramètres indépendants expliquant ensemble la plus grande part de la variance. Zut ! On retombe sur les bases de l'apprentissage statistique… Ah, et sachez que l'héritabilité est une variance expliquée ! (C'est essentiel à comprendre pour interpréter correctement cet indicateur de biologie évolutive… mais certes, c'est une autre histoire.)'' [ statistiques 🎲 6 min] ----- Après avoir terminé le [[#Chemin_C_:_de_la_diffusion_de_l.27information_.2BAOA_sa_v.2BAOk-rification|chemin C]], la suite est au [[#Chemin_AC_:_la_scientificit.2BAOk_face_.2BAOA_la_pratique_de_la_publication|chemin AC]]. === Chemin B : rhétorique === ----- [[https://www.youtube.com/watch?v=5lXIK_4tpDs&list=PLceYkF8JBqYTREZFAndpNCXbEt8e4CYXG|appel à la nature]] ''La rhétorique s'intéresse aux effets des discours. Et certaines façons de discourir produisent des effets essentiellement indépendants de la valeur argumentative du propos. On parle de __procédé rhétorique__ pour les désigner. L'__appel à la nature__ est le procédé rhétorique consistant à présenter une position morale (= "telle chose est bien" ou "faire telle chose est mal") comme étant justifiée par le fait que telle chose soit naturelle ou telle autre artificielle. L'effet est là : l'impression d'une argumentation (au lieu d'une affirmation semblant arbitraire). Dit autrement, on a augmenté la profondeur argumentative du discours, ce qui ne le rend pas forcément plus valide, mais en donne l'impression. En fait : * l'association entre naturel et bien (respectivement artificiel et mal) devrait être argumentée et non laissée comme évidente, voire implicite, * la validité du concept même de nature n'est souvent pas discutée, et pourtant discutable, * et en particulier, une discontinuité ontologique entre le naturel et l'artificiel est souvent nécessaire à l'argument mais demeure implicite. Bien entendu, les procédés rhétoriques n'ont pas à être cohérents entre eux du point de vue argumentatif. Ainsi on pourrait aussi bien se revendiquer de la modernité ou de la technologie et produire le même type d'effet. La structure importante à identifier, c'est l'utilisation d'une connotation comme argument. Précisons cela. C'est le couple dénotation/connotation qui est en jeu : * d'abord, argumenter que A a une caractéristique C en utilisant la dénotation de C (la signification explicite de C), * ensuite, argumenter que A est bien en utilisant la connotation de C (la signification implicite de C). Toute l'entourloupe réside dans le fait de donner l'impression d'un raisonnement argumenté (c'est-à-dire explicite) alors qu'il se fonde sur de l'implicite. C'est ça, utiliser une connotation comme argument.'' bonus : [[https://www.youtube.com/watch?v=hughAmqa_jY&list=PLceYkF8JBqYTREZFAndpNCXbEt8e4CYXG|guillotine de Hume]] ~-[ rhétorique 🗣️ 14 min ]-~ ----- [[https://www.youtube.com/watch?v=b5cQbe913zc&list=PL1CxKW7vr3VWalvEQnHPL8YSTOjLW0HHn|homme de paille]] ''La reformulation des thèses et la discussion des conséquences sont des éléments essentiels aux discussions. C'est pourquoi elles sont porteuses d'effets rhétoriques… même lorsqu'elles sont effectuées de façon abusive.'' bonus : [[https://www.youtube.com/watch?v=RlZ3yHA_API&list=PL1CxKW7vr3VWalvEQnHPL8YSTOjLW0HHn|pente glissante]] ~-[ rhétorique 🗣️ 5 min ]-~ ----- [[https://www.youtube.com/watch?v=BvZLwLaEYU4&list=PLOAqW4l-8WBiolZtT_RzposcYW5If8Mpp|appel à la pitié]] ''Susciter la pitié peut permettre de modifier la perception du reste du discours et en particulier permettre de contourner les questions d'argumentation (__persuasion__). Cela peut aussi rendre l'interlocuteur plus prompt à l'action. Il s'agit bien là d'un procédé rhétorique puisque ces effets ne passent pas par l'argumentation. D'un point de vue argumentatif, pointer le caractère pitoyable d'une situation sert à soutenir qu'il faut un changement. Le verbe falloir est important ici : l'__appel à la pitié__ n'est pas un argument qu'on emploie pour obtenir l'adhésion à une description, mais pour obtenir l'adhésion à un devoir et en particulier pour obtenir une prise de décision. Il ne prend d'ailleurs pas toujours la forme d'un argument isolable, mais aussi parfois celle d'une __stratégie argumentative__ (façon d'articuler les arguments et de construire l'argumentaire). Certaines conceptions considèrent que l'appel à la pitié n'est jamais une __forme argumentative__ (argument ou stratégie argumentative) valide, tandis que d'autres considèrent que ce sont seulement certaines articulations avec le reste de l'argumentaire qui sont invalides. L'appel à la pitié fait l'objet de critiques sur les plans rhétorique et argumentatif. Cela pousse à considérer des formes argumentatives alternatives : * logique de responsabilité, * appel à la solidarité, * appel à la générosité, * appel à l'intérêt bien compris.'' ~-[ rhétorique 🗣️ 12 min ]-~ ----- [[https://www.youtube.com/watch?v=_Xv5iiyeQdA&list=PLzU8PC8KVrx9tuxK6LM6h_UjQ8IpAkYJG|quelques procédés rhétoriques]] ''Quitte à moins les détailler, voyons d'autres procédés rhétoriques et des exemple de mise en pratique pour avoir plus de facilité à les repérer et y réagir de façon adéquate. Bref, le but du [[#Chemin_B_:_rh.2BAOk-torique|chemin B]] n'est pas de dresser une liste exhaustive des procédés rhétoriques, d'autant que ça ne permettrait pas de faire le tour de ce qui est trompeur ou ne l'est pas les concernant. Passons à autre chose.'' bonus : [[https://www.youtube.com/watch?v=R9McgUw6kso&list=PL8kpTYGNfAcbcbHO_jt9NYHP1KefT4Nfp|quelques autres encore]] ~-[ rhétorique 🗣️ 24 min ]-~ ----- [[https://www.youtube.com/watch?v=l0iV4uVQ1Ec&list=PLzU8PC8KVrx9tuxK6LM6h_UjQ8IpAkYJG|contexte autour de l'image : montage et effet Koulechov, micro-trottoir, extrait, légende…]] ''Dans notre société où la communication n'est plus basée sur l'écrit mais sur l'image, celle-ci s'intègre au discours. Dans cette optique, la vidéo présente des situations où le contexte – ou l'absence de contexte dans le cadre des extraits – sert la rhétorique. Elle présente notamment les bases du montage, avec l'exemple du micro-trottoir. Finalement, cacher des éléments permettant la vérification de l'information peut servir le discours. La rencontre entre les [[#Chemin_B_:_rh.2BAOk-torique|chemin B]] et [[#Chemin_C_:_de_la_diffusion_de_l.27information_.2BAOA_sa_v.2BAOk-rification|chemin C]] ne saurait tarder.'' ~-[ rhétorique 🗣️ 36 min ]-~ ----- introduction à la lecture d'image [[https://www.youtube.com/watch?v=ZIeCilXN6Tk&list=PLTVDuoFsInfL3T_d7UKTCJDp85F6GKSXV|partie 1]] et [[https://www.youtube.com/watch?v=-H-ERnb8H3M&list=PLTVDuoFsInfL3T_d7UKTCJDp85F6GKSXV|partie 2]] ''Symbolique, ethnocentrisme, répétition, humour, saillance de la mort… les images sont tout autant sujettes aux procédés rhétoriques que les autres formes de discours. Cela vient du fait qu'elles sont porteuses de signification, aussi bien par ce qui est explicitement montré à l'image (dénotation) que par l'imaginaire et les représentations qui sont mobilisés (connotation). Étudier comment la construction des images permet de leur donner une signification relève de la sémiologie.'' ~-[ sémiologie 🖼️ 13 + 17 = 30 min ]-~ ----- Après avoir terminé le [[#Chemin_C_:_de_la_diffusion_de_l.27information_.2BAOA_sa_v.2BAOk-rification|chemin C]], la suite est au [[#Chemin_BC_:_m.2BAOk-diatisation|chemin BC]]. === Chemin C : de la diffusion de l'information à sa vérification === ----- [[https://www.youtube.com/watch?v=_f6HzL0Nh2g&list=PL8kpTYGNfAcbcbHO_jt9NYHP1KefT4Nfp|modèle socio-psychologique de la diffusion des informations]] ''La diffusion médiatique des informations participe à la construction des représentations populaires, influençant à leur tour les témoignages qui pourront être repris dans la presse. La boucle est bouclée !'' ~-[ éducation aux médias et à l'information 📰 20 min ]-~ ----- [[https://www.youtube.com/watch?v=JORhEzwTY18&list=PL_6rniEGlhTQTwXrfypmhGSUBeNGo_YbI|formation et diffusion de rumeur]] ''En ligne, la structure de la propagation d'une information est un indicateur de sa véracité. De plus, la reproduction imparfaite aux différentes étapes de la propagation conduit à une distorsion de l'information. Cette distorsion n'est pas aléatoire, elle va dans le sens des représentations du groupe social dans lequel la rumeur se diffuse.'' bonus : [[https://www.youtube.com/watch?v=a_O8u0YT8T0|simplification et distorsion réduisant la dissonance cognitive lors de la diffusion de rumeur]] ~-[ psychologie sociale 👥 13 min ]-~ ----- [[https://www.youtube.com/watch?v=PqbYXvkmc98&list=PLzU8PC8KVrx9tuxK6LM6h_UjQ8IpAkYJG|chambre d'échos, effet de groupe et identité sociale]] ''On parle de __chambre d’échos__ lorsque la diversité de l'information à laquelle un individu est exposé est réduite. Plusieurs phénomènes expliquent les effets de chambre d'échos en ligne : * les __bulles de filtre__ (effet le plus minime des trois à court terme) : conséquences de la personnalisation automatique des fils d'information et résultats de recherches, * les __effets de groupe__ (principal phénomène à court terme) : on échange plus d'information avec des personnes ayant des opinions et centres d'intérêt proches, * les biais de confirmation : parmi les informations qui nous arrivent tout de même, on consulte davantage celles qui vont dans le sens de ce qu'on pense déjà. Cette vidéo se concentre notamment sur les effets de groupe, qui sont la conséquence du phénomène d'__identité sociale__ (construction d'une image de soi par les catégories sociales d'appartenance) et de la tendance à chercher à avoir une identité sociale valorisée. Avoir une identité sociale valorisée passe notamment par : * la mobilité sociale : rejoindre des groupes qu'on perçoit positivement et s'éloigner de ceux qu'on perçoit négativement, * la valorisation des groupes d'appartenance (en particulier des thèses qui leur sont associées) notamment en situation de conflit. Finalement, certaines thèses sont davantage l'affirmation d'une identité sociale que d'une connaissance.'' ~-[ psychologie sociale 👥 24 min ]-~ ----- [[https://www.youtube.com/watch?v=2XPtzAQxMPw&list=PL8kpTYGNfAcbcbHO_jt9NYHP1KefT4Nfp|remonter aux sources, croiser les sources]] ''Vérifier une information consiste à : * reconstruire sa généalogie, c'est-à-dire remonter à ses sources, * chercher d'autres sources indépendantes. Recherche par mots clefs, par image, par image similaire, sur un moteur de recherche spécialisé (journalistique, académique…) etc. C'est l'occasion de mettre à profit de multiples outils.'' ~-[ éducation aux médias et à l'information 📰 21 min ]-~ ----- [[https://www.youtube.com/watch?v=4bmX1lYq_i0|vérification d'image]] ''La vérification de l'information peut comporter une dimension technique et les images présentent à cet égard certaines spécificités : * consultation des métadonnées comme la date de création ou le lieu de prise de vue, * prise en compte de la qualité de l'image, qui lorsqu'elle est faible : * est un indice qu'on n'est pas à la source de l'information (multiples compressions), * peut induire des artefacts à ne pas confondre avec des indices de falsification, * utilisation d'outil d'aide au repérage de retouche, * recherche d'indice d'une génération de l'image par une IA, guidée par la connaissance des artefacts courants dans ce cas (lesquels dépendent de l'état actuel de ces technologies), * utilisation de moteur de recherche par image (et on retombe ici sur les aspects généraux de la vérification d'information).'' bonus : [[https://www.youtube.com/watch?v=7P1Q_odBprI|dégradation de la qualité d'image]] ~-[ éducation aux médias et à l'information 📰 48 min ]-~ ----- [[https://www.youtube.com/watch?v=crTt-QIyS-o&list=PLzU8PC8KVrx9tuxK6LM6h_UjQ8IpAkYJG|lecture de graphique : choix de représentation de données]] ''Avoir des données chiffrées représentées visuellement, c'est bien. Savoir les lire en temps réel et porter son attention sur les potentiels erreurs et aspects trompeurs, c'est mieux ! La vérification de données graphiques consiste à vérifier : * la cohérence des données, * la pertinence de la représentation pour visualiser les données, * la pertinence pour l'argumentaire du choix des données à représenter. La vérification de graphique mêle donc une attention sur : * les données, * la rhétorique de leur présentation. Bref, les [[#Chemin_B_:_rh.2BAOk-torique|chemin B]] et [[#Chemin_C_:_de_la_diffusion_de_l.27information_.2BAOA_sa_v.2BAOk-rification|chemin C]] en viennent à se rencontrer.'' bonus : [[https://www.youtube.com/watch?v=K1YijhODfJ8&list=PLzU8PC8KVrx9tuxK6LM6h_UjQ8IpAkYJG|lecture de graphique : choix de données à représenter]] ~-[ éducation aux médias et à l'information 📰 28 min ]-~ ----- Après avoir terminé le [[#Chemin_A_:_la_mod.2BAOk-lisation_scientifique_sous_l.27angle_des_statistiques|chemin A]], la suite est au [[#Chemin_AC_:_la_scientificit.2BAOk_face_.2BAOA_la_pratique_de_la_publication|chemin AC]]. Après avoir terminé le [[#Chemin_B_:_rh.2BAOk-torique|chemin B]], la suite est au [[#Chemin_BC_:_m.2BAOk-diatisation|chemin BC]]. === Chemin AC : la scientificité face à la pratique de la publication === ----- [[https://www.youtube.com/watch?v=Vx91cJnwFeY&list=PLf2Z3T17MzDQOC-IhvzhVghBXiuzk60yq|publication scientifique]] ''La __publication scientifique__ est caractérisée par le processus de revue par les pairs, qui suggèrent des améliorations et ultimement conditionnent le fait qu'une production soit publiée. Cela conduit (supposément) à s'assurer que les publications scientifiques respectent des normes, certaines étant très générales, comme le fait de situer le travail par rapport au reste des travaux scientifiques (introduction, bibliographie…), d'autres étant très spécifiques à un domaine de recherche. Dans un __journal scientifique__ on trouve différents types d'articles : * __article de recherche originale__ : présente de nouvelles recherches, * __revue de la littérature__ : * __revue narrative__ : synthèse sur un sujet, permettant notamment sa découverte par læ lecteur⋅rice, * __revue systématique de la littérature__ : réponse à une question de recherche via l'étude de la littérature sur le sujet (avec une méthodologie précise de sélection et d'analyse des études), * __méta-analyse__ : revue systématique avec une approche statistique d'agrégation des résultats, * lettre à l'éditeur, correspondance, commentaire : expression de points de vue sur des sujets de recherche ou des critiques d'articles, * éditorial : écrit par l'éditeur et concerne une série d'articles ou une thématique de recherche, * rapport de cas : description d'un cas isolé (pratiqué de façon variable selon les disciplines : classique en médecine, mais ne fait jamais l'objet de publication en éthologie par exemple), * rapport de conférence : résumé des discussions prenant place dans d'autres formats classiques de communication scientifique (congrès et séminaires où se tiennent des présentations orales, potentiellement avec tableau, diaporama ou poster). Les journaux scientifiques sont spécialisés (par domaine, par importance scientifique ou sociétale des résultats…). Leur influence fait l'objet d'indicateurs. Le __facteur d'impact__ (nombre moyen de citations par article au cours des deux dernières années) vise à comparer des journaux ayant une spécialisation semblable, mais il ne reflète ni la variabilité du nombre de citations entre les articles d'un journal, ni l'accumulation de citations par les articles sur le long terme (cela dit, l'accumulation de citations sur le long terme est grandement prédictible à partir de l'accumulation de citations dans la période suivant la publication). Les __revues prédatrices__ sont des pratiques commerciales trompeuses consistant à faire passer un processus de publication pour scientifique alors qu'il ne l'est pas. Court délai et faible coût de publication, comité éditorial fictif, taux d'acceptation d'article proche de 100%, pas de référencement dans les bases de données d'articles scientifiques ou les répertoires internationaux de journaux scientifiques, spam… sont autant d'indices permettant de les identifier. Il existe aussi des journaux scientifiques autopromotionnels permettant de gonfler artificiellement le nombre de publication des scientifiques proches du comité éditorial. Le modèle économique des journaux scientifiques vise l'indépendance et se base donc exclusivement sur la réputation (comme de nombreux autres aspects de la pratique scientifique). Notamment, les scientifiques relecteurs pour la revue par les pairs sont bénévoles, c'est-à-dire qu'ils sont payés par leur employeur indépendamment de leur participation à telle ou telle relecture de tel ou tel journal. L'engagement des chercheur⋅se⋅s dans des processus de publication participe d'ailleurs de leur réputation. De même, les éditeurs scientifiques sont indépendants des structures qui financent et organisent la recherche. Les frais de publication d'un article couvrent les frais de fonctionnement du journal, mais ils rétribuent surtout le journal pour : * le risque qu'il prend pour sa réputation en publiant l'article, * le lectorat qu'il s'est constitué grâce à cette réputation. (Plus de détails dans le complément sur le modèle économique ci-dessous.) Le fait que la lecture d'articles (individuels ou par abonnement) soit payante complète le modèle économique, mais certains journaux, dits en __accès libre__, ne font pas payer la lecture. Des initiatives illégales (car la propriété intellectuelle revient souvent à l'éditeur) visent la diffusion gratuite des articles scientifiques payants. Il existe aussi des plateformes légales et gratuites de publication en accès libre d'articles avant la relecture par les pairs (on parle de __pré-print__) qui permettent la diffusion d'articles avant les versions ultérieures qui deviennent propriétaires de l'éditeur (par exemple la plateforme arXiv qui porte principalement sur les sciences formelles et la physique, ou la plateforme medRxiv qui porte sur les sciences biomédicales). Plus de la moité des parts de marché de la publication scientifique sont détenues par un oligopole de cinq éditeurs.'' __Complément sur le modèle économique de la publication scientifique :__ ''Le cœur de métier d'un journal scientifique, plutôt que le travail d'édition, c'est le travail de sélection. En ne sélectionnant presque que des bons articles et en donnant tous les gages de confiance que quand il y a un article qui est passé alors que vraiment c'est une erreur on indique l'article comme rétracté, le journal se constitue une réputation, et à travers cette réputation, un lectorat. Quand on est un organisme de recherche et qu'on veut faire connaître ses travaux, on veut les faire connaître auprès de ce lectorat, et donc on veut publier dans le journal en question. Mais en publiant notre article, le journal prend un risque : il prend le risque que l'article ne soit en fait pas si bon et que le lectorat soit déçu, bref, il prend un risque pour sa réputation. Or la réputation du journal, c'est ce qui fait toute sa valeur marchande. Il faut donc rémunérer le journal pour ce risque. Et c'est ça que paye l'organisme de recherche. Il rémunère le capital réputation : * pour pouvoir l'utiliser, * à hauteur du risque de dégradation du capital. En passant, on comprend que la relecture par les pairs (je dis relecture pour distinguer du reste de la revue par les pairs qui a lieu après publication, une fois que le journal a engagé sa réputation), ce n'est pas un service qu'on paye au journal et que celui-ci aurait intérêt à faire à la va vite pour faire plus de marge. Pas du tout : la revue par les pairs, le journal la fait pour garantir la qualité des articles et ainsi protéger sa réputation. Le journal a économiquement intérêt à organiser une excellente et rigoureuse relecture par les pairs même si on ne le payait pas pour ça (par opposition au modèle économique des journaux prédateurs). Et comme on l'a vu, effectivement on ne le paye pas pour ça : on rémunère le risque pris pour la réputation, car cette réputation permettra le même genre de rémunération dans le futur. Digression : introduction à l'épistémologie sociale (en anticipation du [[#Chemin_ABC_:_informer.2C_s.27informer.2C_.2BAOo-tre_expos.2BAOk_.2BAOA_l.27information|chemin ABC]]) Ce qu'il faut sentir aussi, c'est que les mécanismes de réputation sont fondamentalement liés à la construction des connaissances. En fait la connaissance (au-delà du cercle extrêmement restreint des quelques spécialistes qui maîtrisent absolument tous les tenants et aboutissants de pourquoi on sait qu'on sait, bref tous les détails de la preuve – ce qui d'ailleurs est un cercle souvent vide puisqu'on utilise partout des technologies et des résultats développées par d'autres, et de façon plus cruciale encore par d'autre disciplines qu'on ne maîtrise pas – au-delà donc de ce cercle souvent vide) c'est la réputation. Vu qu'en plus la connaissance est aussi par définition quelque chose qu'on peut transmettre, or on ne peut pas se permettre de considérer qu'il faut pour cela transmettre l'intégralité de l'expertise qu'il faut pour tout comprendre de la preuve, alors littéralement, la connaissance c'est la réputation. En tout cas, si on accepte l'idée que connaître: * ce n'est pas tout comprendre, * mais bien avoir des raisons suffisantes de croire que au total on sait (on = différentes personnes avec différentes expertises, qui ont vérifié différentes parties de la preuve) alors c'est inévitable, la connaissance scientifique c'est une certaine forme de réputation, relative à certains groupes sociaux (aussi appelés les domaines scientifiques, composés de leurs spécialistes) et certaines institutions (usuellement dénommées sociétés savantes, ou encore… journaux scientifiques réputés). Fin de la digression. Reprenons en soulignant en quoi l'accumulation de capital réputation est fonctionnelle (= participe à ce que le processus de publication scientifique remplisse ses fonctions) car ainsi on comprend le service que paye la société à travers la rémunération de ce capital. D'une part, ça permet de regrouper les avancées les plus importantes à diffuser dans les journaux lus par le plus vaste public et au contraire les résultats qui intéressent un public plus spécialisé dans des journaux plus spécialisés. C'est une organisation super efficace de la diffusion des connaissances que la société rémunère. D'autre part, si vous avez suivi la digression, un résultat qu'on peut affirmer quand on a une grande réputation à défendre (le genre de réputation qu'aucun individu ne peut effleurer, seulement des institutions comme des grands journaux), c'est-à-dire quand on a beaucoup à perdre, un tel résultat c'est un résultat : * très solide (si bien que non seulement il est peu probable qu'il casse, mais que même s'il cassait ce serait une telle surprise pour tout le monde qu'on ne nous en voudra pas trop de l'avoir affirmé), ou plutôt c'est un résultat que consensuellement on considère solide, * ou/et très important (si bien que si il casse, on ne nous en voudra pas trop d'avoir alerté), ou plutôt c'est un résultat que consensuellement on considère important. En fait, la réputation c'est le consensus. Avoir des institutions avec un grand capital réputation, c'est avoir des garants du consensus : des entités qui ont des grands incitatifs à dire, et à ne dire que, des choses très consensuelles, c'est-à-dire très bien établies et très importantes dans leurs domaines respectifs. Et le modèle économique de la publication scientifique fait que perdre du capital réputation, pour les journaux scientifiques, c'est perdre du capital économique : le reflet fidèle du consensus actuel est un enjeu de réputation pour les journaux scientifique, et leur modèle économique fait de cette réputation un enjeu économique. Donc c'est ça le rôle des multiples journaux scientifiques, c'est d'avoir cette diffusion efficace et stratifiée des connaissances : * dont la structure reflète le consensus (les résultats dont la validité fait consensus et dont la grande importance fait consensus – car c'est là la (bonne ?) seule façon de définir la validité et l'importance – se retrouvent dans les plus grands journaux), * qui évolue avec le consensus (un grand journal qui ne ferait jamais évoluer ses critères de sélection, genre "si si, la cybernétique ça va à nouveau être le sujet important" ou "non mais des statistiques en biologie, si vous voulez hein, mais ce n'est pas un critère", ne resterait pas un grand journal longtemps), * et dont les acteurs sont les garants du consensus (car les journaux sont des institutions qui accumulent des réputations phénoménales). C'est-à-dire un rôle fondamental de construction des connaissances. Et c'est ça que la société paye quand les structures de recherche payent les journaux pour publier. Ce qu'on paye à la publication est en gros indépendant du prix du travail d'édition et seulement fonction de la réputation. C'est juste la façon de faire exister matériellement le consensus, c'est-à-dire la connaissance. Aujourd'hui il y a beaucoup de recherche donc il est possible d'avoir une grande réputation (car il y a beaucoup de choses pertinentes à dire), et par ailleurs le travail d'édition coûte peu cher, donc les journaux gagnent très très bien leur vie en faisant payer la publication. Mais dans l'état actuel du processus de publication scientifique, ça n'est pas une déviance par rapport à un fonctionnement normal, c'est bien le fonctionnement normal qui permet de remplir la fonction. Dire cela n’empêche d'ailleurs pas d'envisager des réformes du modèle économique des journaux scientifiques, mais ça pointe effectivement qu'une simple abolition du coût à la publication poserait des problèmes cruciaux. Notons enfin que le coût de la publication n'est pas un incitatif économique à jouer le jeu uniquement pour le journal, mais aussi pour les instituts de recherche. En effet, ne vont publier dans des grands journaux que les instituts de recherche qui estiment tenir un résultat suffisamment important pour que ça vaille ce prix-là de le faire connaître, car ça va vraiment augmenter/entretenir leur propre réputation. Dit autrement, le prix décourage de faire un coup de communication visant à attirer l'attention alors que le résultat présenté est décevant : il faut que ça vaille vraiment le coût (littéralement) pour que publier dans ce journal soit (économiquement) intéressant. Tout cela concernait le fait de faire payer la publication. Faire payer la lecture, c'est différent. C'est juste une façon de convertir en capital économique le capital réputation, d'une façon qui n'a rien à voir avec la construction des connaissances (contrairement au fait de faire payer la publication). Et il s'agit bien d'une conversion de capital : quand le prix à la lecture est un peu plus élevé (augmentation du capital économique), le journal perd un peu du lectorat cible pour lequel il est payé à la publication, et donc il perd un peu en réputation (diminution du capital réputation), et en effet il pourra vendre un peu moins chère la publication. Ces considérations éclairent aussi : * pourquoi les journaux en accès libre ne font pas payer la lecture mais font tout à fait payer la publication, * la différence fondamentale avec des plateformes de publication gratuite de pré-print ou des archives de documents scientifiques comme HAL. Dans certains domaines de recherche, il existe aussi des journaux scientifiques gratuits non seulement à la lecture mais aussi à la publication et qui comptent sur la bonne intelligence des membres du journal (qui sont typiquement des scientifiques du domaine) pour organiser une revue par les pairs de qualité.'' ~-[ éducation aux médias et à l'information 📰 18 min ]-~ ----- pratique du test statistique par p-valeur [[https://www.youtube.com/watch?v=1P-HyzGvde4&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|partie 1]] et [[https://www.youtube.com/watch?v=ZWxbbLNH01A&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|partie 2]] ''La pratique du test statistique par p-valeur rencontre des difficultés importantes : * mécompréhension, * mésusages : p-hacking (pratique par laquelle une p-value est artificiellement réduite mais son interprétation faussée), __biais de publication__ (sous-publication des résultats négatifs)…, * focalisation sur certains enjeux : * existence d'effet plutôt que taille d'effet, * significativité statistique plutôt que prise de décision, * étude de situation facilitant la mise en évidence d'effet plutôt qu'étude de situation de potentielle application, * étude de questions se prêtant aux outils statistiques plutôt qu'étude des questions importantes. Ces difficultés conduisent à une crise des méthodologies scientifiques – en particulier à une crise de la reproductibilité – appelant un renouveau des standards des statistiques et de leur enseignement. La mise en avant du paradigme statistique bayésien participe de ce renouveau.'' ~-[ statistiques 🎲 16 + 20 = 36 min ]-~ ----- [[https://www.youtube.com/watch?v=NOnGn6Bq09o&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|crise de la reproductibilité et crise des statistiques]] ''La fiabilité des résultats scientifiques dans le temps (attente dont la forme est variable selon les disciplines) suppose que la preuve soit administrée de sorte à pouvoir vérifier les arguments avancés (et non pas seulement de faire confiance sur parole), et donc parfois reproduire des procédures ayant valeur d'argument. On distingue à cette effet : * le fait de __reproduire__ la procédure mise en place par une étude, * le fait que cette reproduction de l'étude __réplique__ son résultat, c'est-à-dire parvienne aux mêmes conclusions (existence d'effet et taille d'effet comparable). Répliquer un effet peut consister à : * reproduire l'analyse de données uniquement (qui doit alors être précisément décrite) sur les données de l'étude (qui doivent alors être disponibles), * reproduire toute l'étude à l'identique à partir de la collecte de données, par un laboratoire indépendant (__réplication à l'identique__), * réaliser une étude portant sur le même phénomène mais dans d'autres conditions, ou sur un phénomène apparenté, ou utilisant la même méthodologie (__réplication conceptuelle__). Dans l'ensemble on parle de __reproductibilité__. La __crise de la reproductibilité__ est le fait que dans de nombreuses disciplines scientifiques, lorsqu'on reproduit à l'identique de façon systématique un ensemble d'études, une grande part des reproductions (de l'ordre de plusieurs dizaines de pourcents avec des variations importantes entre les disciplines) échouent à répliquer les conclusions de la publication originale. Il est à noter que bien que la proportion d'études qui répliquent (au sens de mise en évidence d'un effet) soit parfois faible, cela relève d'une approche centrée sur l'existence d'un effet. Considérer plutôt les tailles d'effet limite l'ampleur de la crise de la reproductibilité : il demeure une certaine corrélation entre les études et leurs réplications. Dans la lignée de l'épisode précédent, cela met en exergue le fait que la recherche se penche beaucoup sur des effets de faible taille et des liens de causalité ténus (c'est-à-dire pas forcément des phénomènes importants). Enfin, étant donné qu'il existe des alertes concernant les problèmes de reproductibilité depuis des vingtaines d'années, plutôt que d'une crise de la reproductibilité, il s'agit de crises successives de prise de conscience des problèmes de reproductibilité, qui touchent désormais les organismes de gouvernance et de financement de la recherche et forme un consensus en statistiques concernant la critique des tests statistiques par p-valeur.'' bonus : [[https://www.youtube.com/watch?v=QcNLbWk1zVU&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|la critique du test statistique par p-valeur et de sa pratique est consensuelle en statistiques]] __Note sur le texte accompagnateur :__ un certain nombre de détails concernant la reproductibilité ne sont pas issus des recommandations (principale et bonus) de cet épisode mais des recommandations de l'épisode sur la science ouverte et la métascience (après le suivant). ~-[ statistiques 🎲 14 min ]-~ ----- [[https://youtu.be/dXiEJnPELbY?list=PLAhlPGbd4E4QrBVU5u3CUEvnkbz-5BwAF&t=572|expert⋅e non chercheur, méthodologiste, statisticien⋅ne]]<
> (le lien commence l'écoute au début de l'extrait) ''Les scientifiques ne sont pas forcément des inconscient⋅e⋅s sans recul critique sur leur pratique ou les outils statistiques et méthodologiques qu'iels utilisent. Les organismes de recherche mettent même parfois en place des statuts garants de la méthodologie. La crise de la reproductibilité est néanmoins le témoin que le système est largement imparfait.'' ~-[ éducation aux médias et à l'information 📰 5 min ]-~ ----- Science ouverte et métascience : * [[https://www.youtube.com/watch?v=VE1ndjiKvgU&list=PLceYkF8JBqYTKNWGfvWIrhV6s6uyKl9qC|partie 1 : science ouverte]] * [[https://www.youtube.com/watch?v=OA8Eki7fvAw|partie 2 : métascience et crise de la crédibilité]] ''« Toute personne a le droit de prendre part librement à la vie culturelle de la communauté, de jouir des arts et de participer au progrès scientifique et aux bienfaits qui en résultent. » (article 27 de la déclaration universelle des droits de l'homme) Le processus scientifique actuel, tel qu'il est réalisé et contrairement à comment il est conçu ou plutôt idéalisé, échoue à rechercher systématiquement les erreurs (et ce d'autant plus au niveau des sources principales d'erreur : dans les aspects les plus techniques d'administration de la preuve) conduisant à limiter profondément la crédibilité des résultats scientifiques, et remettant en cause des domaines entiers de recherche. En particulier les résultats expérimentaux sont assez peu reproductibles dans de nombreux domaines (crise de la reproductibilité). Mais d'autres aspects de l'administration de la preuve sont atteints, comme la fiabilité des citations avec : * 25 % d'erreurs de citation en histoire et des taux similaires dans les autres disciplines, * un __biais de citation__ : les études positives sont davantage citées. Plus largement, on peut identifier une crise de la crédibilité des sciences – dépassant le cadre de la crise de la reproductibilité – et relever à cet effet un continuum de __pratiques de recherches questionnables__ (au sens où elles sont déjà questionnables dans le système actuel), par exemple : * défaut d'attribution : indiquer comme auteur d'une publication une personne qui n'a essentiellement pas contribué à la recherche etc. * exagérer ou généraliser les conclusions, * défaut d'exhaustivité des données et des tests réalisés sur les données : * ne pas mentionner des exclusions de données, * réaliser un contrôle en plusieurs exemplaires et ne mentionner que celui qu'on garde pour l'analyse statistique, * réaliser plusieurs conditions de test et ne pas toutes les rapporter (pas tous les questionnaires, pas toutes les lignées cellulaires…), * (dans la lignée du point précédent) présenter comme résultat __confirmatoire__ (test d'une hypothèse qu'on a avant l'expérience, ce qui permet de bénéficier des garanties des statistiques) un résultat en fait __exploratoire__ (résultat obtenu sans garantie statistique, typiquement en essayant librement des conditions expérimentales ou en explorant un jeu de données en réalisant de multiples tests statistiques) : * créer une hypothèse après que les résultats soient connus (__harking__ : hypothesising after results are known) et éventuellement orienter a posteriori la revue de littérature pour abonder dans le sens de l'hypothèse, faussant ainsi la crédence a priori de l'hypothèse, * p-hacking : * arrêter la collecte des données dès qu'on peut conclure, * poursuivre la collecte au-delà de ce qui était prévu car on ne peut pas encore conclure, * réaliser de multiples tests non prévus (en ajoutant des facteurs de confusion, ou sur une sous-partie des effectifs…), * ne pas partager à ses collègues les données brutes ou les codes d'analyse statistique, * transmettre voir enseigner ces mauvaises pratiques (typiquement en tant qu'enseignant⋅e de statistiques), * fraude : création de fausses données, réutilisation d'images provenant d'autres expériences (duplication…), plagiat… La __science ouverte__ (ou __open science__) est un mouvement politique et scientifique visant à transformer les pratiques scientifiques pour qu'elles soient transparentes et accessibles : * pour le public et les autres organismes de recherche : * __open methods__ : partage des méthodes, ce qui recouvre : * __open materials__ : partage du matériel de recherche (par exemple le contenu des questionnaires utilisés, les références des lignées cellulaires, des agents chimiques, des machines, des kits de manipulation…), * __open protocol__ : partage des protocoles détaillés (par exemple le paramétrage précis – parfois non standard – d'une machine), * partage du __flux de travaux__ (ou __workflow__, c'est-à-dire les manipulations de données et de fichiers, ainsi que les outils utilisés à cette fin et la façon dont tout ça s'agence) et en particulier du code utilisé à cet effet (__open code__), notamment concernant le traitement statistique, conformément aux bonnes pratiques professionnelles de programmation, notamment en adressant les enjeux de reproductibilité de l'environnement logiciel (savoir quelles sont les versions de logiciels utilisées et avoir la possibilité d'automatiser la répétabilité de l'environnement logiciel, de sorte à pouvoir exécuter le code à nouveau avec le même comportement) ; plutôt que par exemple énoncer simplement que pour l'analyse statistique on a fait une ANOVA et que les images sont analysées avec ImageJ, * __open study plan__ : partage du plan d'étude (ou design d'étude), c'est-à-dire le recrutement des sujets, les critères d'exclusion ou d'inclusion des sujets – pour une expérience – ou des articles – pour une revue systématique de la littérature –, la randomisation des groupes, les contrôles, le condition de simple/double-aveugle etc. * en recourant à des formes de pluridisciplinarité, * en recourant à des formes de science participative, * en participant à des expositions (musée…), de la médiation, de la vulgarisation et d'autre formes de communication au sujet des sciences (présence médiatique et politique, dialogue avec les institutions…) ainsi qu'en favorisant une approche scientifique des débats de société et la discussion politique des orientations de recherche, * __open data__ : partage des données brutes (sans aucun tri, ni transformation) et cahiers de laboratoire de façon (FAIR : findable, accessible, interoperable, reusable) : * trouvable : pouvoir savoir qu'elle existent et où elles se trouvent, * accessible : une fois qu'on les a trouvées, pouvoir y accéder avec d'éventuelles restrictions de droit d'accès proportionnées à la situation (données sensibles, __embargo__ sur un serveur inaccessible le temps que les auteurs les utilisent), * interopérable : pouvoir les utiliser conjointement avec d'autres données du même type, ce qui suppose de normaliser la collecte et le stockage des données, * réutilisable : en plus de l'interopérabilité, avoir le droit de les utiliser… * au niveau des publications : * revue par les pairs (autant que possible) en double-aveugle, avec ensuite publication des rapports des relecteur⋅ice⋅s et des échanges entre auteur⋅ice⋅s, relecteur⋅ice⋅s et rédacteur⋅ice⋅s (de sorte entre autre que cette transparence responsabilise les acteurs et notamment les choix de relecteur⋅ice⋅s par les rédacteur⋅ice⋅s : relecteur⋅ice⋅s compétent⋅e⋅s, pas nécessairement proches de læ rédacteur⋅ice…), * __open access__ : partage des produits de la recherche en accès libre (articles de recherche, modèles d'IA, logiciels…), * développer la revue par les pairs post-publication (seule proposition ici agissant sur les problèmes de citation) et normaliser la rétractation d'article, * ces partages devant être réalisés au fur et à mesure et non à la fin de la recherche, potentiellement dans des systèmes modulaires de revue par les pairs : * les hypothèses et réflexions théoriques en amont, * les méthodes avant le lancement de l'étude, typiquement en les formalisant dans un document – appelé __pré-enregistrement__ – faisant foi en matière de traçabilité (comme un cahier de laboratoire), voire dans un __rapport enregistré__ (ou __register report__, c'est-à-dire un pré-enregistrement soumis à un journal scientifique pour revue par les pairs et validation), qui permet de clairement identifier les résultats confirmatoires, ainsi que d'éviter les incitatifs conduisant au biais de publication en faveur des résultats positifs, * les données avant leur traitement, * les pré-print avant publication, * au sein du laboratoire et avec les autres parties prenantes du projet de recherche : * partager – et discuter – les orientations de recherche, hypothèses, méthodes, données, résultats et communications avec : * les sujet⋅te⋅s d'expérience, expert⋅e⋅s et autres fournisseur⋅se⋅s de savoirs locaux et indigènes : pour respecter leur engagement dans l'étude, ce en lien avec des considérations éthiques, * les collègues (notamment partager les données brutes) : pour que tous les auteur⋅ice⋅s puissent endosser la responsabilité de ce qui est publié, * être précis sur les attributions concernant le travail réalisé par chacun⋅e (chercheur⋅se avec un poste permanent ou non, assistant de recherche…), * en travaillant à l'inclusivité des catégories de la population sous-représentées dans la pratique scientifique, * en matière de gouvernance (recrutement, attribution de financement, politique en matière de fraude…). Ces réformes peuvent notamment (mais pas uniquement, les aspects d'inclusivité pouvant primer) viser à : * faciliter la critique et donc améliorer la qualité des travaux scientifiques, * améliorer la reproductibilité, * faciliter la réutilisation, * améliorer l'__efficience__ (capacité à produire un certain niveau de qualité avec moins de ressources). Ces réformes nécessitent la formation de certains acteurs à la documentation, au management de données, au génie logiciel et aux statistiques (ou la création de postes avec ces qualifications) ainsi que de s'assurer que la revue par les pairs porte également sur ces aspects les plus techniques d'administration de la preuve (notamment les statistiques). En clair, elles requirent d'intégrer des documentalistes, des gestionnaires de données, des programmeur⋅se⋅s et des statisticien⋅ne⋅s aux équipes de recherche et aux équipes des journaux scientifiques ; ainsi que de repenser la formation des (futur⋅e⋅s) chercheur⋅se⋅s à ces sujets. La pratique scientifique est en elle-même un (ensemble de) phénomène(s), faisant l'objet d'études systématiques par des disciplines scientifiques : histoire des sciences, sociologie des sciences etc. Parmi elles, une discipline naissante, la __métascience__, se centre sur l'étude – notamment quantitative – de l'efficacité (qualité et efficience) des pratiques scientifiques : * recrutement, * attribution de financement, * étude statistique de la pratique des statistiques, * revue par les pairs (par exemple, documentation du poids plus important accordé par les rédacteur⋅ice⋅s aux arguments des relecteur⋅ice⋅s qu'à ceux des auteur⋅ice⋅s), * formation initiale et continue des acteurs de la recherche, * fraude et mécanismes de contrôle des fraudes, * etc. Son rôle n'est pas que d'évaluer les pratiques scientifiques mais aussi de proposer et mettre au point de nouvelles pratiques. Le positionnement courant actuellement en métascience est l'approche de science ouverte, ce qui guide notamment la vision commune au sein de cette discipline de ce qui est souhaitable ou non comme fonctionnement de la validation scientifique des résultats. Par exemple, pour évaluer les apports potentiels du développement des principes de science ouverte, la métascience s’attelle à documenter la différence de taille d'effet d'un traitement entre ce qu'on peut estimer à partir des travaux de science ouverte versus à partir de l'ensemble de la littérature scientifique (à titre d'illustration, une taille d'effet 6 fois plus faible dans le cas des antidépresseurs). La métascience est notamment utilisée par des organismes de gouvernance et de financement de la recherche (notamment l'Union Européenne dans son rôle de financement de la recherche, qui d'ailleurs cherche aussi à développer la science ouverte à travers sa politique de science ouverte) à des fin d'__investigation scientifique__ (évaluation des recherches par les organes de gouvernance et de financement et identification des opportunités d'amélioration). En ce sens, la métascience joue le rôle de science régulatoire de la recherche scientifique. Culturellement, les propositions de la science ouverte sont à rapprocher de l'informatique et notamment du logiciel libre.'' bonus : [[https://www.youtube.com/watch?v=FbdyHLo8Iuo|approche métascientifique de la revue par les pairs]] ~-[ métascience 🪆 2 h 06 + 1 h 57 = 4 h 03 ]-~ ----- Après avoir terminé le [[#Chemin_BC_:_m.2BAOk-diatisation|chemin BC]], la suite est au [[#Chemin_ABC_:_informer.2C_s.27informer.2C_.2BAOo-tre_expos.2BAOk_.2BAOA_l.27information|chemin ABC]]. === Chemin BC : médiatisation === ----- [[https://www.youtube.com/watch?v=eVtCO84MDj8|efficacité de la vulgarisation : insuffisance de la vulgarisation des résultats seuls et nécessité de souligner l'écart avec l'intuition]]<
> (en anglais) ''Enseigner, ce n'est pas que combler un vide en apportant de l'information. Il s'agit aussi de défaire les préconceptions. La __cognition__ désigne l'ensemble des processus d'un organisme qui relèvent du traitement d'information (mémoire, perception, raisonnement, apprentissage…). Un __biais cognitif__ est une tendance de la cognition à : * aboutir à une conclusion incorrecte, * incorrecte au sens de la fonction de connaissance, * du fait même de la façon dont la cognition fonctionne dans l'organisme en question. Remarques : * certains biais cognitifs sont néanmoins tout à fait adaptés à d'autres fonctions, par exemple des fonctions sociales lorsqu'il s'agit de raisonner en argumentant avec d'autres personnes… mais la théorie argumentative du raisonnement est une autre histoire, * en particulier, un biais cognitif peut provenir d'une heuristique tout à fait adaptée à la __rationalité limitée__ (manque d'information ou de temps de réflexion et utilisation d'heuristiques), * en microéconomie, on définit la notion de biais cognitif en définissant plutôt "incorrect" par rapport à la maximisation de l'utilité. Si on suppose que c'est effectivement ce que cherche à faire l'agent, on peut voir cela comme une approximation de la fonction de connaissance, * inutile de rappeler que tout biais dans l'acquisition de connaissance n'est pas nécessairement un biais cognitif… mais dans un souci didactique rappelons-le tout de même ! Les __biais de confirmation__ sont des biais cognitifs favorisant ce que l'on pense déjà. Ils concernent diverses fonctions comme l'attention ou la mémoire. Ils sont orientés vers l'avenir : interpréter les nouvelles information comme conformes à ce qu'on pense déjà. Les __biais rétrospectifs__ sont eux orientés vers le passé : penser que c'était évident, qu'on y avait pensé, oublier qu'on avait une autre hypothèse etc. Ainsi : * processus rhétoriques (ici de la didactique) – [[#Chemin_B_:_rh.2BAOk-torique|chemin B]] * processus de diffusion de l'information (ici cognitifs) – [[#Chemin_C_:_de_la_diffusion_de_l.27information_.2BAOA_sa_v.2BAOk-rification|chemin C]] * préconceptions issues de processus historiques, sociaux et cognitifs (ici les préconceptions des enseigné⋅e⋅s concernant des sujets de culture scientifique) se mêlent et forment ensemble des __phénomènes médiatiques__ plus riches.'' __Note sur le vocabulaire :__ "phénomène médiatique" tel que défini ici n'est pas du vocabulaire classique, c'est juste une proposition pour éclaircir le propos. ~-[ sciences de l'éducation 🧑‍🏫 8 min ]-~ ----- [[https://www.youtube.com/watch?v=qDheQ9f2BIM&list=PLhjgj9__QBneuYvD149r1zvrWztHZAs5R|désinformation]] ''Le caractère faux ou trompeur d'informations provient de : * processus inintentionnels (__mésinformation__) comme on en a évoqués au début du [[#Chemin_C_:_de_la_diffusion_de_l.27information_.2BAOA_sa_v.2BAOk-rification|chemin C]], * processus intentionnels (__désinformation__). La désinformation recouvre : * la sélection d'information pour correspondre à une ligne éditoriale, * le __bullshit__ : information publiée sans souci de vérité (buzz ou publicité par exemple), * les __fake news__ : information délibérément fausse, * la __diversion stratégique__ : mise en avant voire production d'informations (potentiellement vraies) pour réduire la visibilité (__mute news__) ou l'impact (construction du doute) d'une information. Cette classification rencontre néanmoins des limites, car les dynamiques médiatiques mêlent profondément désinformation et mésinformation comme on va le voir dans la suite du [[#Chemin_BC_:_m.2BAOk-diatisation|chemin BC]].'' ~-[ éducation aux médias et à l'information 📰 8 min ]-~ ----- [[https://www.youtube.com/watch?v=LudAXRLy3uE|sondage et journalisme politique]] ''Dans le champ politique on tire la légitimité de sa parole notamment des résultats aux élections. Mais le champ journalistique dispose désormais d'un outil pour prétendre à une légitimité du même ordre. Après micro-trottoir, parlons sondage d'opinion.'' ~-[ sociologie 🏙️ 14 min ]-~ ----- [[https://www.youtube.com/watch?v=ajojz0weOg0|opinion publique]] ''Il faut penser le caractère trompeur des propos bien au-delà des questions : * Est-ce que cette information est vraie ? * Est-ce que cette information est pertinente ? * Est-ce que dans l'ensemble les informations vraies pertinentes sur ce sujet sont traitées proportionnellement à leur importance dans ce média / ce collectif / … ? Il faut aussi prendre en compte les catégories types ("les Français nés à l'étranger", "l'érosion du littoral", "les mâles sigma"….) et les énoncés types ("les Français nés à l'étranger sont de vrais Français", "les tempêtes érodent le littoral", "les mâles sigma sont les meilleurs"…) auxquelles se réfèrent les propos, que ce soit pour les valider, les dénoncer ou critiquer leur utilisation même. Notamment, certaines catégories et certains énoncés (pour ne pas avoir à répéter catégorie ou énoncé à chaque fois, je propose d'appeler ça des __représentations__) ne sont juste pas pertinentes pour penser certains sujets (par exemple "les mâles sigma"). J'insiste sur le fait qu'on peut avoir en tête certaines représentations sans pour autant penser qu'elles sont pertinentes pour penser. Il suffit de penser que d'autres personnes les ont en tête. Concernant le caractère trompeur des propos, se posent alors les questions suivantes : .(1) formulation des propos : Est-ce que c'est trompeur que ce soit ces représentations qui soient utilisées (et donc transmises) pour formuler les informations vraies ? .(2) formulation des propos : Est-ce que les représentations qu'il est souhaitable d'utiliser et de transmettre pour informer sur le sujet le sont à due proportion de leur importance pour penser le sujet ? .(3) formulation des propos et situation de læ récepteur⋅rice : Est-ce que cette formulation, qui n'est pas en elle-même porteuse d'une représentation trompeuse pour penser le sujet, ne risque pas néanmoins de faire écho à des représentations trompeuses chez læ récepteur⋅rice et de les conforter ? (Vous vous souvenez qu'on a parlé de préconceptions dans l'épisode 1 du [[#Chemin_BC_:_m.2BAOk-diatisation|chemin BC]] ?) .(4) situation de læ récepteur⋅rice : Est-ce que cette représentation, qu'il est souhaitable de transmettre de façon générale parce qu'elle permet de bien penser le sujet, va effectivement arriver dans un contexte permettant de bien penser le sujet avec si elle est transmise maintenant ? Par exemple concernant (1), s'il est dit "A est cancérigène", l'information peut être vraie, pertinente, tout ce qu'on veut. Mais est-ce que encore parler de cancérogénicité sans parler de taille d'effet est vraiment une bonne idée ? Penser la cancérogénicité sans la notion de taille d'effet, c'est mal penser les choses. Par exemple concernant (3), s'il est dit "A conduit à la libération de dopamine dans le cerveau et ça procure du plaisir", la formulation ne porte pas en elle-même l'idée que le plaisir n'est qu'une histoire de molécules relâchées dans l'ensemble du cerveau. La formulation est même tout à fait compatible avec le fait que la dopamine est un neurotransmetteur utilisé par le circuit de la récompense, qu'il ne s'agit que d'un moyen pour transmettre l'information dans cette partie du cerveau, que le circuit de la récompense aurait aussi bien pu utiliser d'autres neurotransmetteurs et que c'est bien davantage la connectivité de cette partie du cerveau qui produit la fonction. Mais la formulation est aussi compatible avec l'idée fausse que la dopamine serait "la molécule du plaisir" du fait même de sa nature chimique. La répétition de formulations compatibles avec des représentations trompeuses (ici la notion de "molécule d'une émotion") participe à leur maintien. Par exemple concernant (4), on ne peut pas attendre qu'une information sur une recherche médicale en test clinique de phase 1 visant à traiter une pathologie grave soit reçue avec la même distance par une personne selon qu'elle vient d'apprendre être concernée par la pathologie (elle-même ou son entourage). Ces généralités terminées, passons au sujet de l'épisode. L'opinion publique est collectée selon les sujets en vigueur, les questions en vigueur, certains discours en vigueur… bref, selon les représentations en vigueur. La collecte de l'opinion publique peut donc être trompeuse car poser les questions en des termes trompeurs. La restitution (ou prétendue restitution) de l'opinion publique porte alors un enjeu de pouvoir : celui de poser le débat en certains termes. Bref plus largement, celui de promouvoir certaines représentations.'' ~-[ sociologie 🏙️ 17 min ]-~ ----- [[https://www.youtube.com/watch?v=E4kpR8NLFXQ|effet de cadrage]] ''Choix des sujets, des invité⋅e⋅s, des questions posées, des images et discours diffusés, des contextes pour les micro-trottoirs… tout au long de la boucle médiatique de diffusion de l'information, chaque étape résulte d'une analyse de la situation et à la fois influence en retour la situation et son analyse. Vous noterez la similarité avec l'épisode 1 du [[#Chemin_C_:_de_la_diffusion_de_l.27information_.2BAOA_sa_v.2BAOk-rification|chemin C]]. Incroyable… tout se déroule comme si cette promenade était organisée !'' ~-[ éducation aux médias et à l'information 📰 25 min ]-~ ----- [[https://www.youtube.com/watch?v=8WiiqssAME4&list=PLTVDuoFsInfIe-4OoY01t2jltcA54iG-r|heuristique de disponibilité, exemple du syndrome du grand méchant monde]] ''L'estimation intuitive de la fréquence d'un événement se base sur les informations disponibles en mémoire et non sur la recherche de nouvelles informations. On parle d'__heuristique de disponibilité__ pour désigner ce mécanisme. Les jugements obtenus de cette manière dépendent donc essentiellement des informations et évènements passés dont on se souvient, notamment ceux étiquetés comme réels (presse, journal télévisé, témoignage, expérience personnelle…) ou réalistes (rumeur, mythe, élément non fantastique d'une fiction…). La construction des programmes télévisés (notamment les journaux télévisés) : * vise à faciliter le traitement des publicités qui viendront ensuite (mémorisation, attachement à la marque…) * en captant l'attention sur des éléments évoqués ensuite dans les publicités (__amorçage cognitif__) * en particulier en suscitant des émotions (à valence négative notamment, car cela renforce encore la mémorisation et participe à certains amorçages cognitifs). Capter l'attention (typiquement en suscitant des émotions) sert aussi l'audimat, ce qui favorise la vente d'espaces publicitaires. Cette construction des programmes télévisés : * biaise la représentativité des informations et évènements qu'ils présentent, * favorise au passage leur mémorisation, * et ainsi biaise les jugements formés par les téléspectateur⋅rice⋅s par heuristique de disponibilité.'' ~-[ psychologie sociale 👥 43 min ]-~ ----- [[https://www.youtube.com/watch?v=DmO_yisKBRo|réseau social]] ''S'exposer à de l'information sur un réseau social suppose à minima de connaître certains phénomènes façonnant l'information qui y circule : biais cognitifs, dynamiques collectives, gestion algorithmique de la visibilité et désinformation se mêlent pour semer le chemin d'embûches…'' ~-[ éducation aux médias et à l'information 📰 ?? min ]-~ ----- Après avoir terminé le [[#Chemin_AC_:_la_scientificit.2BAOk_face_.2BAOA_la_pratique_de_la_publication|chemin AC]], la suite est au [[#Chemin_ABC_:_informer.2C_s.27informer.2C_.2BAOo-tre_expos.2BAOk_.2BAOA_l.27information|chemin ABC]]. === Chemin ABC : informer, s'informer, être exposé à l'information === ----- [[https://youtu.be/ciRJEqgB4Hs?t=90|sociologie de l'ignorance]] ''Il n'y a pas que des mécanismes de diffusion de l'information (avec son lot de distorsion). Il y a aussi des mécanismes de non diffusion de l'information. Et ils ne se limitent pas à des questions de réception et de (non) transmission d'information par des individus (ce qui relève de la psychologie sociale). Il y a aussi des questions de statut social des différents acteurs, de cloisonnement des groupes sociaux qui fait que si l'information s'arrête en chemin elle n'arrivera pas au bout du chemin, d'organisation qui produit certains chemins pour certains types d'information… Bref, il y a des mécanismes proprement sociologiques. Quand les informations en question sont des connaissances, on peut parler d'une __production sociale de l'ignorance__. Et il y a justement une __sociologie de l'ignorance__ qui étudie cela.'' ~-[ sociologie 🏙️ 28 min ]-~ ----- [[https://www.youtube.com/watch?v=8c90aveuWvo&list=PLOAqW4l-8WBiolZtT_RzposcYW5If8Mpp|régime épistémique et argumentation en conflit éditorial sur Wikipédia]] ''Étant acté que s'informer n'est pas produire soi-même de la connaissance scientifique, comment obtenir de la connaissance en s'informant ? (car ça n'a rien d'automatique !) Et en particulier, quelle est la bonne notion de connaissance à considérer, dans ce contexte où l'on n'est pas expert⋅e du sujet et encore moins producteur⋅rice de connaissance ? Philosophiquement, c'est le sujet de l'__épistémologie sociale__ : qu'est-ce que l'expertise ? comment la reconnaître ? etc. L'édition de Wikipédia est une pratique pleinement confrontée à ces enjeux. Un __régime épistémique__ est une conception de ce qu'est la connaissance, en lien avec des valeurs. Un régime épistémique statue notamment sur ce qui fait : * la __fiabilité__ : quels sont les critères corrects pour reconnaître – ou plus précisément parfois, pour argumenter… teaser ! – qu'une information est une connaissance ? * la __pertinence__ : quels sont les critères corrects pour reconnaître que telle ou telle connaissance permet de s'informer sur tel ou tel sujet ? Sur Wikipédia, lorsqu'il s'agit d'argumenter dans le contexte d'un conflit éditorial, les régimes épistémiques et valeurs correspondantes mobilisés sont principalement : * régime encyclopédiste et légitimité, * régime wiki et collectivité, * régime scientifique et précision, * régime scientiste et véracité, * régime critique et indépendance, * régime doxique et popularité. Concernant leurs conceptions de la pertinence, ces régimes épistémiques se distinguent notamment par la façon dont ils donnent de l'importance à et hiérarchisent (ou non) les différents points de vue et les différentes sources.'' bonus : [[https://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Neutralit%C3%A9_de_point_de_vue|neutralité de point de vue]] ~-[ sociologie 🏙️ 13 min ]-~ ----- [[https://www.youtube.com/watch?v=Jb6S7Db0y5w&list=PLceYkF8JBqYR0POTt4kKMSD6Tqtf68J5J|épistémologie sociale]] ''Une __connaissance__ est une croyance : * dont on a conscience des raisons pour lesquelles on la croit, * dont ces raisons sont correctes en un certain sens. Le type de connaissance étudié par l'épistémologie sociale (que j'appellerai connaissance sociale) est un cas particulier de cette notion générale de connaissance. On l'obtient en donnant une définition particulière à "correct". Une __connaissance sociale__ est une croyance dont on a de bonnes raisons de penser qu'elle a été validée par des procédures socialement reconnues comme étant à même d'élever la croyance au statut de connaissance (ce que j'appellerai __procédure de validation experte__). Pourquoi experte ? Parce qu'il y a d'autres procédures de validation de l'information (comme le journalisme scientifique, l'écriture de rapport par le GIEC ou une agence européenne etc.) mais elles n'ont pas le même statut d'élévation d'une croyance en connaissance, il s'agit juste de vérifier que des procédures de validation expertes ont été réalisées (ainsi que de produire une synthèse non trompeuse, mais on a déjà parlé du caractère trompeur d'une information au-delà de sa fiabilité et de sa pertinence dans le [[#Chemin_BC_:_m.2BAOk-diatisation|chemin BC]]). Noter que la connaissance sociale ne suppose de maîtriser : * ni les tenants et aboutissants de la pertinence des procédures de validation expertes. Par exemple, si on a un certain degré de confiance en la pertinence des tests statistiques, sans pour autant maîtriser le pourquoi de cette pertinence, vérifier qu'ils ont bien été réalisés justifie quand même qu'on augmente notre degré de confiance en la conclusion de l'étude. C'est-à-dire que cela contribue à notre connaissance sociale. * ni même ce que sont les procédures de validation expertes. Par exemple, si on a une certaine confiance dans le fait que les journalistes scientifiques s'assurent que les choses ont bien été faites dans les règles de l'art, sans pour autant avoir conscience que les règles de l'art comportent la revue par les pairs, lire un article sur une étude scientifique contribue quand même à notre connaissance sociale. S'imaginer qu'il y a des procédures de validation expertes, c'est concevoir une source à la connaissance sociale. L'acquisition de connaissance sociale consiste alors à se convaincre qu'il doit bien y avoir une source valide à telle ou telle croyance. Ces raisons qu'on a de penser que la connaissance sociale a été validée par des procédures expertes peuvent être : * elles-mêmes sociales : "Mes parents me l'ont dit.", "Je l'ai vu dans plusieurs journaux en lesquels j'ai confiance.", "J'ai lu la publication scientifique sur le sujet."… * d'avoir assisté à des procédures de validation, expertes ou non ("J'ai assisté moi-même à la revue par les pairs de cette étude et c'est la revue par les pairs qui fait le caractère scientifique.", "J'ai assisté moi-même à l'enquête journalistique à propos de cette étude, le journal a bien fait son travail avant d'en parler.", "J'ai vu les scientifiques collecter et analyser leurs données, iels respectaient le protocole et ont bien mené les tests statistiques."…), ce qui ne suppose toujours pas de maîtriser personnellement, ni le sujet (l'objet de l'étude dans l'exemple), ni la pertinence des procédures de validation (revue par les pairs, enquête journalistique, protocole scientifique, statistiques…). Appelons le premier type de raisons des __arguments sociaux__ et le second des __argument procéduraux__. Les procédures socialement reconnues sont dépendantes du contexte social et historique. On parle d'__épistémè__ pour désigner les conditions de possibilité de la connaissance dans un contexte social et historique donnée, c'est-à-dire en particulier (et c'est ce sur quoi on va continuer de se concentrer dans la suite) les procédures de validation que ce contexte social consacre comme étant expertes, c'est-à-dire légitimes pour élever des croyances au statut de connaissance. La capacité à faire valoir certains propos comme étant des connaissances (__autorité épistémique__) provient alors de la confiance que les autres ont : * en notre honnêteté et en notre travail cognitif d'acquisition de connaissance sociale : parent expliquant à son enfant, journalisme scientifique… * en notre maîtrise des procédures de validation expertes : journal scientifique, académie, chercheur⋅se… Noter que dans le cas de læ chercheur⋅se, ce ne sont pas ses arguments experts qui convainquent au sens de la connaissance sociale, c'est sa maîtrise supposée des procédures de validation expertes. En bref, les explications scientifiques sont souvent moins convaincantes qu'une publication scientifique dans un journal prestigieux ou un avis d'académie (alors même que c'est plus proche de la source). D'ailleurs, vous vous souvenez quand on a parlé du fait que le modèle économique des journaux scientifiques soit fondé sur la réputation (dans le [[#Chemin_AC_:_la_scientificit.2BAOk_face_.2BAOA_la_pratique_de_la_publication|chemin AC]]), eh bien c'est parce que c'est fondamentalement lié à la notion de connaissance (sociale). Les épistémès varient selon les époques et les contextes sociaux (religion, science…). Une __épistémè scientifique__ est une épistémè dont les procédures de validation reconnues comme expertes sont les procédures scientifiques. Mais ce que la notion d'épistémè (d'épistémè scientifique en particulier) permet aussi de souligner, c'est que ce qui compte pour la connaissance sociale d'un individu ce n'est pas tant ce qui est scientifique (selon une conception externe de la science : normée et indépendante de l'individu et de sa position), c'est ce qui a l'air scientifique et plus fondamentalement quelles sont les conceptions de la science qui sont disponibles dans l'environnement social de l'individu. La façon d'acquérir de la connaissance sociale dépend assez peu de l'épistémè : comme on l'a dit, il s'agit de s'assurer qu'on peut avoir raisonnablement confiance dans le fait que la connaissance a été dûment validée. C'est l'acquisition de ce que j'appellerai une __connaissance experte__ (connaissance qui suppose une maîtrise de la pertinence des procédures de validation expertes, appelons ça une maîtrise des __arguments experts__) qui diffère vraiment d'une épistémè à l'autre : une connaissance scientifique est bien différente d'une connaissance théologique, car les arguments experts sont bien différents. Les arguments scientifiques (statistiques, calcul, expérimentation, observation…) diffèrent des arguments théologiques (exégèse de texte sacré, parole sacrée d'autorité religieuse, révélation…). Noter qu'une connaissance experte n'est pas entièrement acquise par des arguments experts. Au contraire, elle s'appuie presque toujours sur des connaissances sociales. Elle se caractérise juste par le fait de ne pas être exclusivement une connaissance sociale. En bref, la connaissance se construit dans une épistémè avec des __arguments__ (raisons correctes de croire dont on a conscience) qui sont de trois types : * les arguments sociaux (se convaincre que d'autres savent que la connaissance a été dûment validée, se convaincre qu'il y a une source valide), * les arguments procéduraux (assister à une procédure de validation, experte ou non), qui n'ont de valeur qu'en association avec des arguments d'autres types (pour avoir confiance en la pertinence de la procédure), * les arguments experts dans cette épistémè.'' bonus : [[https://www.youtube.com/watch?v=xqqzMjfFa10&list=PLhjgj9__QBneuYvD149r1zvrWztHZAs5R|intelligence de groupe et reconnaissance d'expertise]] __Note sur le vocabulaire :__ * j'ai introduit pas mal de vocabulaire ici qui n'est en rien du vocabulaire classique, avec des définitions à ma sauce qui ne visent qu'à éclaircir et structurer ce résumé-teaser-commentaire : argument, connaissance sociale, argument social, argument procédural, connaissance experte, argument expert, procédure de validation experte, * le vocabulaire défini ici de façon assez classique se résume à : connaissance, autorité épistémique, épistémè. ~-[ philosophie des sciences 🤔 1 h 12 ]-~ ----- [[https://www.youtube.com/watch?v=hZueeA9b1xY&list=PLTVDuoFsInfL3T_d7UKTCJDp85F6GKSXV|réactance]] ''La __réactance__ est le phénomène psychologique consistant à porter son attention sur et souvent s'opposer à ce qu'on identifie (plus ou moins consciemment) comme une privation de liberté, précisément pour la raison que ça serait une privation de liberté. Elle implique des émotions et des raisonnements. Le décalage entre une restriction effective de liberté et ce qu'on identifie comme une privation de liberté (spontanément ou du fait d'une rhétorique dédiée) peut conduire la réactance à participer à l'acceptation de certaines restrictions de liberté (aussi appelée __soumission librement consentie__). Enfin, la réactance joue notamment un rôle dans la diffusion de l'information : * en participant de certains phénomènes médiatiques (qui peuvent d'ailleurs être volontairement suscités en exploitant la réactance) comme l'effet Streisand, * de par ses interactions avec les questions de modération des espaces de discussion, * en devenant un élément clef de certaines conceptions de ce que serait une bonne façon de s'informer (læ lecteur·rice attentif·ve aura remarqué certains liens avec le régime épistémique critique dont on a parlé dans l'épisode 2 du [[#Chemin_ABC_:_informer.2C_s.27informer.2C_.2BAOo-tre_expos.2BAOk_.2BAOA_l.27information|chemin ABC]]… comme si les grandes problématiques du chemin avaient été posées dans cet épisode). Et sinon, vous avez remarqué comme ça revient, dans cet épisode comme dans le précédent, le lien entre s'informer et être vulnérable ?'' ~-[ psychologie sociale 👥 1 h 06 ]-~ ----- Recherche de document scientifique en tant que non spécialiste : * [[https://youtu.be/q7jnoYTSePA?list=PLAhlPGbd4E4QrBVU5u3CUEvnkbz-5BwAF&t=1057|partie 1 : base de donnée d'articles scientifiques]] * [[https://youtu.be/j7npj54K3rI?list=PLAhlPGbd4E4QrBVU5u3CUEvnkbz-5BwAF&t=844|partie 2 : requête dans une base de donnée]] * [[https://youtu.be/xrqLLE4_FIE?t=702|partie 3 : les références comme indice de fiabilité]] * [[https://youtu.be/QmRJSpizz84?list=PLAhlPGbd4E4QrBVU5u3CUEvnkbz-5BwAF&t=566|partie 4 : marqueurs de transparence, de faillibilité et de neutralité]] ''La littérature scientifique d'un domaine est destinée aux spécialistes du domaine. Pour autant, même en tant que non spécialiste, il peut y avoir un intérêt à rechercher et consulter ce type de sources, pour s'informer soi ou pour informer autrui. Il faut alors connaître et savoir utiliser les bases de données d'articles scientifiques, être familièr⋅e de la structure des articles scientifiques et porter son attention sur certains marqueurs de fiabilité accessibles aux non spécialistes : * les références, * la transparence, * la faillibilité, * la neutralité.'' bonus : [[https://www.youtube.com/watch?v=kHs_WJMZdhQ|lecture d'article scientifique en tant que non spécialiste]] ~-[ éducation aux médias et à l'information 📰 14 min ]-~ ----- [[https://www.youtube.com/watch?v=VKsekCHBuHI|erreur de jugement : interne et externe, biais et bruit]] ''Cette vidéo éclaire les erreurs de jugement à la lumière d'une classification selon leur source (interne, externe) et leur nature (biais et heuristique, bruit). Mais vous remarquerez aussi qu'elle commente les activités du mouvement zététique à la lumière de cette analyse. C'est l'occasion, dans les textes accompagnant cet épisode et le suivant, de présenter ce mouvement. En effet, l'essentiel des contenus de cette promenade s'y rattachent ou y réagissent. La transparence et la réflexivité obligent donc à adresser le sujet. La __zététique__ est un mouvement militant et de vulgarisation qui s'intéresse au rapport de notre société à l'information, et en particulier à la connaissance scientifique. Ses activités se concentrent autour de trois pôles d'intérêt. Premièrement, elle vulgarise ou recommande des contenus de diffusion des savoirs concernant : * la sociologie des sciences : pour comprendre le contexte de production et de validation des discours scientifiques, * la psychologie sociale, la sociologie des médias et l'éducation aux médias et à l'information : pour comprendre les mécanismes de diffusion et de distorsion de l'information et en particulier des discours scientifiques, * l'épistémologie sociale : pour comprendre les enjeux épistémiques de l'exposition à l'information, * les sciences de l'éducation : pour comprendre comment diffuser des connaissances scientifiques et s'informer avec des contenus plus adaptés, * le journalisme, la recherche documentaire et les outils de vérification de l'information : pour s'assurer de l'authenticité des informations rapportées, évaluer leur place dans l'ensemble des informations disponibles sur un sujet, et pour trouver des sources sur un sujet d'intérêt, * la rhétorique : pour identifier et séparer l'argumentaire de la rhétorique dans un discours, * la psychologie : pour faire attention aux arguments dont on a tendance à oublier la nécessité dans un argumentaire ou qu'on a tendance à mal évaluer, * l'épistémologie, les questions de méthodologie scientifique, les statistiques et la logique : pour évaluer les arguments. C'est de ce premier pôle d'activité que relèvent l'essentiel des contenus de cette promenade.'' ~-[ psychologie 🎭 30 min ]-~ ----- [[https://youtu.be/LB2sVSD5LhM?list=PLceYkF8JBqYTKNWGfvWIrhV6s6uyKl9qC&t=122|journalisme scientifique dans la presse généraliste]] ''Deuxièmement, elle produit des contenus sur d'autres thèmes ayant trait à la science et qu'elle estime sujets à de la désinformation ou de la mésinformation. Il peut s'agir : * de débunkage sur des sujets vraiment pas controversés, afin de faire une démonstration pédagogique des outils de vérification de l'information, des outils statistiques etc. : par exemple débunker une théorie du complot sur la rotondité de la Terre, ou débunker la croyance de l'influence de la Lune sur les naissances, * de vulgarisation élémentaire concernant certaines disciplines qu'elle estime plus particulièrement sujettes à la fascination et donc à la mésinformation : astronomie, archéologie, paléontologie… * de fact checking de sujets dont elle estime le cadrage médiatique usuel défaillant : * présentation d'un sujet comme controversé alors qu'il ne l'est pas ou beaucoup moins dans la littérature scientifique (par exemples l'intérêt médical de l'homéopathie, le risque lié aux résidus de produits dans l'eau courante…), * info-divertissement délaissant le recul critique (par exemple la promotion de pratiques et croyances liées à des dérives sectaires comme s'il s'agissait de connaissance, la diffusion de pseudo-médecines…), * etc. * de contenus de protection du public face aux folklores : en plus de l'éducation à l'information, cela va de la lutte contre les dérives sectaires à la protection des consommateurs, en passant par la lutte contre les pseudo-sciences et la critique des prétentions de diverses spiritualités concernant l'histoire, la médecine, les sciences de l'évolution… (Læ lecteur⋅rice attentif⋅ve aura remarqué que les trois premiers points ne sont en fait que des cas particuliers importants du quatrième point.) Troisièmement, elle porte une critique du journalisme axée sur : * la faible place accordée aux sujets scientifiques dans les journaux et la faible place accordée aux journalistes avec une formation de journalisme scientifique dans les rédactions, * la formation insuffisante des journalistes en sciences et en épistémologie sociale, conduisant à un traitement naïf et trompeur des sujets scientifiques lorsqu'ils sont traités : identification défaillante des expertises, mésestimation de l'importance d'une étude individuelle, individualisation de la recherche scientifique, mise au même plan de connaissances scientifiques, d'opinions et de folklores… * le fait que les formats journalistiques majoritaires et les plus socialement valorisés soient inadaptés au développement d'une culture scientifique des lecteur⋅rice⋅s, auditeur⋅rice⋅s, téléspectateur⋅rice⋅s etc. : * L'actualité scientifique est très souvent pointue et la comprendre nécessite un bagage. Restreindre l'information du public à l'actualité condamne à ne pas l'informer sur les sujets scientifiques, ou seulement sous l'angle de l'affect (émerveillement, indignation, "Que penser de… ?" etc.) au lieu de la compréhension. * Les notions et connaissances scientifiques dépendent souvent de notions et de connaissances scientifiques plus élémentaires. Le modèle de presse généraliste échoue à concevoir son lectorat comme étant en progression (le public n'est jamais supposé avoir acquis des connaissances spécifiques par de précédents contenus, chaque contenu a le même public cible, à ce titre le journal généraliste dans son ensemble a un public cible au lieu de construire son public au fil des contenus) et en particulier en progression vers d'autres médias (dans les médias spécialisés, une fois que ce qui est dit dans un média nous semble évident ou trop grossier, c'est-à-dire une fois que ce média nous a construit comme son public, on passe à d'autres médias davantage spécialisés ; l'illusion généraliste, c'est celle de se passer d'information spécialisée car il serait possible d'avoir une culture générale – voire une culture générale suffisante – et qu'acquérir de la culture générale ne nécessiterait jamais de progression, seulement d'accumuler et de faire dialoguer des connaissances non spécialisées). Dans cette optique, la zététique se constitue en acteur de la diffusion des savoirs, visant une moindre distorsion de l'information scientifique, par exemple avec des interviews longues d'universitaires ou de la vulgarisation faite directement par des expert⋅e⋅s. Bien que le format documentaire permette d'éviter l'écueil de la réduction de l'information à l'actualité, la zététique trouve plus naturellement sa place dans la vulgarisation scientifique. Cette dernière est en effet constituée en un réseau de médias spécialisés et la référence à d'autres contenus comme prérequis, la recommandation de contenus et de médias davantage spécialisés, et la réalisation de contenus destinés à se suivre (facilement plus longs qu'une série documentaire) sont des pratiques qui y sont normalisées. En fait, plus largement (c'était juste plus pratique pour moi de le présenter dans cet ordre) qu'une critique du traitement journalistique des sciences et que la mise en pratique de propositions cohérentes avec cette critique, la zététique promeut une société où la science n'est pas considérée comme énonçant des vérités, des opinions ou des histoires mais comme produisant des connaissances (et où on comprend bien ce que ça veut dire, surtout), où le rapport à la science délaisse le mystique ("je ne comprends pas, ce n'est pas pour moi, j'y crois"), où une explication compliquée n'est pas considérée comme ennuyeuse et où temps libre et distraction sont moins systématiquement synonymes de folklore. Bref, un autre rapport de notre société à l'information. (Læ lecteur⋅rice attentif⋅ve aura relevé que, plus largement qu'une critique du traitement journalistique des sciences, le troisième pôle d'activité est politique.) Super, j'espère que vous êtes galvanisé⋅e⋅s ! Cela dit, c'était là une définition normative de la zététique. Une proposition de définition philosophique si vous voulez. (Et pour ma part ce qui m'intéresse c'est surtout l'accès à de multiples disciplines grâce à un premier contact sur les enjeux épistémiques.) Mais on peut en avoir une description sociologique : que fait effectivement le mouvement zététique et qui le compose. Cela met en évidence quelques décalages entre le mouvement zététique et la définition normative que j'ai proposé de la zététique. En effet, le mouvement zététique a aussi ses codes, son public, sa démographie, ses figures, ses associations, ses contenus et activités davantage tournés vers la vie de la communauté et le divertissement, une intégration encore à la traîne des approches sociologiques peut-être du fait d'un ancrage fort dans les approches de psychologie et en particulier de psychologie cognitive, son héritage d'athéisme militant, sa parenté avec les mouvements sceptiques anglo-saxons, son tropisme pour le libre en terme de solution technique et de propriété intellectuelle etc. Historiquement, ce mouvement de vulgarisation est aussi à considérer comme la deuxième vague de la zététique. La première vague zététique est un mouvement universitaire visant l'étude scientifique (notamment expérimentale) des phénomènes présentés comme paranormaux ainsi qu'une documentation systématique de (voire une érudition sur) ce type de folklores. Elle se complète dans le monde de l'enseignement par un volet d'éducation à l'esprit critique, qui a donné naissances à la seconde vague.'' bonus : [[https://www.youtube.com/watch?v=DsgI8fOG-hI|impact médiatique d'une information scientifique, un exemple d'outil]] __Note :__ La définition normative que j'ai proposée de la zététique, c'est bien moi qui la propose. En particulier, la thèse sur le journalisme, je ne l'ai jamais vue énoncée ainsi. J'ai juste cherché à reconstituer une thèse permettant de comprendre les différents contenus produits par le mouvement sur le sujet. ~-[ éducation aux médias et à l'information 📰 2 h 02 ]-~ ----- [[https://youtu.be/jfMCq8bkWgQ?t=457|esprit critique]] ''De façon très générale, la __pensée critique__ désigne toute forme de pensée fondée sur la raison et la __métacognition__ (pensée à propos de ses propres modes de pensée) pour déterminer quoi faire ou quoi croire. Une forme de pensée critique est l'__esprit critique__ qui, pour déterminer quoi faire ou quoi croire, associe : * des compétences pour évaluer, rechercher et produire des discours, * des dispositions à utiliser ces compétences face à de l'information, en discussion, pour s'informer et pour réfléchir, * des connaissances sur le sujet abordé, provenant potentiellement d'une variété de disciplines lorsque cela s'y prête, * une conception __évaluativiste__ des points de vue, selon laquelle la bonne façon de construire des points de vue est par des arguments, et non pas par la subjectivité seule (conception __multipliste__) ni par la reconnaissance d'une vérité objective (conception __absolutiste__). On parle de __croyance épistémique__ pour désigner ces différentes conceptions de la construction des points de vue, de leurs justifications et de l'origine des désaccords. Quelques commentaires sur cette définition. D'une part, l'esprit critique n'est pas une composante naturelle de la cognition. C'est un construit théorique et en particulier il s'apprend : chacun de ces points peut faire l'objet d'apprentissages. D'autre part, il n'y a pas d'esprit critique généraliste : chez une personne, chacun de ces points peut dépendre du contexte (fatigue, interlocuteur⋅rice, type de discussion, état d'esprit…) et du sujet abordé. À ce propos, relever notamment la nécessité de connaissances spécialisées pour faire preuve d'esprit critique sur un sujet précis. Remarque : On a détaillé précédemment dans l'épisode 3 du [[#Chemin_ABC_:_informer.2C_s.27informer.2C_.2BAOo-tre_expos.2BAOk_.2BAOA_l.27information|chemin ABC]] sur l'épistémologie sociale que les connaissances se construisent avec des arguments. L'évaluativisme consiste à étendre cette conception aux __points de vue__, qui intègrent non seulement ce qu'il y a lieu de croire (et parmi cela les connaissances) mais aussi ce qu'il y a lieu de faire. L'évaluativisme ne soutient pas qu'il y aurait un hypothétique point de vue valide dont il s'agirait de se rapprocher (comme la connaissance visant à se rapprocher de la vérité). Pour autant il soutient que les points de vue, et en particulier les questions prescriptives, sont des choses dont on peut débattre et surtout sur lesquelles on peut argumenter de façon précise. Les sciences de l'éducation identifient plusieurs types d'approches de la pensée critique et de l'éducation à la pensée critique, parmi lesquelles : * l'__approche rationaliste de la pensée critique__ se fonde sur le développement de l'esprit critique, notion développée à partir des standards intellectuels des disciplines s'étant intéressées à la pensée critique et à l'éducation à la pensée critique (psychologie, philosophie, pédagogie, sciences de l'information et de la communication, sociologie, sciences de l'éducation…) en lien avec le contexte social dans lequel elles s'y sont intéressées (propagande, compétences scolaires, culture scientifique…), * l'__approche matérialiste de la pensée critique__ se fonde sur le développement d'une __conscience critique__ : une compréhension des rapports de pouvoir et de sa propre place dans la société, permettant ainsi l'émancipation vis-à-vis de systèmes de domination. Sur le plan de l'éducation on parle de __pédagogie critique__ (ou __pédagogie radicale__). Elle prend souvent la forme de l'éducation populaire. Sur le plan philosophique, la pédagogie critique s'inscrit dans la __théorie critique__, une approche de la philosophie sociale qui ne dissocie pas la conceptualisation du monde social d'une part et d'autre part les effets sociaux de cette conceptualisation. Ce que l'approche rationaliste valorise, c'est la raison, et c'est pourquoi elle se concentre sur l'évaluation de la vraisemblance et de la fiabilité des discours. Ce que l'approche matérialiste valorise pour sa part, c'est la justice sociale, et c'est pourquoi elle se concentre sur l'évaluation des enjeux de pouvoirs et des effets des discours (c'est-à-dire un certain aspect de leur potentiel trompeur). Cette distinction fondamentale sur les valeurs rend difficile la conciliation des deux approches, chacune considérant plutôt l'autre comme au mieux un moyen d'arriver à sa propre fin, au pire une conception déviante de la pensée critique et nuisible à sa propre fin.'' bonus : [[https://www.youtube.com/watch?v=9WtEKzqZLOc&list=PLeWLL0KSznGtb1vjnDbmbmc0Hnbwc37aF|conceptions de la pensée critique]] ~-[ sciences de l'éducation 🧑‍🏫 2 h 21 ]-~ ----- [[https://www.youtube.com/watch?v=kF9WEjln1xg|littératie en santé]] ''La __littératie en santé__ est le phénomène par lequel : * les aptitudes individuelles : * capacité de réception des informations de santé (aspect __fonctionnel__ de la littératie en santé) : capacité visuelle, maîtrise de la lecture, maîtrise de la langue en question (y compris pour poser des questions), maîtrise du vocabulaire, capacité de concentration etc. * esprit critique sur les informations de santé, * et le contexte : * moyens de communication et d'information à disposition, * contexte économique : ressources économiques à disposition de l'individu, (priorités de) financement du système de santé etc. * contexte social, * contexte institutionnel : communication sur les informations de santé (capacités de communication des professionnels de santé, nature des messages émis…), système de santé (complexité, accessibilité financière, accessibilité géographique, pratiques des professionnels de santé…), politique publique en matière de santé etc. interagissent en permettant à l'individu (ce sont notamment ces points qui font l'objet de mesures pour évaluer le niveau de littératie en santé d'un individu ou d'une population) : * d'accéder aux information de santé, * de les comprendre, * de les évaluer, * le cas échéant de les appliquer, de façon pertinente pour sa santé, dans les différents domaines sur lesquels portent les __informations de santé__ : * soin, * prévention, * promotion de la santé, * organisation du système de santé. Le concept de littératie en santé est développé notamment pour être utilisé lors de l'élaboration et de la mise en place d'interventions visant à modifier le contexte, par exemple des interventions de communication sur des informations de santé, ou des interventions visant à modifier un contexte social pour permettre de trouver du soutien dans sa communauté au sujet de la santé. La santé est un des secteurs (sinon le secteur) où le concept de littératie est le plus développé et étudié. Concernant le fait d'informer et de s'informer de façon plus générale (pas spécifiquement sur des questions de santé), des concepts de littératie sont développés dans le cadre des interactions avec le système médiatique, avec les outils numériques, avec les données (collecte, sources, analyse…) etc.'' ~-[ santé publique 🚭 2 h 40 ]-~ ----- Fin !