⇤ ← Version 1 à la date du 2022-07-30 06:01:57
Taille: 17723
Commentaire:
|
Taille: 26099
Commentaire:
|
Texte supprimé. | Texte ajouté. |
Ligne 90: | Ligne 90: |
[[https://www.youtube.com/watch?v=x-2uVNze56s&list=PL8kpTYGNfAcbcbHO_jt9NYHP1KefT4Nfp|probabilité et bayésianisme]] ''Il y a plusieurs types de probabilités : * __probabilité fréquentiste__ : une probabilité est une fréquence, une proportion d’occurrences, * __probabilité épistémique__ : une probabilité est une confiance qu'on a en une affirmation, le terme technique employé est __crédence__ d'une théorie (comprendre crédibilité). Données et théories se croisent dans les probabilités conditionnelles : * vraisemblance de données : la probabilité fréquentiste d'observer telles données sachant une théorie, * plausibilité d'une théorie : la probabilité épistémique d'une théorie sachant qu'on a observé telles données. Ces deux façons différentes de mêler observations et théories sont à la base de deux paradigmes statistiques : le fréquentisme et le bayésianisme.'' ~-[ statistiques 🎲 22 min ]-~ ----- [[https://www.youtube.com/watch?v=42-IuroPPyI&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|fréquentisme]] ''L'__inférence à la meilleure hypothèse__ (aussi appelée __abduction__) est un enjeu épistémologique majeur. Il s'agit de retenir comme modèle celui qui au vu des données est le meilleur. Dit comme ça, ça a l'air trivial pourtant. A-t-on vraiment avancé dans la formalisation d'une méthode scientifique avec cette présentation ? En fait oui, car formulé ainsi, on voit que pour spécifier une méthode statistique il suffit de spécifier : * une classe de modèles qu'on pourra prendre en compte, * une classe de données qu'on pourra prendre en compte pour discriminer les modèles, * une façon de déterminer le meilleur modèle d'un ensemble de modèles à partir desdites données. Le fréquentisme est le paradigme statistique qui spécifie ces éléments ainsi : * modèles : modèles probabilistes dont les paramètres sont des probabilités fréquentistes, * données : la fréquence observée de chaque issue possible d'un phénomène, avec des hypothèses fortes sur lesdites observations, typiquement qu'elles soient indépendantes et identiquement distribuées, * discrimination : le meilleur modèle est celui dont la vraisemblance vis-à-vis des données est maximale (on parle de __maximum de vraisemblance__). Les outils du fréquentisme sont très puissants mais les hypothèses fortes sur les données suppose des designs d'expérience rigoureux. Aujourd'hui il y a un enjeu à pouvoir extraire des connaissances de façon statistiquement rigoureuse : * de données moins contrôlées, voire carrément influencées par des agents agissant de façon stratégique vis-à-vis du traitement qu'on souhaite réaliser, * de sorte à prendre en compte des modèles dont les paramètres ne sont pas que des probabilités fréquentistes, afin de pouvoir modéliser d'autres phénomènes tout en bénéficiant de la rigueur des statistiques. Le bayésianisme propose pour cela d'adopter un autre triptyque modèles-données-discrimination. Rendez-vous un peu plus loin dans le chemin A !'' ~-[ statistiques 🎲 17 min ]-~ ----- [[https://www.youtube.com/watch?v=AoFa59UUf-U|test statistique]] ''Ouvrons pour quelques épisodes la boîte à outils de læ statisticien⋅ne fréquentiste. Une façon cheap et au rabais d'approcher l'abduction par maximum de vraisemblance, c'est de pratiquer le rejet d'une hypothèse peu vraisemblable en la soumettant à un test statistique qu'elle échoue à passer. Le rôle du statisticien est alors de concevoir des ensembles composés de : * un design d'expérience, * la distribution des issues de l'expérience si c'est l'hypothèse nulle qui est vraie, * un test statistique pour cette distribution, c'est-à-dite un test tel que, si c'est l'hypothèse nulle qui est vraie, alors les données issues de l'expérience échouent à ce test avec probabilité (fréquentiste) au plus s (où s est un seuil fixé à l'avance, typiquement 5 % ou 1 %). Il s'agit d'une garantie qu'une proportion au plus s des hypothèses nulles vraies testées seront rejetées (rejetées à tors, donc). Techniquement, le risque (fréquentiste) de rejet d'une hypothèse nulle vraie est nommé __risque alpha__. Ainsi, s est un majorant du risque alpha. La vidéo prend l'exemple de la distribution hypergéométrique.'' ~-[ statistiques 🎲 10 min ]-~ ----- [[https://www.youtube.com/watch?v=jy9b1HSqtSk&list=PLtzmb84AoqRQkc4f38dueiPf8YUegsg8n|p-valeur]] ''Le test d'hypothèse de l'épisode précédent est le plus souvent de la forme suivante : * un design d'expérience, * la distribution des issues de l'expérience si c'est l'hypothèse nulle qui est vraie, * une formule pour calculer la p-valeur de l'issue de l'expérience, c'est-à-dire la vraisemblance (vis-à-vis de cette distribution) d'obtenir une issue au moins aussi défavorables à l'hypothèse nulle que l'issue effective de l'expérience, * le test statistique par p-valeur associé à l'expérience consiste alors à voir si p est inférieur à un seuil s fixé à l'avance (typiquement 5 % ou 1 %). Si c'est le cas, le test échoue : l'hypothèse nulle est peu vraisemblable. Propriété fondamentale des tests statistiques par p-valeur : Si c'est l'hypothèse nulle qui est vraie, alors les données issues de l'expérience échouent au test avec probabilité au plus s. Dit autrement, le s "p-valeur seuil" ce cet épisode est le même que le s "majorant du risque alpha" de l'épisode précédent. Les principaux points d'attention concernant les tests statistiques par p-valeur sont : * leur interprétation, qui est trop souvent erronée, bien différente de la propriété ci-dessus (y compris chez les scientifiques amenés à les utiliser : il y a un enjeu de formation aux statistiques), * ne pas oublier les autres biais pour autant : ce n'est pas parce que l'étape de traitement statistique bénéficie d'une garantie – qui de plus ne porte que sur le risque de rejeter une hypothèse vraie (risque alpha) et pas du tout sur celui de ne pas rejeter une hypothèse fausse (__risque bêta__) – que le processus du labo à la publication (voire à la lecture) bénéficie d'une garantie du même ordre.'' ~-[ statistiques 🎲 14 min ]-~ ----- |
|
Ligne 193: | Ligne 267: |
chambre d'échos, effet de groupe et identité sociale https://www.youtube.com/watch?v=PqbYXvkmc98&list=PLzU8PC8KVrx9tuxK6LM6h_UjQ8IpAkYJG |
[[https://www.youtube.com/watch?v=PqbYXvkmc98&list=PLzU8PC8KVrx9tuxK6LM6h_UjQ8IpAkYJG|chambre d'échos, effet de groupe et identité sociale]] |
Ligne 258: | Ligne 331: |
=== Chemin BC === | === Chemin BC : === ----- [[https://www.youtube.com/watch?v=qDheQ9f2BIM&list=PLhjgj9__QBneuYvD149r1zvrWztHZAs5R|désinformation]] ''Le caractère faux ou trompeur d'informations provient de : * processus inintentionnels (__mésinformation__) comme on en a évoqués au début du chemin C, * processus intentionnels (__désinformation__). La désinformation recouvre : * la sélection d'information pour correspondre à une ligne éditoriale, * le bullshit : information publiée sans souci de vérité (buzz ou publicité par exemple), * les fake news : information délibérément fausse. Cette classification rencontre néanmoins des limites, car les dynamiques médiatiques mêlent profondément désinformation et mésinformation comme on va le voir dans la suite du chemin BC.'' ~-[ éducation aux médias et à l'information 📰 8 min ]-~ ----- [[https://www.youtube.com/watch?v=LudAXRLy3uE|sondage et journalisme politique]] ''Dans le champ politique on tire la légitimité de sa parole notamment des résultats aux élections. Mais le champ journalistique dispose désormais d'un outil pour prétendre à une légitimité du même ordre. Après micro-trottoir, parlons sondage d'opinion.'' ~-[ sociologie 🏙️ 14 min ]-~ ----- [[https://www.youtube.com/watch?v=ajojz0weOg0|opinion publique]] `TODO : résumé/teaser/commentaire` ~-[ sociologie 🏙️ 17 min ]-~ ----- [[https://www.youtube.com/watch?v=E4kpR8NLFXQ|effet de cadrage]] ''Choix des sujets, des invité⋅e⋅s, des questions posées, des images et discours diffusés, des contextes pour les micro-trottoirs… tout au long de la boucle médiatique de diffusion de l'information, chaque étape résulte d'une analyse de la situation et à la fois influence en retour la situation et son analyse. Vous noterez la similarité avec l'épisode 1 du chemin C. Incroyable… tout se déroule comme si cette promenade était organisée !'' ~-[ éducation aux médias et à l'information 📰 25 min ]-~ |
S'informer : science, discours, média
Cette promenade se compose de plusieurs chemins, initialement indépendants, mais qui finissent par se rejoindre…
Sommaire
Chemin A : savoir
Étant donné une question, on peut faire plusieurs hypothèses sur sa réponse. L'hypothèse nulle est par définition celle qui est la plus facile à réfuter si elle est fausse. La notion d'hypothèse nulle permet de mieux concevoir ce qu'est apprendre : à moyens mobilisés pour l'investigation égaux, je n'apprends pas grand chose si on a échoué à réfuter une hypothèse très dur à réfuter si elle est fausse (ce n'est pas surprenant, que je penses que l'hypothèse soit vraie ou fausse), j'apprends davantage si on a échoué à réfuter une hypothèse plus facile à réfuter si elle est fausse (c'est assez surprenant si je pense que l'hypothèse est fausse). À la base du paradigme statistique dit fréquentiste, il y a le fait de privilégier le modèle considérant l'hypothèse nulle, et ce jusqu'à preuve du contraire, et en particulier dès le début, avant toute observation. Il ne s'agit pas d'une considération épistémologique (= dire que l'hypothèse nulle serait plus probable, alors même qu'on n'a rien observé) mais d'une considération méthodologique (= dire que ça permet mieux d'apprendre de considérer par défaut l'hypothèse nulle). C'est une version améliorée du principe de parcimonie, car cela permet de traiter d'autres cas que les questions d'existence.
[ philosophie des sciences 🤔 14 min ]
Dans le cadre de modélisations probabilistes, le savoir vient des statistiques. La notion de base est alors celle de facteur de risque, particulièrement utilisée dans le domaine médical.
[ épidémiologie 🏥 14 min ]
Risque relatif, rapport de cotes, nombre de personnes pour traiter… il existe différents indicateurs de taille d'effet pour comparer des facteurs de risque. Et en effet, tous les facteurs de risques ne se valent pas du tout.
[ statistiques 🎲 17 min ]
risque relatif, risque absolu et balance bénéfice-risque
Les tailles d'effet sont exprimées en risque relatif. Mais pour la prise de décision (balance bénéfice-risque) ce sont les risques absolus qui comptent.
[ statistiques 🎲 15 min ]
puissance, étude négative et preuve de l’absence
Lorsqu'une étude ne permet pas de mettre en évidence une taille d'effet non nulle, il se pourrait que ce soit parce que la taille d'effet réelle n'est pas nulle mais quand même trop petite pour que la proba de résultat positif soit importante. Autrement dit, ça peut être parce que la probabilité conditionnelle d'obtenir un résultat positif sachant qu'il y a un phénomène est trop faible. Cette probabilité s'appelle la puissance d'une étude. Elle croît notamment avec la taille de l'échantillon. Les résultat négatifs d'études de forte puissance réduisent la confiance qu'on peut avoir dans l'existence d'une taille d'effet d'une certaine ampleur.
[ statistique 🎲 16 min ]
paradoxe de Simpson et facteur de confusion
Quand on demande à leurs amis de comparer des pâtisseries qu'ils cuisinent, il ressort qu'en moyenne Alex fait de meilleurs pâtisseries que Charlie. Mais en moyenne, les forêts noires de Charlie sont meilleures que les celles d'Alex, et ses choux à la crème aussi sont meilleurs que ceux d'Alex. Comment est-ce possible, alors que Charlie et Alex ne savent cuisiner que des forêts noires et des choux à la crème ? Et surtout, qui cuisine le mieux ? La voilà la limite fondamentale des études observationnelles dans la recherche de la causalité : les facteurs de confusion potentiels par lesquels on n'aurait pas contrôlé. Réponse : Charlie cuisine bien plus de choux à la crème, qui sont intrinsèquement souvent moins bons que les forêts noires, mais c'est bien Charlie qui cuisine le mieux.
[ statistiques 🎲 14 min ]
causalité et critères de Bradford-Hill
Maintenant qu'on est au clair sur les corrélations, leur ampleur (taille d'effet) et leur absence, quid de la causalité ? On peut la mettre en évidence par l'observation d'une corrélation dans une étude prospective contrôlée randomisée en double aveugle. Mais lorsqu'on ne peut pas faire d'étude prospective, c'est fichu ? Non, les critères de Bradford-Hill peuvent aider à conclure.
[ statistiques 🎲 31 min ]
réalisme scientifique, réalisme métaphysique, réalisme structural, antiréalisme, instrumentalisme
Le réalisme métaphysique est la thèse selon laquelle il y a quelque chose d'autre que les données des sens : il y a une réalité en dehors des perceptions et elle les influence. C'est ça qu'on entend par réalité dans la suite. La méthode scientifique conduit à produire des théories prédictives des données des sens (instrumentalisme). Les objets et mécanismes postulés par ces théories ont-ils pour autant une correspondance avec la réalité ? Plusieurs positions existent à ce sujet, dont voici la nomenclature : mais concernant la structure des relations entre les objets (par exemple : il y a des trucs qui interagissent entre eux au moins approximativement comme la mécanique quantique décrit l'interaction des électrons – même si la nature de cette interaction, états quantifiés superposés, fonction d'onde et tout, n'a rien à voir avec la réalité – et ce sont ces interactions qui expliquent la chimie) oui, au moins pour les théories qui ont conduit à des prédictions correctes dans des conditions toutes autres que les observations qui ont conduit à les élaborer.
[ philosophie des sciences 🤔 17 min ]
Il y a plusieurs types de probabilités : probabilité fréquentiste : une probabilité est une fréquence, une proportion d’occurrences, probabilité épistémique : une probabilité est une confiance qu'on a en une affirmation, le terme technique employé est crédence d'une théorie (comprendre crédibilité). Données et théories se croisent dans les probabilités conditionnelles : Ces deux façons différentes de mêler observations et théories sont à la base de deux paradigmes statistiques : le fréquentisme et le bayésianisme.
[ statistiques 🎲 22 min ]
L'inférence à la meilleure hypothèse (aussi appelée abduction) est un enjeu épistémologique majeur. Il s'agit de retenir comme modèle celui qui au vu des données est le meilleur. Dit comme ça, ça a l'air trivial pourtant. A-t-on vraiment avancé dans la formalisation d'une méthode scientifique avec cette présentation ? En fait oui, car formulé ainsi, on voit que pour spécifier une méthode statistique il suffit de spécifier : Le fréquentisme est le paradigme statistique qui spécifie ces éléments ainsi : discrimination : le meilleur modèle est celui dont la vraisemblance vis-à-vis des données est maximale (on parle de maximum de vraisemblance). Les outils du fréquentisme sont très puissants mais les hypothèses fortes sur les données suppose des designs d'expérience rigoureux. Aujourd'hui il y a un enjeu à pouvoir extraire des connaissances de façon statistiquement rigoureuse : Le bayésianisme propose pour cela d'adopter un autre triptyque modèles-données-discrimination. Rendez-vous un peu plus loin dans le chemin A !
[ statistiques 🎲 17 min ]
Ouvrons pour quelques épisodes la boîte à outils de læ statisticien⋅ne fréquentiste. Une façon cheap et au rabais d'approcher l'abduction par maximum de vraisemblance, c'est de pratiquer le rejet d'une hypothèse peu vraisemblable en la soumettant à un test statistique qu'elle échoue à passer. Le rôle du statisticien est alors de concevoir des ensembles composés de : Techniquement, le risque (fréquentiste) de rejet d'une hypothèse nulle vraie est nommé risque alpha. Ainsi, s est un majorant du risque alpha. La vidéo prend l'exemple de la distribution hypergéométrique.
[ statistiques 🎲 10 min ]
Le test d'hypothèse de l'épisode précédent est le plus souvent de la forme suivante : Propriété fondamentale des tests statistiques par p-valeur : Si c'est l'hypothèse nulle qui est vraie, alors les données issues de l'expérience échouent au test avec probabilité au plus s. Dit autrement, le s "p-valeur seuil" ce cet épisode est le même que le s "majorant du risque alpha" de l'épisode précédent. Les principaux points d'attention concernant les tests statistiques par p-valeur sont : ne pas oublier les autres biais pour autant : ce n'est pas parce que l'étape de traitement statistique bénéficie d'une garantie – qui de plus ne porte que sur le risque de rejeter une hypothèse vraie (risque alpha) et pas du tout sur celui de ne pas rejeter une hypothèse fausse (risque bêta) – que le processus du labo à la publication (voire à la lecture) bénéficie d'une garantie du même ordre.
[ statistiques 🎲 14 min ]
TODO
Après avoir terminé le chemin BC, la suite est au chemin ABC.
Chemin B : procédé rhétorique
La rhétorique s'intéresse aux effets des discours. Et certaines façons de discourir produisent des effets essentiellement indépendants de la valeur argumentative du propos. On parle de procédé rhétorique pour les désigner. L'appel à la nature est le procédé rhétorique consistant à présenter une position morale (= "telle chose est bien" ou "faire telle chose est mal") comme étant justifiée par le fait que telle chose soit naturelle ou telle autre artificielle. L'effet est là : l'impression d'une argumentation (au lieu d'une affirmation semblant arbitraire). Dit autrement, on a augmenté la profondeur argumentative du discours, ce qui ne le rend pas forcément plus valide, mais en donne l'impression. En fait : Bien entendu, les procédés rhétoriques n'ont pas à être cohérents entre eux du point de vue argumentatif. Ainsi on pourrait aussi bien se revendiquer de la modernité ou de la technologie et produire le même type d'effet. La structure importante à identifier, c'est l'utilisation d'une connotation comme argument. Précisons cela. C'est le couple dénotation/connotation qui est en jeu : Toute l'entourloupe réside dans le fait de donner l'impression d'un raisonnement argumenté (c'est-à-dire explicite) alors qu'il se fonde sur de l'implicite. C'est ça, utiliser une connotation comme argument.
bonus : guillotine de Hume
[ rhétorique 🗣️ 14 min ]
La reformulation des thèses et la discussion des conséquences sont des éléments essentiels aux discussions. C'est pourquoi elles sont porteuses d'effets rhétoriques… même lorsqu'elles sont effectuées de façon abusive.
bonus : pente glissante
[ rhétorique 🗣️ 5 min ]
TODO : résumé/teaser/commentaire
~[ rhétorique 🗣️ 12 min ]--~
Quitte à moins les détailler, voyons d'autres procédés rhétoriques et des exemple de mise en pratique pour avoir plus de facilité à les repérer et y réagir de façon adéquate. Bref, le but du chemin B n'est pas de dresser une liste exhaustive des procédés rhétoriques, d'autant que ça ne permettrait pas de faire le tour de ce qui est trompeur ou ne l'est pas les concernant. Passons à autre chose.
bonus : quelques autres encore
[ rhétorique 🗣️ 24 min ]
contexte autour de l'image : montage et effet Kouleshov, micro-trottoir, extrait, légende…
Dans notre société où la communication n'est plus basée sur l'écrit mais sur l'image, celle-ci s'intègre au discours. Dans cette optique, la vidéo présente des situations où le contexte – ou l'absence de contexte dans le cadre des extraits – sert la rhétorique. Elle présente notamment les bases du montage, avec l'exemple du micro-trottoir. Finalement, cacher des éléments permettant la vérification de l'information peut servir la rhétorique. La rencontre entre les chemins B et C ne saurait tarder.
[ rhétorique 🗣️ 36 min ]
introduction à la lecture d'image partie 1 et partie 2
Symbolique, ethnocentrisme, répétition, humour, saillance de la mort… les images sont tout autant sujettes aux procédés rhétoriques que les discours. Cela vient du fait qu'elles sont porteuse de signification, aussi bien par ce qui est explicitement montré à l'image (dénotation) que par l'imaginaire et les représentations qui sont mobilisés (connotation). Étudier comment la construction des images permet de leur donner une signification relève de la sémiologie.
[ sémiologie ⏯️ 13 + 17 = 30 min ]
Après avoir terminé le chemin C, la suite est au chemin BC.
Chemin C : de la diffusion de l'information à sa vérification
modèle socio-psychologique de la diffusion des informations
La diffusion médiatique des informations participe à la construction des représentations populaires, influençant à leur tour les témoignages qui pourront être repris dans la presse. La boucle est bouclée !
[ éducation aux médias et à l'information 📰 20 min ]
formation et diffusion de rumeur
En ligne, la structure de la propagation d'une information est un indicateur de sa véracité. De plus, la reproduction imparfaite aux différentes étapes de la propagation conduit à une distorsion de l'information. Cette distorsion n'est pas aléatoire, elle va dans le sens des représentation du groupe social dans lequel la rumeur se diffuse.
[ psychologie sociale 👥 13 min ]
chambre d'échos, effet de groupe et identité sociale
On parle de chambre d’échos lorsque la diversité de l'information à laquelle un individu est exposé est réduite. Plusieurs phénomènes expliquent les effets de chambre d'échos en ligne : Cette vidéo se concentre notamment sur les effets de groupe, qui sont la conséquence du phénomène d'identité sociale (construction d'une image de soi par les catégories sociales d'appartenance) et de la tendance à chercher à avoir une identité sociale valorisée. Avoir une identité sociale valorisée passe notamment par : Finalement, certaines thèses sont davantage l'affirmation d'une identité sociale que d'une connaissance.
[ psychologie sociale 👥 24 min ]
remonter aux sources, croiser les sources
Vérifier une information consiste à : Recherche par mots clefs, par image, par image similaire, sur un moteur de recherche spécialisé (journalistique, académique…)… C'est l'occasion de mettre à profit de multiples outils.
bonus : vérification d'image
[ éducation aux médias et à l'information 📰 21 min ]
dégradation de la qualité d'images
Une image de faible qualité est un signe de multiples compressions, et donc de distance à la source de l'information.
bonus : détection de retouche d'image
[ éducation aux médias et à l'information 📰 min ]
lecture de graphique : choix de représentation de données
Avoir des données chiffrées représentées visuellement, c'est bien. Savoir les lire en temps réel et porter son attention sur les potentiels erreurs et aspects trompeurs, c'est mieux ! La vérification de données graphiques consiste à vérifier : La vérification de graphique mêle donc une attention sur : Les chemins B et C en viennent à se rencontrer.
bonus : lecture de graphique : choix de données à représenter
[ éducation aux médias et à l'information 📰 28 min ]
Après avoir terminé le chemin B, la suite est au chemin BC.
Chemin BC :
Le caractère faux ou trompeur d'informations provient de : processus inintentionnels (mésinformation) comme on en a évoqués au début du chemin C, processus intentionnels (désinformation). La désinformation recouvre : Cette classification rencontre néanmoins des limites, car les dynamiques médiatiques mêlent profondément désinformation et mésinformation comme on va le voir dans la suite du chemin BC.
[ éducation aux médias et à l'information 📰 8 min ]
sondage et journalisme politique
Dans le champ politique on tire la légitimité de sa parole notamment des résultats aux élections. Mais le champ journalistique dispose désormais d'un outil pour prétendre à une légitimité du même ordre. Après micro-trottoir, parlons sondage d'opinion.
[ sociologie 🏙️ 14 min ]
TODO : résumé/teaser/commentaire
[ sociologie 🏙️ 17 min ]
Choix des sujets, des invité⋅e⋅s, des questions posées, des images et discours diffusés, des contextes pour les micro-trottoirs… tout au long de la boucle médiatique de diffusion de l'information, chaque étape résulte d'une analyse de la situation et à la fois influence en retour la situation et son analyse. Vous noterez la similarité avec l'épisode 1 du chemin C. Incroyable… tout se déroule comme si cette promenade était organisée !
[ éducation aux médias et à l'information 📰 25 min ]
TODO
Après avoir terminé le chemin A, la suite est au chemin ABC.
Chemin ABC
TODO