Page 2 sur 4 • 1, 2, 3, 4
- leskhalNiveau 9
J'avoue humblement que dans le sujet Liban mai 2016, la question de l'exercice 2 partie B me laisse perplexe, en dehors du problème du seuil justement soulevé (qui le fut aussi par mes élèves d'ailleurs) :Moonchild a écrit:Je terminerai ce message par une observation beaucoup plus ponctuelle : dans plusieurs sujets (par exemple Liban mai 2016, Amérique du Nord juin 2016 mais aussi Métropole juin 2015), l'exercice de probabilité contient une question dans laquelle on demande de manière très ouverte de vérifier la justesse d'une affirmation sur la base d'un échantillon sans qu'il soit fait la moindre mention de l'intervalle de fluctuation asymptotique. J'imagine que dans l'esprit des concepteurs de ces sujets, il s'agit d'une question avec prise d'initiative, mais encore une fois le résultat est désastreux car les élèves n'ont pas le recul nécessaire pour comprendre les tenants et les aboutissants de la procédure attendue et, s'ils sont un minimum lucides, ils restent particulièrement perplexes et admettent volontiers ne pas vraiment savoir quand ils doivent utiliser cette méthode ; en toute honnêteté, j'ai bien du mal à ne pas leur donner pleinement raison surtout lorsque l'énoncé ne précise pas le seuil de ce test statistique (c'est le cas dans les trois sujets cités auparavant) et que la question n'admet donc en fait aucune réponse mathématique (c'est un peu gênant, non ?). Même si l'unique seuil qui se trouve au programme est celui de 95%, il me semblerait indispensable, pour être un minimum rigoureux, qu'il soit explicitement mentionné dans toute question de ce type.
« Le lance-balle est équipé d’un réservoir pouvant contenir 100 balles. Sur une séquence de 100 lancers, 42 balles ont été lancées à droite.
Le joueur doute alors du bon fonctionnement de l’appareil. Ses doutes sont-ils justifiés ? »
Faut-il utiliser un intervalle de fluctuation asymptotique à partir de la valeur théorique (0,5) ou utiliser un intervalle de confiance à partir du résultat de l'échantillonnage (0,42) ?
J'ai dit à mes élèves que ces deux techniques étaient valables (elles donnent heureusement la même conclusion), mais il me reste toujours le doute d'avoir dit une connerie...
P.S. : rien ne s'arrange avec le sujet Polynésie...
- veyneNiveau 2
Oui pour ma part c'est devenu très basique je dis à mes élèves de prendre l'intervalle de fluctuations si ils connaissent où identifient p dans l'énoncé et confiance sinon. Et interdiction formelle de passer plus de 5 minutes sur ces questions.
- leskhalNiveau 9
Vous me faites des réponses autoritaires mais peu convaincantes.
On cherche à vérifier une hypothèse. Il n'y a alors plus de valeur théorique.
Mon raisonnement est la suivant :
- si j'utilise l'intervalle de fluctuation, je suppose que la valeur théorique est effective et je vérifie si mon échantillon correspond à cette valeur théorique
- si j'utilise l'intervalle de confiance, je prend comme hypothèse de travail le résultat de mon sondage et je vérifie si la valeur théorique peut s'appliquer à mon échantillon.
Dans le cas de l'exercice cité, ces deux démarches se défendent, ou alors je n'ai rien compris à ces @##$%? d'histoires d'intervalles, ce qui n'est pas une hypothèse à exclure...
On cherche à vérifier une hypothèse. Il n'y a alors plus de valeur théorique.
Mon raisonnement est la suivant :
- si j'utilise l'intervalle de fluctuation, je suppose que la valeur théorique est effective et je vérifie si mon échantillon correspond à cette valeur théorique
- si j'utilise l'intervalle de confiance, je prend comme hypothèse de travail le résultat de mon sondage et je vérifie si la valeur théorique peut s'appliquer à mon échantillon.
Dans le cas de l'exercice cité, ces deux démarches se défendent, ou alors je n'ai rien compris à ces @##$%? d'histoires d'intervalles, ce qui n'est pas une hypothèse à exclure...
_________________
- ben2510Expert spécialisé
Vérifier l'hypothèse passe par le fait de faire une prédiction à partir de cette hypothèse,
puis confronter la théorie et l'expérience.
Plus spécifiquement, la modélisation du nombre de balles envoyées d'un certain côté par une loi binomiale permet d'affirmer que la probabilité que le nombre de balles soit compris entre 50-k et 50+k est forte (de l'ordre de .95) pour k=truc. Pour aller vite, on approche la loi binom par une loi normale, d'où le 1.96.
Le calcul et l'utilisation de la fréquence expérimentale f=42/100 n'interviennent qu'en toute fin de la démarche ; si f est dans l'IFA, on considère que l'hypothèse est compatible avec l'expérience (je n'ose dire "que l'hypothèse est vraie") ; sinon on rejette l'hypothèse.
C'est la démarche standard en stats inférentielles (=test d'hypothèse). De là à dire que c'est une démarche valide, c'est une autre question :-) (à laquelle je ne répondrai pas). En tout cas c'est la démarche attendue sur ce genre d'exercices.
Le fait d'utiliser un IC est un choix qui n'est pas incorrect, à mon avis ; on fait ça en PACES, me semble-t-il.
puis confronter la théorie et l'expérience.
Plus spécifiquement, la modélisation du nombre de balles envoyées d'un certain côté par une loi binomiale permet d'affirmer que la probabilité que le nombre de balles soit compris entre 50-k et 50+k est forte (de l'ordre de .95) pour k=truc. Pour aller vite, on approche la loi binom par une loi normale, d'où le 1.96.
Le calcul et l'utilisation de la fréquence expérimentale f=42/100 n'interviennent qu'en toute fin de la démarche ; si f est dans l'IFA, on considère que l'hypothèse est compatible avec l'expérience (je n'ose dire "que l'hypothèse est vraie") ; sinon on rejette l'hypothèse.
C'est la démarche standard en stats inférentielles (=test d'hypothèse). De là à dire que c'est une démarche valide, c'est une autre question :-) (à laquelle je ne répondrai pas). En tout cas c'est la démarche attendue sur ce genre d'exercices.
Le fait d'utiliser un IC est un choix qui n'est pas incorrect, à mon avis ; on fait ça en PACES, me semble-t-il.
_________________
On fait la science avec des faits, comme on fait une maison avec des pierres : mais une accumulation de faits n'est pas plus une science qu'un tas de pierres n'est une maison. Henri Poincaré La notion d'équation différentielle est le pivot de la conception scientifique du monde. Vladimir Arnold
- ben2510Expert spécialisé
leskhal a écrit:Vous me faites des réponses autoritaires mais peu convaincantes.
On cherche à vérifier une hypothèse. Il n'y a alors plus de valeur théorique.
Mon raisonnement est la suivant :
- si j'utilise l'intervalle de fluctuation, je suppose que la valeur théorique est effective et je vérifie si mon échantillon correspond à cette valeur théorique
- si j'utilise l'intervalle de confiance, je prend comme hypothèse de travail le résultat de mon sondage et je vérifie si la valeur théorique peut s'appliquer à mon échantillon.
Dans le cas de l'exercice cité, ces deux démarches se défendent, ou alors je n'ai rien compris à ces @##$%? d'histoires d'intervalles, ce qui n'est pas une hypothèse à exclure...
Pas d'accord avec la partie graissée.
Sur le fait d'utiliser IC ou IFA, on peut remarquer que la justification de l'IC passe par la notion d'IFA est par la symétrie de la notion de distance (entre fréquence et proportion) ; ce pourrait être un ROC, si les ROC existent toujours (question peu claire...).
_________________
On fait la science avec des faits, comme on fait une maison avec des pierres : mais une accumulation de faits n'est pas plus une science qu'un tas de pierres n'est une maison. Henri Poincaré La notion d'équation différentielle est le pivot de la conception scientifique du monde. Vladimir Arnold
- veyneNiveau 2
Franchement chaque année ces histoires d'intervalles ce sont les mêmes problèmes qui se posent et en harmonisation les mêmes débats à n'en plus finir, même les spécialistes ne se mettent pas toujours d'accord, j'ai renoncé à y passer du temps.
J'ai fait beaucoup d'efforts pour me mettre à niveau sur la loi normale et faire le maximum pour que mes élèves n'aient pas l'impression de formules magiques tombées du ciel, j'y ai découvert un réel intérêt mathématique. Sur l'enseignement des intervalles (dont je ne remets pas en question la théorie j'en suis bien incapable) au niveau TS je ne suis vraiment pas convaincu.
J'ai fait beaucoup d'efforts pour me mettre à niveau sur la loi normale et faire le maximum pour que mes élèves n'aient pas l'impression de formules magiques tombées du ciel, j'y ai découvert un réel intérêt mathématique. Sur l'enseignement des intervalles (dont je ne remets pas en question la théorie j'en suis bien incapable) au niveau TS je ne suis vraiment pas convaincu.
- leskhalNiveau 9
Si les spécialistes s'écharpent sur ces questions, alors je ne vais pas chercher à en savoir plus, il y a d'autres domaines des mathématiques qui m'intéressent bien plus et sur lesquels j'aime passer du temps...
Si j'ai bien compris, et c'est bien le seul chapitre sur lequel j'ai peu de marge d'aisance par rapport à mes élèves, on utilise un IFA tant qu'on ne dit pas d'utiliser un IC puisque c'est le seul qui est le moins loin d'une éventuelle démonstration potentielle.
Ceux qui enseignent en STI2D auront remarqué des habitudes un peu différentes, ce qui ne simplifie pas le fonctionnement de mon cerveau, redevenu reptilien sur ce chapitre, quand je passe d'une classe à l'autre...
Si j'ai bien compris, et c'est bien le seul chapitre sur lequel j'ai peu de marge d'aisance par rapport à mes élèves, on utilise un IFA tant qu'on ne dit pas d'utiliser un IC puisque c'est le seul qui est le moins loin d'une éventuelle démonstration potentielle.
Ceux qui enseignent en STI2D auront remarqué des habitudes un peu différentes, ce qui ne simplifie pas le fonctionnement de mon cerveau, redevenu reptilien sur ce chapitre, quand je passe d'une classe à l'autre...
_________________
- MoonchildSage
Je ne suis pas un spécialiste de ces notions, mais dans le document en lien ci-dessous qui m'est parvenu par hasard, il est fait mention d'une dualité entre les tests statistiques et les régions de confiance (page 18) :leskhal a écrit:Vous me faites des réponses autoritaires mais peu convaincantes.
On cherche à vérifier une hypothèse. Il n'y a alors plus de valeur théorique.
Mon raisonnement est la suivant :
- si j'utilise l'intervalle de fluctuation, je suppose que la valeur théorique est effective et je vérifie si mon échantillon correspond à cette valeur théorique
- si j'utilise l'intervalle de confiance, je prend comme hypothèse de travail le résultat de mon sondage et je vérifie si la valeur théorique peut s'appliquer à mon échantillon.
Dans le cas de l'exercice cité, ces deux démarches se défendent, ou alors je n'ai rien compris à ces @##$%? d'histoires d'intervalles, ce qui n'est pas une hypothèse à exclure...
http://www.math.u-psud.fr/~stafav/IMG/pdf/Stat1_Rivoirard.pdf
(en toute honnêteté, je n'ai fait que survoler le premier chapitre de ce document et, même si j'arrive plus ou moins à entrevoir quelques grandes lignes, je dois reconnaître que, dès les premières pages, certains points restent pour moi très obscurs).
Cette dualité entre intervalles de fluctuation et intervalles de confiance est aussi évoquée de façon un peu plus accessible (le graphique permet de la visualiser, les uns sont obtenus verticalement, les autres horizontalement) dans cet article dont je ne partage pas la conclusion mais ça c'est une autre histoire :
http://images.math.cnrs.fr/Intervalle-de-confiance-pourquoi.html
J'imagine donc que les deux démarches que tu proposes peuvent se justifier, mais l'usage courant semble privilégier celle qui se base sur la valeur théorique. Un de mes élèves a d'ailleurs soulevé cette question cette année et, après avoir utilisé l'argument d'autorité ("oui, on pourrait aussi faire autrement, mais par convention on a décidé que..."), il m'est venu à l'idée de tenter de le convaincre de la pertinence concrète de ce choix en remarquant qu'en se basant sur la valeur théorique, on peut ré-appliquer le même test à plusieurs échantillons sans avoir à reconstruire à chaque fois un nouvel intervalle ; je ne suis pas persuadé que ce soit la véritable raison de cette convention, mais en tous cas elle a été plutôt bien acceptée par les élèves.
Attention, il y a toutefois un problème qui apparaît avec les intervalles de confiance tels qu'ils sont définis dans le programme : le niveau de confiance correspond à une probabilité au moins égale à... tandis que pour les intervalles de fluctuations asymptotiques la probabilité est, en limite, égale à... ; en fait, en passant de l'un à l'autre on a majoré p(1-p) par 1/4 et 1,96 par 2 et du coup l'amplitude n'est pas tout-à-fait la même, avec une différence qui peut-être significative lorsque p s'éloigne de 0,5.
Et même si on ne fait pas cette majoration, si on reprend la formule de l'intervalle de fluctuation asymptotique en replaçant partout la valeur théorique p par la fréquence observée f, pour des valeurs qui s'éloignent de 0,5 on n'obtient pas toujours la même conclusion (pensant qu'on pouvait intervertir p et f sans problème, un des mes élèves a d'ailleurs tenté le coup sur un exercice où justement ça donnait un autre résultat). Par exemple, en prenant n=100, p=0,9 et f=0,84 alors, si je ne me suis pas planté dans les calculs que j'ai faits un peu vite :
- l'intervalle de fluctuation asymptotique est [p-1,96sqrt(p(1-p)/n) ; p+1,96sqrt(p(1-p)/n)] soit [0,8412 ; 0,9588] et il ne contient pas f donc on rejette l'hypothèse ;
- l'intervalle bricolé à partir de f serait [f-1,96sqrt(f(1-f)/n) ; f+1,96sqrt(f(1-f)/n)] soit [0,7681 ; 0,9119] et il contient p donc on accepterait l'hypothèse.
En fait, quand on remplace p par f cela revient en gros à faire une approximation de l'écart-type de la loi normale cachée derrière ces intervalles et quand p s'éloigne de 0,5 la différence entre sqrt(p(1-p)) et sqrt(f(1-f)) peut être significative, ça varie même assez vite quand on a des valeurs proches du bord de [0;1]. Cette histoire d'approximation d'écart type est vraisemblablement une meilleure raison de privilégier la valeur théorique que celle que j'ai donnée à mes élèves.
Enfin bon, pour le bac, si on suit le texte du programme, on devrait normalement utiliser l'intervalle de fluctuation asymptotique construit à partir de la valeur théorique pour faire ce genre de test... sauf que, dans la question 4 de l'exercice 4 du sujet Liban mai 2015, l'énoncé semble orienter vers l'utilisation d'un intervalle de confiance pour répondre à la question posée (et c'est ce qui est fait dans le corrigé proposé par l'APMEP, d'ailleurs on voit mal ce qu'on pourrait faire d'autre à ce niveau) :
http://www.apmep.fr/IMG/pdf/S-LIBAN-06-2015Dumesnil.pdf
Mais cela a déjà fait l'objet d'une question dans un sujet de Bac (partie A de l'exercice 2 du sujet en lien ci-dessous), avec une monumentale erreur dans l'énoncé :ben2510 a écrit:leskhal a écrit:Vous me faites des réponses autoritaires mais peu convaincantes.
On cherche à vérifier une hypothèse. Il n'y a alors plus de valeur théorique.
Mon raisonnement est la suivant :
- si j'utilise l'intervalle de fluctuation, je suppose que la valeur théorique est effective et je vérifie si mon échantillon correspond à cette valeur théorique
- si j'utilise l'intervalle de confiance, je prend comme hypothèse de travail le résultat de mon sondage et je vérifie si la valeur théorique peut s'appliquer à mon échantillon.
Dans le cas de l'exercice cité, ces deux démarches se défendent, ou alors je n'ai rien compris à ces @##$%? d'histoires d'intervalles, ce qui n'est pas une hypothèse à exclure...
Pas d'accord avec la partie graissée.
Sur le fait d'utiliser IC ou IFA, on peut remarquer que la justification de l'IC passe par la notion d'IFA est par la symétrie de la notion de distance (entre fréquence et proportion) ; ce pourrait être un ROC, si les ROC existent toujours (question peu claire...).
http://www.apmep.fr/IMG/pdf/S_Antilles_Guyane_2013.pdf
L'erreur se retrouve à l'identique dans les Annabacs, donc ce n'est pas simplement une coquille du site de l'APMEP.
- IgniatiusGuide spirituel
leskhal a écrit:J'avoue humblement que dans le sujet Liban mai 2016, la question de l'exercice 2 partie B me laisse perplexe, en dehors du problème du seuil justement soulevé (qui le fut aussi par mes élèves d'ailleurs) :Moonchild a écrit:Je terminerai ce message par une observation beaucoup plus ponctuelle : dans plusieurs sujets (par exemple Liban mai 2016, Amérique du Nord juin 2016 mais aussi Métropole juin 2015), l'exercice de probabilité contient une question dans laquelle on demande de manière très ouverte de vérifier la justesse d'une affirmation sur la base d'un échantillon sans qu'il soit fait la moindre mention de l'intervalle de fluctuation asymptotique. J'imagine que dans l'esprit des concepteurs de ces sujets, il s'agit d'une question avec prise d'initiative, mais encore une fois le résultat est désastreux car les élèves n'ont pas le recul nécessaire pour comprendre les tenants et les aboutissants de la procédure attendue et, s'ils sont un minimum lucides, ils restent particulièrement perplexes et admettent volontiers ne pas vraiment savoir quand ils doivent utiliser cette méthode ; en toute honnêteté, j'ai bien du mal à ne pas leur donner pleinement raison surtout lorsque l'énoncé ne précise pas le seuil de ce test statistique (c'est le cas dans les trois sujets cités auparavant) et que la question n'admet donc en fait aucune réponse mathématique (c'est un peu gênant, non ?). Même si l'unique seuil qui se trouve au programme est celui de 95%, il me semblerait indispensable, pour être un minimum rigoureux, qu'il soit explicitement mentionné dans toute question de ce type.
« Le lance-balle est équipé d’un réservoir pouvant contenir 100 balles. Sur une séquence de 100 lancers, 42 balles ont été lancées à droite.
Le joueur doute alors du bon fonctionnement de l’appareil. Ses doutes sont-ils justifiés ? »
Faut-il utiliser un intervalle de fluctuation asymptotique à partir de la valeur théorique (0,5) ou utiliser un intervalle de confiance à partir du résultat de l'échantillonnage (0,42) ?
J'ai dit à mes élèves que ces deux techniques étaient valables (elles donnent heureusement la même conclusion), mais il me reste toujours le doute d'avoir dit une connerie...
P.S. : rien ne s'arrange avec le sujet Polynésie...
De ce que j'ai compris de l'aspect statistique des "hypothèses", il faut ici utiliser un intervalle de fluctuation : l'attendu pour la machine est une proba de 0,5, donc on teste si la fréquence observée appartient bien à l'intervalle de fluctuation à 95% prévu par la théorie.
Sinon, je rejoins en tout point Moonchild.
_________________
"Celui qui se perd dans sa passion est moins perdu que celui qui perd sa passion."
St Augustin
"God only knows what I'd be without you"
Brian Wilson
- IgniatiusGuide spirituel
leskhal a écrit:Si les spécialistes s'écharpent sur ces questions, alors je ne vais pas chercher à en savoir plus, il y a d'autres domaines des mathématiques qui m'intéressent bien plus et sur lesquels j'aime passer du temps...
Si j'ai bien compris, et c'est bien le seul chapitre sur lequel j'ai peu de marge d'aisance par rapport à mes élèves, on utilise un IFA tant qu'on ne dit pas d'utiliser un IC puisque c'est le seul qui est le moins loin d'une éventuelle démonstration potentielle.
Ceux qui enseignent en STI2D auront remarqué des habitudes un peu différentes, ce qui ne simplifie pas le fonctionnement de mon cerveau, redevenu reptilien sur ce chapitre, quand je passe d'une classe à l'autre...
J'en suis !
Et je suis assez d'accord avec toi : les programmes ne sont pas cohérents avec ceux de S, notamment sur l'IC, donné sous une forme symétrique à l'intervalle de fluctuation en STI.
_________________
"Celui qui se perd dans sa passion est moins perdu que celui qui perd sa passion."
St Augustin
"God only knows what I'd be without you"
Brian Wilson
- Samuel DMNiveau 6
Je suis plutôt de formation probabiliste (donc pas trop stat) mais je vais essayer d'expliquer de mon mieux. Pas de jet de tomates svp
Intervalle de fluctuation : on part d'une modélisation probabiliste dont tous les paramètres sont connus (donc d'une variable avec une certaine loi) et on génère un intervalle déterministe (bornes non aléatoires dépendant des paramètres de la loi). Cet intervalle contient avec une probabilité fixée les réalisations de X.
Un exemple très simple est donné par l'inégalité de Tchebychev qui fournit un IF centré sur la moyenne : Si X est une variable aléatoire admettant une variance, pour tout e>0, P(|X-E(X)|>e) <= (Var(X))/e^2, et donc P(|X-E(X)| <= e) > 1- (Var(X))/e^2.
En notant I(e) l'intervalle [E(X)-e,E(X)+e], on peut réécrire l'inégalité en P( X appartient I(e) ) > 1-...
On l'interprète en disant que les réalisations de X (donc les X(omega)) appartiennent à I(e) avec proba au moins 1-blabla. On peut aussi générer un intervalle de fluctuation à l'aide du théorème central limite (De Moivre - Laplace en TS), mais ce dernier est asymptotique en la taille de l'échantillon (le paramètre n de la variable de loi binomiale). Certains théorèmes (voir du côté de Berry-Esseen) donnent une majoration de l'erreur commise en remplaçant la centrée réduite de la binomiale par une normale 0,1. Cette démarche suppose que l'on puisse répéter indéfiniment l'expérience de Bernoulli sous-jacente et ceci de manière indépendante.
Intervalle de confiance : s'utilise lorsque le (les) paramètre(s) de la variable aléatoire sont inconnus et que l'on veut valider une conjecture quant à leurs valeurs. Plus précisément on sait que sa loi est dans une certaine famille mais il manque un ou des paramètres sur lesquels on fait une hypothèse (p=f_n ?).
Dans le cadre du programme de TS, on travaille avec n variables de Bernoulli indépendantes (qui composent un échantillon statistique X_1, ..., X_n) et on veut trouver le paramètre p inconnu. Il se trouve que ce paramètre est en fait la valeur commune de l'espérance de ces Bernoulli. Or pour estimer cette espérance, en vertu de la loi des grands nombres on peut utiliser la moyenne empirique (c'est une variable aléatoire !) F_n = (1/n)*Somme X_i qui converge presque sûrement vers E(X_i). Dans quelle mesure cette approximation est-elle pertinente ? Une façon de s'y prendre est de majorer l'erreur quadratique (dans L2) liée à cet écart, soit la racine de E(|F_n-p|^2). C'est un autre problème.
F_n est la variable "fréquence" associée à la loi binomiale n,p du programme de TS. On va générer un intervalle centré en F_n (donc par construction aléatoire) qui devra contenir p (qui est déterministe) avec une certaine probabilité. Vu les rôles symétriques de p et F_n, on est tenté de remplacer p par F_n dans l'intervalle de fluctuation asymptotique. Pourtant ce n'est pas vraiment évident. En effet, le TLC garantit que (F_n-p)/(sqrt(p(1-p)) converge en loi vers une normale centrée réduite. Le dénominateur de la fraction dépend de p que l'on cherche. En toute logique, pour alpha=5%, l'intervalle serait:
[F_n -+ 1,96 racine[p(1-p)/n]] et dépend donc de p... on tourne en rond. On a besoin d'écrire :
IC(n) = [F_n -+ 1,96 racine[F_n(1-F_n)/n]]. Ceci est une démarche appelée méthode des moments, qui est validée par le théorème de Slutsky.
IC(n) est un intervalle aléatoire dont la probabilité de contenir p est d'au moins 95% asymptotiquement en n. Ce que l'on fait en stat c'est remplacer la variable aléatoire F_n par une de ses réalisations f_n (on utilise la proportion correspondant au sondage effectué, donc on ne se place plus en amont mais en aval). Concrètement, on utilise une réalisation de l'intervalle, avec tous les risques que cela comporte (différence entre le "presque sûr" et le "vrai pour tout omega", le tout couplé avec des problèmes de convergences et l'interprétation de l'erreur).
Partant de ces définitions, c'est leur utilisation qui est plus sujette à discussion. Le pdf cité au dessus (Rivoirard-Stoltz), ou même le livre "Statistique mathématique en action" des mêmes auteurs présente les liens entre intervalles de confiance et tests d'hypothèses associés. Le deuxième pdf (images math) que j'ai consulté après avoir tapé les trois quarts de ce message (mea culpa etc) insiste sur les liens entre IC et IF associés.
PS : A noter qu'il s'agit ici de statistique classique. En statistique bayésienne, par exemple, on fournit des régions de crédibilité basées sur les densités. On raffine les chose en faisant de p une variable aléatoire suivant certaine une loi a priori et l'on utilise la loi de Bayes pour déterminer une densité de p conditionnellement à la fréquence observée (autrement dit on fournit la meilleur prédiction de p sachant que l'on a observé f). La région de crédibilité est déterminée en regardant les zones où la densité est la plus forte. On peut alors actualiser cette densité en fournissant une nouvelle observation et en répétant le processus. L'avantage est que la démarche n'est pas asymptotique et ne suppose pas par exemple que l'on puisse répéter le sondage dans les mêmes conditions (infinité de variables iid etc).
Intervalle de fluctuation : on part d'une modélisation probabiliste dont tous les paramètres sont connus (donc d'une variable avec une certaine loi) et on génère un intervalle déterministe (bornes non aléatoires dépendant des paramètres de la loi). Cet intervalle contient avec une probabilité fixée les réalisations de X.
Un exemple très simple est donné par l'inégalité de Tchebychev qui fournit un IF centré sur la moyenne : Si X est une variable aléatoire admettant une variance, pour tout e>0, P(|X-E(X)|>e) <= (Var(X))/e^2, et donc P(|X-E(X)| <= e) > 1- (Var(X))/e^2.
En notant I(e) l'intervalle [E(X)-e,E(X)+e], on peut réécrire l'inégalité en P( X appartient I(e) ) > 1-...
On l'interprète en disant que les réalisations de X (donc les X(omega)) appartiennent à I(e) avec proba au moins 1-blabla. On peut aussi générer un intervalle de fluctuation à l'aide du théorème central limite (De Moivre - Laplace en TS), mais ce dernier est asymptotique en la taille de l'échantillon (le paramètre n de la variable de loi binomiale). Certains théorèmes (voir du côté de Berry-Esseen) donnent une majoration de l'erreur commise en remplaçant la centrée réduite de la binomiale par une normale 0,1. Cette démarche suppose que l'on puisse répéter indéfiniment l'expérience de Bernoulli sous-jacente et ceci de manière indépendante.
Intervalle de confiance : s'utilise lorsque le (les) paramètre(s) de la variable aléatoire sont inconnus et que l'on veut valider une conjecture quant à leurs valeurs. Plus précisément on sait que sa loi est dans une certaine famille mais il manque un ou des paramètres sur lesquels on fait une hypothèse (p=f_n ?).
Dans le cadre du programme de TS, on travaille avec n variables de Bernoulli indépendantes (qui composent un échantillon statistique X_1, ..., X_n) et on veut trouver le paramètre p inconnu. Il se trouve que ce paramètre est en fait la valeur commune de l'espérance de ces Bernoulli. Or pour estimer cette espérance, en vertu de la loi des grands nombres on peut utiliser la moyenne empirique (c'est une variable aléatoire !) F_n = (1/n)*Somme X_i qui converge presque sûrement vers E(X_i). Dans quelle mesure cette approximation est-elle pertinente ? Une façon de s'y prendre est de majorer l'erreur quadratique (dans L2) liée à cet écart, soit la racine de E(|F_n-p|^2). C'est un autre problème.
F_n est la variable "fréquence" associée à la loi binomiale n,p du programme de TS. On va générer un intervalle centré en F_n (donc par construction aléatoire) qui devra contenir p (qui est déterministe) avec une certaine probabilité. Vu les rôles symétriques de p et F_n, on est tenté de remplacer p par F_n dans l'intervalle de fluctuation asymptotique. Pourtant ce n'est pas vraiment évident. En effet, le TLC garantit que (F_n-p)/(sqrt(p(1-p)) converge en loi vers une normale centrée réduite. Le dénominateur de la fraction dépend de p que l'on cherche. En toute logique, pour alpha=5%, l'intervalle serait:
[F_n -+ 1,96 racine[p(1-p)/n]] et dépend donc de p... on tourne en rond. On a besoin d'écrire :
IC(n) = [F_n -+ 1,96 racine[F_n(1-F_n)/n]]. Ceci est une démarche appelée méthode des moments, qui est validée par le théorème de Slutsky.
IC(n) est un intervalle aléatoire dont la probabilité de contenir p est d'au moins 95% asymptotiquement en n. Ce que l'on fait en stat c'est remplacer la variable aléatoire F_n par une de ses réalisations f_n (on utilise la proportion correspondant au sondage effectué, donc on ne se place plus en amont mais en aval). Concrètement, on utilise une réalisation de l'intervalle, avec tous les risques que cela comporte (différence entre le "presque sûr" et le "vrai pour tout omega", le tout couplé avec des problèmes de convergences et l'interprétation de l'erreur).
Partant de ces définitions, c'est leur utilisation qui est plus sujette à discussion. Le pdf cité au dessus (Rivoirard-Stoltz), ou même le livre "Statistique mathématique en action" des mêmes auteurs présente les liens entre intervalles de confiance et tests d'hypothèses associés. Le deuxième pdf (images math) que j'ai consulté après avoir tapé les trois quarts de ce message (mea culpa etc) insiste sur les liens entre IC et IF associés.
PS : A noter qu'il s'agit ici de statistique classique. En statistique bayésienne, par exemple, on fournit des régions de crédibilité basées sur les densités. On raffine les chose en faisant de p une variable aléatoire suivant certaine une loi a priori et l'on utilise la loi de Bayes pour déterminer une densité de p conditionnellement à la fréquence observée (autrement dit on fournit la meilleur prédiction de p sachant que l'on a observé f). La région de crédibilité est déterminée en regardant les zones où la densité est la plus forte. On peut alors actualiser cette densité en fournissant une nouvelle observation et en répétant le processus. L'avantage est que la démarche n'est pas asymptotique et ne suppose pas par exemple que l'on puisse répéter le sondage dans les mêmes conditions (infinité de variables iid etc).
- AnaxagoreGuide spirituel
_________________
"De même que notre esprit devient plus fort grâce à la communication avec les esprits vigoureux et raisonnables, de même on ne peut pas dire combien il s'abâtardit par le commerce continuel et la fréquentation que nous avons des esprits bas et maladifs." Montaigne
"Woland fit un signe de la main, et Jérusalem s'éteignit."
"On déclame contre les passions sans songer que c'est à leur flambeau que la philosophie allume le sien." Sade
- AnaxagoreGuide spirituel
Merci à tous pour cette belle discussion.
_________________
"De même que notre esprit devient plus fort grâce à la communication avec les esprits vigoureux et raisonnables, de même on ne peut pas dire combien il s'abâtardit par le commerce continuel et la fréquentation que nous avons des esprits bas et maladifs." Montaigne
"Woland fit un signe de la main, et Jérusalem s'éteignit."
"On déclame contre les passions sans songer que c'est à leur flambeau que la philosophie allume le sien." Sade
- AnaxagoreGuide spirituel
Une intervention de Suquet:
http://math.univ-lille1.fr/~suquet/Polys/Intervention_ChSuquet.pdf
(J'aime beaucoup ses cours sur son site.)
http://math.univ-lille1.fr/~suquet/Polys/Intervention_ChSuquet.pdf
(J'aime beaucoup ses cours sur son site.)
_________________
"De même que notre esprit devient plus fort grâce à la communication avec les esprits vigoureux et raisonnables, de même on ne peut pas dire combien il s'abâtardit par le commerce continuel et la fréquentation que nous avons des esprits bas et maladifs." Montaigne
"Woland fit un signe de la main, et Jérusalem s'éteignit."
"On déclame contre les passions sans songer que c'est à leur flambeau que la philosophie allume le sien." Sade
- VinZTDoyen
Je ne me risquerai pas sur le terrain de l'expertise, ayant fait toutes mes études jusqu'à l'agrégation sans avoir entendu parler de probabilités et encore moins de statistiques. Je me bornerai donc à quelques remarques qui n'engagent que moi (et c'est déjà pas mal):
- les intervalles en question, si l'on veut en tirer la substantifique moelle nécessitent un "background" proba/stat que la plupart des profs (et encore plus les élèves) sont loin de posséder, d'où un bricolage et une sensation d'à-peu-près fort désagréable (les mauvaises langues diront que c'était voulu, histoire de nous déposséder d'une quelconque expertise et de nous transformer en executants dociles), j'ai cru d'ailleurs comprendre que les spécialistes de la chose ne sont pas tous d'accord entre eux
- les exercices (de bac) utilisant ces intervalles (ou ceux sur la loi normale), sous couvert de "concret" et une fois débarrassés du verbiage qui les compose, se réduisent bien souvent à appliquer une formule et/ou à utiliser la boîte noire de la calculatrice, d'où finalement un intérêt assez pauvre d'un point de vue mathématique/logique/formation au raisonnement
- l'urgence à introduire ces notions (mais on pourrait parler aussi de l'algorithmique) était-elle si vitale qu'elle vaille le sacrifice de savoirs tels que barycentre, équations différentielles, transformations, etc ?
- ne pouvait-on pas recentrer le programme sur des notions, peut-être élémentaires, mais permettant de vrais problèmes de mathématiques ? Est-on obligé de jouer au moderne ?
Je précise que sur ces deux derniers points je n'ai pas de réponse absolue. Je veux bien croire que le monde (scientifique) évolue, mais à ce point là j'ai quand même des doutes.
- les intervalles en question, si l'on veut en tirer la substantifique moelle nécessitent un "background" proba/stat que la plupart des profs (et encore plus les élèves) sont loin de posséder, d'où un bricolage et une sensation d'à-peu-près fort désagréable (les mauvaises langues diront que c'était voulu, histoire de nous déposséder d'une quelconque expertise et de nous transformer en executants dociles), j'ai cru d'ailleurs comprendre que les spécialistes de la chose ne sont pas tous d'accord entre eux
- les exercices (de bac) utilisant ces intervalles (ou ceux sur la loi normale), sous couvert de "concret" et une fois débarrassés du verbiage qui les compose, se réduisent bien souvent à appliquer une formule et/ou à utiliser la boîte noire de la calculatrice, d'où finalement un intérêt assez pauvre d'un point de vue mathématique/logique/formation au raisonnement
- l'urgence à introduire ces notions (mais on pourrait parler aussi de l'algorithmique) était-elle si vitale qu'elle vaille le sacrifice de savoirs tels que barycentre, équations différentielles, transformations, etc ?
- ne pouvait-on pas recentrer le programme sur des notions, peut-être élémentaires, mais permettant de vrais problèmes de mathématiques ? Est-on obligé de jouer au moderne ?
Je précise que sur ces deux derniers points je n'ai pas de réponse absolue. Je veux bien croire que le monde (scientifique) évolue, mais à ce point là j'ai quand même des doutes.
- wanaxFidèle du forum
On parle bien de sujets pour des élèves pour qui dériver x-> x.exp(1-x) est une difficulté ? On discute du sexe des anges, là.Samuel DM a écrit:Je suis plutôt de formation probabiliste (donc pas trop stat) mais je vais essayer d'expliquer de mon mieux. Pas de jet de tomates svp
Intervalle de fluctuation : on part d'une modélisation probabiliste dont tous les paramètres sont connus (donc d'une variable avec une certaine loi) et on génère un intervalle déterministe (bornes non aléatoires dépendant des paramètres de la loi). Cet intervalle contient avec une probabilité fixée les réalisations de X.
Un exemple très simple est donné par l'inégalité de Tchebychev qui fournit un IF centré sur la moyenne : Si X est une variable aléatoire admettant une variance, pour tout e>0, P(|X-E(X)|>e) <= (Var(X))/e^2, et donc P(|X-E(X)| <= e) > 1- (Var(X))/e^2.
En notant I(e) l'intervalle [E(X)-e,E(X)+e], on peut réécrire l'inégalité en P( X appartient I(e) ) > 1-...
(...snip, sûrement très intéressant..)
L'avantage est que la démarche n'est pas asymptotique et ne suppose pas par exemple que l'on puisse répéter le sondage dans les mêmes conditions (infinité de variables iid etc).
- francois75Niveau 5
Je me demande qui sont les idiots qui ont pondu ces programmes de lycée.
- veyneNiveau 2
francois75 a écrit:Je me demande qui sont les idiots qui ont pondu ces programmes de lycée.
C'est une question tout à fait légitime qu'on ne se pose pas assez souvent. On devrait pouvoir demander des comptes aux responsables, je me trompe peut-être mais je crois que les programmes des années 70 par exemple étaient clairement signés, maintenant aucun nom n'apparait, à ce demander si ce n'est pas devenu une pratique honteuse.
Je crois que malheureusement on ne doit l'irruption de la statistique inférentielle dans nos programme qu'à la volonté d'une personne, un des universitaires membre du groupe de réflexion dont c'était la marotte (le sujet a été discuté sur le forum de les-mathematiques.net et images des mathématiques aussi)... pour la réforme du collège c'est Xavier Buff qui est aux commandes mais je ne pense pas que ce soit le responsable concernant la programmation et scratch là encore on subit les lubies d'une personne. Et c'est assez vertigineux si on pense à la masse d'élèves impactés. Enfin pour ce qui est de notre avis, totalement orienté par des questionnaires fermés... A ce rythme l'algèbre peut totalement disparaître de notre enseignement plus vite qu'on croît (le dernier sujet de brevet tombé est édifiant à ce titre http://www.apmep.fr/IMG/pdf/Brevet-AmeriqueDuNord-9juin-2016.pdf) et je ne vois pas ce qu'on peut y faire.
- Badiste75Habitué du forum
Sur le dernier sujet (Polynésie), je trouve la dernière question de proba particulièrement tirée par les cheveux (modélisation par une loi binomiale)... L'exercice sur les suites est une prise d'initiatives intéressante (mais pas évidente). Si ces sujets ont autant évolué, c'est surtout en vue de mettre des questions permettant de tester les différentes compétences définissant l'activité mathématique, compétences consécutives à la mise en place du socle. On veut limiter la place de la compétence calculer au profit des autres. Les sujets de brevet, dans le même état d'esprit, ont été au départ un ratage total (peu d'annales, profs de collèges pas à l'aise et premières tâches complexes trop longues et trop compliquées... Cf métropole juin 2014). Ils sont désormais plus raisonnables j'ai l'impression. Pour le bac, j'ai l'impression que c'est un peu la même chose et que ça pourrait se calmer quand on aura constaté qu'on tape trop haut pour l'élève moyen.
- AnaxagoreGuide spirituel
Après il faut savoir de quoi on discute: de ce qu'il faudrait faire pour redresser l'ensemble du système pour un enseignement solide et fécond ou de ce qu'il faut faire pour continuer à faire marcher le simulacre actuel en dépit du bon sens et en cachant la misère.
_________________
"De même que notre esprit devient plus fort grâce à la communication avec les esprits vigoureux et raisonnables, de même on ne peut pas dire combien il s'abâtardit par le commerce continuel et la fréquentation que nous avons des esprits bas et maladifs." Montaigne
"Woland fit un signe de la main, et Jérusalem s'éteignit."
"On déclame contre les passions sans songer que c'est à leur flambeau que la philosophie allume le sien." Sade
- MarieFNiveau 6
Au bac Liban, on tire sur des fils d'araignée, cette contextualisation tirée elle aussi par les cheveux a dû déstabiliser les élèves fragiles (ce sujet est loin d'être le pire)
http://labolycee.org/menugeo.php?s=1&annee=2016&pays=Liban#geo
Je pourrai ajouter mon indignation concernant les programmes de physique où ont été enlevés les fondamentaux : plus d'électricité , à l'examen, les sujets ne s'intéressent qu'aux systèmes soumis à une seule force (le poids) voire maximum 2. La notion d'addition des vecteurs n'est absolument pas maîtrisée. On leur fait calculer des incertitudes de mesures avec des formules qui sont données et dont ils doivent juste faire l'application numérique. Je vous jure que ça ne les passionne absolument pas. Ils sortent du lycée sans savoir les lois basiques de l'électricité et de la mécanique. L'exo "du skieur sur un plan incliné", ça ne risque pas tomber au bac, c'est ringard. Car ils ne sauraient pas faire. l'association de deux résistances en parallèle ou en série, les condensateurs et bobines, c'est pour bac+1. En relativité restreinte, on leur donne la formule, pour l'effet Doppler aussi. En chimie, on les assomme de chimie orga et on ne leur dit rien sur l'existence d'une constante d'équilibre. Le sujet de chimie centre étrangers est inadapté aux élèves de TS. Les gens de mauvaise foi pourront toujours vous dire le contraire mais ce sujet de biochimie me parait très difficile par rapport aux attendus du programme. Je pense que ce sont des chimistes voire des biochimistes qui ont fait le programme de TS et que les fondamentaux en physique comme en chimie minérale ont été balayés.
J'ai des retours d'élèves sérieux qui font des études de maths et physique, ils sont à la traîne derrière tous ceux qui ont fait un bac S SI ou S dans le privé ou dans des lycées de centre ville où ils ont eu droit à de l'approfondissement. On se moque de qui avec cette histoire d'égalité des chances alors que selon les lycées, les heures ne sont pas les mêmes ?
http://labolycee.org/menugeo.php?s=1&annee=2016&pays=Liban#geo
Je pourrai ajouter mon indignation concernant les programmes de physique où ont été enlevés les fondamentaux : plus d'électricité , à l'examen, les sujets ne s'intéressent qu'aux systèmes soumis à une seule force (le poids) voire maximum 2. La notion d'addition des vecteurs n'est absolument pas maîtrisée. On leur fait calculer des incertitudes de mesures avec des formules qui sont données et dont ils doivent juste faire l'application numérique. Je vous jure que ça ne les passionne absolument pas. Ils sortent du lycée sans savoir les lois basiques de l'électricité et de la mécanique. L'exo "du skieur sur un plan incliné", ça ne risque pas tomber au bac, c'est ringard. Car ils ne sauraient pas faire. l'association de deux résistances en parallèle ou en série, les condensateurs et bobines, c'est pour bac+1. En relativité restreinte, on leur donne la formule, pour l'effet Doppler aussi. En chimie, on les assomme de chimie orga et on ne leur dit rien sur l'existence d'une constante d'équilibre. Le sujet de chimie centre étrangers est inadapté aux élèves de TS. Les gens de mauvaise foi pourront toujours vous dire le contraire mais ce sujet de biochimie me parait très difficile par rapport aux attendus du programme. Je pense que ce sont des chimistes voire des biochimistes qui ont fait le programme de TS et que les fondamentaux en physique comme en chimie minérale ont été balayés.
J'ai des retours d'élèves sérieux qui font des études de maths et physique, ils sont à la traîne derrière tous ceux qui ont fait un bac S SI ou S dans le privé ou dans des lycées de centre ville où ils ont eu droit à de l'approfondissement. On se moque de qui avec cette histoire d'égalité des chances alors que selon les lycées, les heures ne sont pas les mêmes ?
_________________
Le désordre est le prix à payer pour l'organisation de l'univers.
L'uniformité est la source du chaos. (second principe)
- ZarathustraNiveau 7
wanax a écrit:
Eit : l'objectif des premiers est de plaire, celui des seconds est de détruire.
Je crois que la messe est dite. Il ne faut pas mettre sur le compte de la malveillance, ce qui relève de la connerie, mais il y a des limites à la connerie qui ne s'expliquent que par la malveillance. Quand les deux s'associent, cela devient terrifiant.
La pensée logique et abstraite est l'ennemi du totalitarisme, le flou et l'arbitraire son compagnon, il faut donc désosser l'apprentissage de toutes les matières qui forment l'esprit logique et critique. Si on peut le faire au nom de l'égalité, c'est encore mieux. Pendant des années, les exigences ont baissé, et maintenant le piège se referme: "vous, les professeurs, vous êtes visiblement pas à la hauteur, il faut que vous acceptiez le changement, car visiblement vos lettres de noblesse ne valent rien, regardez vous élèves échouer".
Le Ministère de la Vérité peut ainsi dicter le Vrai et vous êtes discrédités. D'ailleurs, il est en train de s'opposer à tout enseignement non estampillé "connerie officielle à faire avaler par le peuple". L'état totalitaire dans toute sa splendeur. Quand on tient l'enseignement, on tient le peuple.
Ce n'est pas seulement en mathématiques. Toutes les disciplines "élitistes" (c'est à dire, formant l'esprit solide, logique et abstrait) sont sabrées par le Ministère de la Vérité.
- AnaxagoreGuide spirituel
La gauche dit: il faut protéger le petit peuple de ce savoir qui lui fait violence.
La droite dit: rendons-les employables, ça ira bien.
La droite dit: rendons-les employables, ça ira bien.
_________________
"De même que notre esprit devient plus fort grâce à la communication avec les esprits vigoureux et raisonnables, de même on ne peut pas dire combien il s'abâtardit par le commerce continuel et la fréquentation que nous avons des esprits bas et maladifs." Montaigne
"Woland fit un signe de la main, et Jérusalem s'éteignit."
"On déclame contre les passions sans songer que c'est à leur flambeau que la philosophie allume le sien." Sade
- AnaxagoreGuide spirituel
Alors dans tout ça la réflexion sur les contenus...
_________________
"De même que notre esprit devient plus fort grâce à la communication avec les esprits vigoureux et raisonnables, de même on ne peut pas dire combien il s'abâtardit par le commerce continuel et la fréquentation que nous avons des esprits bas et maladifs." Montaigne
"Woland fit un signe de la main, et Jérusalem s'éteignit."
"On déclame contre les passions sans songer que c'est à leur flambeau que la philosophie allume le sien." Sade
- karmacomaJe viens de m'inscrire !
Bonjour, je lis avec intérêt vos échanges.
Pour ma part, je suis partagé : oui demander à un élève de Ts de réfléchir un minimum, c'est souhaitable et cela devrait guider notre enseignement. De manière plus pragmatique certains élèves ont déjà du mal avec les fondamentaux alors leur proposer de tels exercices, c'est trop. Concernant le sujet Centres étrangers, bcp de questions déstabilisent les élèves sérieux mais sans réelle marge de manœuvre. Par exemple, l'exo de probas n'est pas si simple (si vous n'avez pas bien compris la situation dans les conditionnelles, c'est fini). Le coup de la réciproque, c'est pas un cadeau non plus ! Pour les suites, demander la limite c'est trop aussi...(sans compter qu'on se demande après à quoi sert l'encadrement pour le u10 : il aurait fallu demander a...dans ce cas). Enfin l'exo non spé est trop effrayant surtout pour des élèves pas très à l'aise ! Ces calculs d'aires...La plupart de nos élèves ont du mal avec les nombres complexes et n'ont pas bien compris le concept...dans cet exercice c'est fini pour vous dans ce cas.
Bref des élèves sérieux et travailleurs, ont été un peu découragés et ça se comprend. D'autant plus qu'ils avaient subi la veille une épreuve de Phys difficile (surtout pour les non spé). Du coup les spé SVT ont subi deux épreuves pas très gérables pour eux.
Pour ma part, je suis partagé : oui demander à un élève de Ts de réfléchir un minimum, c'est souhaitable et cela devrait guider notre enseignement. De manière plus pragmatique certains élèves ont déjà du mal avec les fondamentaux alors leur proposer de tels exercices, c'est trop. Concernant le sujet Centres étrangers, bcp de questions déstabilisent les élèves sérieux mais sans réelle marge de manœuvre. Par exemple, l'exo de probas n'est pas si simple (si vous n'avez pas bien compris la situation dans les conditionnelles, c'est fini). Le coup de la réciproque, c'est pas un cadeau non plus ! Pour les suites, demander la limite c'est trop aussi...(sans compter qu'on se demande après à quoi sert l'encadrement pour le u10 : il aurait fallu demander a...dans ce cas). Enfin l'exo non spé est trop effrayant surtout pour des élèves pas très à l'aise ! Ces calculs d'aires...La plupart de nos élèves ont du mal avec les nombres complexes et n'ont pas bien compris le concept...dans cet exercice c'est fini pour vous dans ce cas.
Bref des élèves sérieux et travailleurs, ont été un peu découragés et ça se comprend. D'autant plus qu'ils avaient subi la veille une épreuve de Phys difficile (surtout pour les non spé). Du coup les spé SVT ont subi deux épreuves pas très gérables pour eux.
Page 2 sur 4 • 1, 2, 3, 4
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum