Page 3 sur 4 • 1, 2, 3, 4
- karmacomaJe viens de m'inscrire !
Bonjour, je lis avec intérêt vos échanges.
Pour ma part, je suis partagé : oui demander à un élève de Ts de réfléchir un minimum, c'est souhaitable et cela devrait guider notre enseignement. De manière plus pragmatique certains élèves ont déjà du mal avec les fondamentaux alors leur proposer de tels exercices, c'est trop. Concernant le sujet Centres étrangers, bcp de questions déstabilisent les élèves sérieux mais sans réelle marge de manœuvre. Par exemple, l'exo de probas n'est pas si simple (si vous n'avez pas bien compris la situation dans les conditionnelles, c'est fini). Le coup de la réciproque, c'est pas un cadeau non plus ! Pour les suites, demander la limite c'est trop aussi...(sans compter qu'on se demande après à quoi sert l'encadrement pour le u10 : il aurait fallu demander a...dans ce cas). Enfin l'exo non spé est trop effrayant surtout pour des élèves pas très à l'aise ! Ces calculs d'aires...La plupart de nos élèves ont du mal avec les nombres complexes et n'ont pas bien compris le concept...dans cet exercice c'est fini pour vous dans ce cas.
Bref des élèves sérieux et travailleurs, ont été un peu découragés et ça se comprend. D'autant plus qu'ils avaient subi la veille une épreuve de Phys difficile (surtout pour les non spé). Du coup les spé SVT ont subi deux épreuves pas très gérables pour eux.
Pour ma part, je suis partagé : oui demander à un élève de Ts de réfléchir un minimum, c'est souhaitable et cela devrait guider notre enseignement. De manière plus pragmatique certains élèves ont déjà du mal avec les fondamentaux alors leur proposer de tels exercices, c'est trop. Concernant le sujet Centres étrangers, bcp de questions déstabilisent les élèves sérieux mais sans réelle marge de manœuvre. Par exemple, l'exo de probas n'est pas si simple (si vous n'avez pas bien compris la situation dans les conditionnelles, c'est fini). Le coup de la réciproque, c'est pas un cadeau non plus ! Pour les suites, demander la limite c'est trop aussi...(sans compter qu'on se demande après à quoi sert l'encadrement pour le u10 : il aurait fallu demander a...dans ce cas). Enfin l'exo non spé est trop effrayant surtout pour des élèves pas très à l'aise ! Ces calculs d'aires...La plupart de nos élèves ont du mal avec les nombres complexes et n'ont pas bien compris le concept...dans cet exercice c'est fini pour vous dans ce cas.
Bref des élèves sérieux et travailleurs, ont été un peu découragés et ça se comprend. D'autant plus qu'ils avaient subi la veille une épreuve de Phys difficile (surtout pour les non spé). Du coup les spé SVT ont subi deux épreuves pas très gérables pour eux.
- wanaxFidèle du forum
On doit demander à un élève de TS de réfléchir à des questions intrinsèquement mathématiques, on ne doit pas lui demander d'interpréter un résultat ou de déchiffrer un énoncé où les données ont été plus ou moins bien dissimulées. L'essence des mathématiques est la manipulation 'désintéressée' d'objets abstraits pouvant décrire des situations réelles variées, disparates. Si la difficulté d'un sujet tient au lien entre la situation réelle étudiée et sa formalisation mathématique, ce n'est pas un sujet de mathématiques.karmacoma a écrit:Bonjour, je lis avec intérêt vos échanges.
Pour ma part, je suis partagé : oui demander à un élève de Ts de réfléchir un minimum, c'est souhaitable et cela devrait guider notre enseignement. De manière plus pragmatique certains élèves ont déjà du mal avec les fondamentaux alors leur proposer de tels exercices, c'est trop. Concernant le sujet Centres étrangers, bcp de questions déstabilisent les élèves sérieux mais sans réelle marge de manœuvre. Par exemple, l'exo de probas n'est pas si simple (si vous n'avez pas bien compris la situation dans les conditionnelles, c'est fini). Le coup de la réciproque, c'est pas un cadeau non plus ! Pour les suites, demander la limite c'est trop aussi...(sans compter qu'on se demande après à quoi sert l'encadrement pour le u10 : il aurait fallu demander a...dans ce cas). Enfin l'exo non spé est trop effrayant surtout pour des élèves pas très à l'aise ! Ces calculs d'aires...La plupart de nos élèves ont du mal avec les nombres complexes et n'ont pas bien compris le concept...dans cet exercice c'est fini pour vous dans ce cas.
Bref des élèves sérieux et travailleurs, ont été un peu découragés et ça se comprend. D'autant plus qu'ils avaient subi la veille une épreuve de Phys difficile (surtout pour les non spé). Du coup les spé SVT ont subi deux épreuves pas très gérables pour eux.
- wanaxFidèle du forum
On élimine donc de la physique ce qui est le plus abstrait, le plus conceptuel et fait appel au calcul. On y introduit des difficultés langagières, on y augmente l'importance de la chimie non calculatoire... voyons voyons, qui cela pourrait-il bien avantager au sein d'une classe ?MarieF a écrit:Au bac Liban, on tire sur des fils d'araignée, cette contextualisation tirée elle aussi par les cheveux a dû déstabiliser les élèves fragiles (ce sujet est loin d'être le pire)
http://labolycee.org/menugeo.php?s=1&annee=2016&pays=Liban#geo
Je pourrai ajouter mon indignation concernant les programmes de physique où ont été enlevés les fondamentaux : plus d'électricité , à l'examen, les sujets ne s'intéressent qu'aux systèmes soumis à une seule force (le poids) voire maximum 2. La notion d'addition des vecteurs n'est absolument pas maîtrisée. On leur fait calculer des incertitudes de mesures avec des formules qui sont données et dont ils doivent juste faire l'application numérique. Je vous jure que ça ne les passionne absolument pas. Ils sortent du lycée sans savoir les lois basiques de l'électricité et de la mécanique. L'exo "du skieur sur un plan incliné", ça ne risque pas tomber au bac, c'est ringard. Car ils ne sauraient pas faire. l'association de deux résistances en parallèle ou en série, les condensateurs et bobines, c'est pour bac+1. En relativité restreinte, on leur donne la formule, pour l'effet Doppler aussi. En chimie, on les assomme de chimie orga et on ne leur dit rien sur l'existence d'une constante d'équilibre. Le sujet de chimie centre étrangers est inadapté aux élèves de TS. Les gens de mauvaise foi pourront toujours vous dire le contraire mais ce sujet de biochimie me parait très difficile par rapport aux attendus du programme. Je pense que ce sont des chimistes voire des biochimistes qui ont fait le programme de TS et que les fondamentaux en physique comme en chimie minérale ont été balayés.
J'ai des retours d'élèves sérieux qui font des études de maths et physique, ils sont à la traîne derrière tous ceux qui ont fait un bac S SI ou S dans le privé ou dans des lycées de centre ville où ils ont eu droit à de l'approfondissement. On se moque de qui avec cette histoire d'égalité des chances alors que selon les lycées, les heures ne sont pas les mêmes ?
Tiens, je vais jouer moi aussi à faire un exercice de probas.
On choisit de façon aléatoire un élève dans une classe de Seconde, Première S ou Terminale S.
Sachant que cet élève aime la chimie, la biologie, a eu des notes correctes en français, mais déteste la géométrie, la mécanique, l'arithmétique...
Sachant que le connectome du cerveau de cet élève montre un grand nombre de connexions entre les deux hémisphères et un nombre faible de connexions à l'intérieur de ces hémisphères..
Je suis je suis...
- Samuel DMNiveau 6
wanax a écrit:
On doit demander à un élève de TS de réfléchir à des questions intrinsèquement mathématiques, on ne doit pas lui demander d'interpréter un résultat ou de déchiffrer un énoncé où les données ont été plus ou moins bien dissimulées. L'essence des mathématiques est la manipulation 'désintéressée' d'objets abstraits pouvant décrire des situations réelles variées, disparates. Si la difficulté d'un sujet tient au lien entre la situation réelle étudiée et sa formalisation mathématique, ce n'est pas un sujet de mathématiques.
Les probabilistes sont les premiers à déplorer la façon dont on les enseigne. Tout le monde est d'accord sur le fait que le seul cadre valable actuellement est celui de la théorie de la mesure avec une intégration performante. Ce n'est pas à la portée d'un élève de terminale.
Le programme de MPSI/MP qui est sensé faire suite à celui de TS revient aux probabilités discrètes et le travail se résume souvent à vérifier des convergences de séries...
Les probabilités, telles qu'enseignées en lycée, fournissent un moyen de ne plus démontrer, c'est tout bénef pour les pédagogistes excessifs !
- MarieFNiveau 6
En MPSI, les élèves doivent tout démontrer et l'orgie de chimie orga descriptive ne leur sert à rien. Là on leur demande enfin de réfléchir. Au bac de physique, on leur demande d'aller dénicher des données qui sont cachées un peu partout dans le sujet ou de prendre l'initiative d'attribuer une valeur numérique à une donnée manquante
exemples : hauteur d'un étage l'an dernier,
cette année : largeur d'une fenêtre ou d'un tronc d'arbre
exemples : hauteur d'un étage l'an dernier,
cette année : largeur d'une fenêtre ou d'un tronc d'arbre
_________________
Le désordre est le prix à payer pour l'organisation de l'univers.
L'uniformité est la source du chaos. (second principe)
- MoonchildSage
Pour l'exercice 3 (probabilités), partie A question 3, le corrigé actuellement proposé par l'APMEP (modélisation par une loi binomiale) me paraît tout simplement faux.Badiste75 a écrit:Sur le dernier sujet (Polynésie), je trouve la dernière question de proba particulièrement tirée par les cheveux (modélisation par une loi binomiale)... L'exercice sur les suites est une prise d'initiatives intéressante (mais pas évidente).
http://www.apmep.fr/IMG/pdf/Corrige_Detant_S_Polynesie_10_juin_2016.pdf
Il est basé sur l'utilisation du résultat de la question précédente qui "nous amène que en 15 minutes, la probabilité de voir une étoile filante est d’environ 0,95" (cela traduirait le fait que P(X < t)=0,95 pour t valant environ 15 ; j'y reviendrais plus loin). En découpant les 2 heures en 8 tranches de 15 minutes, le corrigé obtient une loi binomiale de paramètres n=8 et p=0,95 dont l'espérance est 8*0,95=7,6.
Mais si on reprend le même raisonnement avec 12 tranches de 10 minutes, alors P(X<10) est approximativement 0,86 et on aurait une loi binomiale de paramètres n=12 et p=0,86 dont l'espérance est 12*0,86 soit environ 10,3.
Et puis avec 24 tranches de 5 minutes, alors P(X<5) est approximativement 0,63 et on aurait une loi binomiale de paramètres n=24 et p=0,63 dont l'espérance est 24*0,63 soit environ 15,1.
Avec 120 tranches de 1 minute, alors P(X<1) est approximativement 0,18 et on aurait une loi binomiale de paramètres n=120 et p=0,18 dont l'espérance est 120*0,18 soit environ 21,6.
Etonnant non ?
En fait, P(X<15) est la probabilité que le temps d'attente pour voir une étoile filante soit inférieur à 15 minutes, mais ce n'est pas la probabilité de voir une étoile filante durant ces 15 minutes : l'événement (X<15) est réalisé aussi dans le cas où on a vu deux étoiles filantes (ou plus) au cours des 15 minutes et on n'est pas du tout dans le cadre d'une loi binomiale avec deux issues possibles (0 ou 1) sur la tranche concernée.
Avant de voir ce corrigé erroné, j'avais l'impression que la question n'était pas traitable avec les notions du programme puisqu'en fait il faudrait avoir recours à la variable aléatoire N égale au nombre de réalisations d'une loi exponentielle de paramètre 0,2 dans un intervalle de temps de taille 120 (en minutes), ce qui donne une loi de Poisson de paramètre 0,2*120=24 et donc une espérance de 24.
Je ne vais pas frimer, je savais juste qu'une loi de Poisson pouvait être définie comme le nombre de réalisations d'une loi exponentielle sur un intervalle de temps donné car c'est ainsi qu'on est censé la présenter dans les nouveaux programme de BTS - autant dire que les étudiants de ces sections ne capteront rien à une telle définition qui est largement plus difficile à appréhender qu'une définition avec une formule - et lorsque j'ai vu ce sujet de Bac, je suis allé faire un petit tour sur le web pour voir ce que je pouvais trouver à ce propos. La démonstration que j'ai dénichée passe par l'intermédiaire d'une loi Gamma et si, comme moi, vous ne l'avez pas étudiée, alors il faudra admettre le résultat :
http://math.univ-lyon1.fr/~gelineau/devagreg/Processus_Poisson.pdf
Ce qui est amusant, c'est que si on reprend le raisonnement du corrigé erroné de l'APMEP avec un intervalle de temps t qui tend vers 0, on utilise une loi binomiale de paramètres n=120/t (en supposant que cela donne un entier) et p=P(X < t)=1-exp(-0,2t) dont l'espérance est 120(1-exp(-0,2t))/t qui, lorsque t tend vers 0, a pour limite 120*0.2=24 et on obtient le bon résultat. Je pense que cela est dû aux propriétés qui définissent les processus de Poisson : sur un intervalle de temps très petit, la probabilité que le phénomène se produise strictement plus d'une fois est considérée comme nulle.
Tout cela n'est évidemment pas du niveau des élèves de terminale S, même si mon petit bricolage juste au-dessus (dont la validité me semble quand même douteuse) n'utilise finalement que des outils du programme. Le seul raisonnement compatible avec le programme qui me vient à l'idée ici est que le paramètre de la loi exponentielle suivie par X est de 0,2 et donc le temps moyen d'attente pour voir une étoile filante est de 1/0,2 soit 5 minutes ; ensuite on en déduirait qu'en 120 minutes, on voit en moyenne 120/5 c'est-à-dire 24 étoiles filantes.
Le résultat ainsi obtenu est correct, mais je dois dire que cette démarche avec une "inversion" de moyennes ne me satisfait pas vraiment ; c'est un peu le même problème qu'avec la question 5 de l'exercice 4 du sujet Liban 2015 grâce auquel j'avais découvert l'existence des lois binomiales négatives qui permettent de compter le nombres de réalisations d'une épreuve de Bernoulli nécessaires à l'obtention de n succès, alors que le corrigé de l'APMEP se contentait d'une loi binomiale usuelle et d'une "inversion" de moyenne pour obtenir le même résultat :
http://www.apmep.fr/IMG/pdf/S-LIBAN-06-2015Dumesnil.pdf
http://www.apmep.fr/IMG/pdf/Liban_S_mai_2015_Correction_APMEP_3.pdf
Quant à l'exercice 2 du sujet de Polynésie, celui sur les suites, sa question 1 n'est rien de plus que de la bureautique, ce qui tranche avec une question 2 qui demande effectivement une "prise d'initiative"... sauf que cette question 2 est en fait une situation classique souvent rencontrée au Bac avec habituellement des questions intermédiaires pour guider le raisonnement ; mais étant donné que la plupart des élèves n'ont aucune aisance dans le calcul algébrique, les questions intermédiaires prises isolément suffisent déjà à les mettre en difficulté, il est donc peu probable que ces élèves arrivent à prendre assez de recul sur la trame commune à tous ces exercices pour finalement être capables de la reconstituer par eux-mêmes (ce qui, là encore, est surtout une affaire d'entraînement et de répétition).
Dans ce sujet, il y a aussi plusieurs imprécisions dans la formulation des questions qui me semblent pouvoir mettre les candidats en difficulté ; j'y reviendrai peut-être un peu plus tard dans un autre message.
- Badiste75Habitué du forum
Bravo Moonchild. Encore une fois un post d'une grande qualité. Je trouvais le raisonnement de l'APMEP fumeux et en effet celui passant par l'espérance de la loi exponentielle que tu cites bien plus logique. Mais nul doute qu'à la réunion d'harmonisation, on mettra les points pour toute démarche intéressante, même fausse!!! :-)
- AnaxagoreGuide spirituel
Excellent Moonchild.
_________________
"De même que notre esprit devient plus fort grâce à la communication avec les esprits vigoureux et raisonnables, de même on ne peut pas dire combien il s'abâtardit par le commerce continuel et la fréquentation que nous avons des esprits bas et maladifs." Montaigne
"Woland fit un signe de la main, et Jérusalem s'éteignit."
"On déclame contre les passions sans songer que c'est à leur flambeau que la philosophie allume le sien." Sade
- BRNiveau 9
J'ai parcouru la discussion et, notamment, la distinction entre intervalle de fluctuation et intervalle de confiance. J'ai pris la peine de relire le très intéressant article de Jean-Pierre Raoult : intervalle de confiance, pourquoi tant de défiance ?, ce qui m'a permis de toucher du doigt une énorme difficulté occulté par les formules du programme.
L'intervalle de fluctuation au seuil alpha pour la loi normale d'espérance m et d'écart type sigma est l'intervalle centré en m telle que la probabilité de cet intervalle soit égal à alpha. Il est de la forme : où F_X désignant la fonction de répartition de la loi normale centrée réduite. Une valeur approchée de t_(95%) est le fameux 1.96 chéri des programmes (quoiqu'à tout prendre, 2 serait une valeur donnant en pratique les mêmes résultats).
Au programme du lycée, on considère un échantillon de n variable aléatoire iid suivant la loi de Bernoulli de paramètre p.
L'intervalle de confiance IC(f,t_a) associé à f au niveau de confiance t_a est l'ensemble des valeurs p telle que f appartient à l'intervalle de fluctuation IF(p,t_a), bref, il s'agit d'identifier l'ensemble des p tels que :
Comme l'écrit Jean Pierre Raoult :
La formule usuelle des intervalles de confiance est donc une formule approchée (alors que les intervalles de fluctuation pour la loi normale sont tout ce qu'il y a de plus rigoureux).
Dans le cadre d'un exercice où on souhaite valider l'hypothèse que p=0.5 alors qu'on a observé f=0.42, on peut utiliser indifféremment l'intervalle de fluctuation et l'intervalle de confiance, puisqu'en théorie, ils sont définis de façon duale et donneront la même réponse.
En pratique, c'est différent :
- on dispose d'une formule exacte pour l'intervalle de fluctuation si on utilise directement la loi binomiale,
- on dispose d'une formule asymptotique pour l'intervalle de fluctuation si on utilise l'approximation par une loi normale,
- on dispose d'une formule asymptotique approchée pour l'intervalle de confiance, où on cumule deux sources d'erreurs : l'approximation par une loi normale et l'inversion approximative de l'intervalle de fluctuation.
A tout prendre, je conseillerais donc d'abord la formule exacte pour l'intervalle de fluctuation avec la loi binomiale, puis la formule asymptotique pour l'intervalle de fluctuation, et enfin (pire possibilité) la formule de l'intervalle de confiance donnée dans le programme.
L'intervalle de fluctuation au seuil alpha pour la loi normale d'espérance m et d'écart type sigma est l'intervalle centré en m telle que la probabilité de cet intervalle soit égal à alpha. Il est de la forme : où F_X désignant la fonction de répartition de la loi normale centrée réduite. Une valeur approchée de t_(95%) est le fameux 1.96 chéri des programmes (quoiqu'à tout prendre, 2 serait une valeur donnant en pratique les mêmes résultats).
Au programme du lycée, on considère un échantillon de n variable aléatoire iid suivant la loi de Bernoulli de paramètre p.
L'intervalle de confiance IC(f,t_a) associé à f au niveau de confiance t_a est l'ensemble des valeurs p telle que f appartient à l'intervalle de fluctuation IF(p,t_a), bref, il s'agit d'identifier l'ensemble des p tels que :
Comme l'écrit Jean Pierre Raoult :
Le programme admet qu'en première approximation, l'inégalité inverse est à peu de choses près :
Reste une dernière étape technique pour obtenir les IC donnés dans le programme : inverser les fonctions A+ et A-...
La formule usuelle des intervalles de confiance est donc une formule approchée (alors que les intervalles de fluctuation pour la loi normale sont tout ce qu'il y a de plus rigoureux).
Dans le cadre d'un exercice où on souhaite valider l'hypothèse que p=0.5 alors qu'on a observé f=0.42, on peut utiliser indifféremment l'intervalle de fluctuation et l'intervalle de confiance, puisqu'en théorie, ils sont définis de façon duale et donneront la même réponse.
En pratique, c'est différent :
- on dispose d'une formule exacte pour l'intervalle de fluctuation si on utilise directement la loi binomiale,
- on dispose d'une formule asymptotique pour l'intervalle de fluctuation si on utilise l'approximation par une loi normale,
- on dispose d'une formule asymptotique approchée pour l'intervalle de confiance, où on cumule deux sources d'erreurs : l'approximation par une loi normale et l'inversion approximative de l'intervalle de fluctuation.
A tout prendre, je conseillerais donc d'abord la formule exacte pour l'intervalle de fluctuation avec la loi binomiale, puis la formule asymptotique pour l'intervalle de fluctuation, et enfin (pire possibilité) la formule de l'intervalle de confiance donnée dans le programme.
- AnaxagoreGuide spirituel
@Moonchild Sur les liens entre loi exponentielle et loi de poisson il me semble qu'il y a de quoi dans le livre de Walter Appel.
_________________
"De même que notre esprit devient plus fort grâce à la communication avec les esprits vigoureux et raisonnables, de même on ne peut pas dire combien il s'abâtardit par le commerce continuel et la fréquentation que nous avons des esprits bas et maladifs." Montaigne
"Woland fit un signe de la main, et Jérusalem s'éteignit."
"On déclame contre les passions sans songer que c'est à leur flambeau que la philosophie allume le sien." Sade
- BRNiveau 9
Moonchild a écrit:Pour l'exercice 3 (probabilités), partie A question 3, le corrigé actuellement proposé par l'APMEP (modélisation par une loi binomiale) me paraît tout simplement faux.Badiste75 a écrit:Sur le dernier sujet (Polynésie), je trouve la dernière question de proba particulièrement tirée par les cheveux (modélisation par une loi binomiale)... L'exercice sur les suites est une prise d'initiatives intéressante (mais pas évidente).
http://www.apmep.fr/IMG/pdf/Corrige_Detant_S_Polynesie_10_juin_2016.pdf
Il est basé sur l'utilisation du résultat de la question précédente qui "nous amène que en 15 minutes, la probabilité de voir une étoile filante est d’environ 0,95" (cela traduirait le fait que P(X < t)=0,95 pour t valant environ 15 ; j'y reviendrais plus loin). En découpant les 2 heures en 8 tranches de 15 minutes, le corrigé obtient une loi binomiale de paramètres n=8 et p=0,95 dont l'espérance est 8*0,95=7,6.
On peut raisonner plus rapidement de façon intuitive, sans trop se préoccuper de justifications mathématiques compliquées.
Le temps d'attente moyen avant de voir une étoile filante est égal à l'espérance de la loi exponentielle de paramètre 0.2, soit 1/0.2=5 minutes. Comme on attend en moyenne 5 minutes avant de voir une étoile filante, on s'attend à voir 24 étoiles filantes en 2 heures, puisque 2 heures = 24 x 5 minutes.
Le plus surprenant... c'est que ce raisonnement intuitif donne le bon résultat :-)
- ycombeMonarque
Ce sont des choses qui peuvent arriver, il faut rendre hommage à Denis Vergès pour son formidable travail sur ces annales et, en cas d'erreur (ou de doute), ne pas hésiter à le contacter. Il est très réactif:Moonchild a écrit:Pour l'exercice 3 (probabilités), partie A question 3, le corrigé actuellement proposé par l'APMEP (modélisation par une loi binomiale) me paraît tout simplement faux.Badiste75 a écrit:Sur le dernier sujet (Polynésie), je trouve la dernière question de proba particulièrement tirée par les cheveux (modélisation par une loi binomiale)... L'exercice sur les suites est une prise d'initiatives intéressante (mais pas évidente).
http://www.apmep.fr/IMG/pdf/Corrige_Detant_S_Polynesie_10_juin_2016.pdf
http://www.apmep.fr/_Denis-Verges_
Je lui ai déjà signalé une erreur dont nous avions parlé ici:
https://www.neoprofs.org/t91462p60-dnb-metropole-maths-2015#3341104
_________________
Assurbanipal: "Passant, mange, bois, divertis-toi ; tout le reste n’est rien".
Franck Ramus : "Les sciences de l'éducation à la française se font fort de produire un discours savant sur l'éducation, mais ce serait visiblement trop leur demander que de mettre leur discours à l'épreuve des faits".
- MoonchildSage
Oui bien sûr, ce sont des choses qui peuvent arriver, surtout lorsqu'on se fixe comme exigence d'être réactif et de fournir un corrigé le plus rapidement possible ; mais lorsqu'un énoncé induit une telle erreur de raisonnement chez un enseignant et qu'en plus la seule réponse abordable au niveau de l'examen a recours à un tour de passe-passe mathématiquement sujet à caution, cela montre qu'il y a tout de même un problème avec la manière dont le sujet a été conçu.ycombe a écrit:Ce sont des choses qui peuvent arriver, il faut rendre hommage à Denis Vergès pour son formidable travail sur ces annales et, en cas d'erreur (ou de doute), ne pas hésiter à le contacter. Il est très réactif:Moonchild a écrit:Pour l'exercice 3 (probabilités), partie A question 3, le corrigé actuellement proposé par l'APMEP (modélisation par une loi binomiale) me paraît tout simplement faux.Badiste75 a écrit:Sur le dernier sujet (Polynésie), je trouve la dernière question de proba particulièrement tirée par les cheveux (modélisation par une loi binomiale)... L'exercice sur les suites est une prise d'initiatives intéressante (mais pas évidente).
http://www.apmep.fr/IMG/pdf/Corrige_Detant_S_Polynesie_10_juin_2016.pdf
http://www.apmep.fr/_Denis-Verges_
Je lui ai déjà signalé une erreur dont nous avions parlé ici:
https://www.neoprofs.org/t91462p60-dnb-metropole-maths-2015#3341104
Pour continuer dans la critique de ce sujet de Polynésie, l'énoncé de l'exercice 1 cumule les imprécisions qui peuvent désorienter les candidats :
- Partie A, il y a deux courbes alors que l'énoncé n'utilise qu'une seule lettre pour ce qu'il faut implicitement comprendre comme étant une famille de fonctions dont le paramètre a été occulté (on peut aussi ajouter la maladresse du choix des noms : C pour la fonction qui est en fait une famille de fonctions, C_1 et C_2 pour les courbes avec pour seule différence entre les C une autre typographie qui dans sa transcription manuscrite risque de ressembler à la première) ;
- Partie A, après la question 1, l'énoncé précise "on dit souvent qu’une personne de faible corpulence subit plus vite les effets de l’alcool" et cette indication doit être utilisée pour répondre à la question suivante ainsi qu'à la 3b, le "on dit souvent" aurait donc dû être remplacé par "on admettra que" (normalement, on ne fait des maths à partir de on-dit...) ;
- Partie B, la dernière question demande de "Recopier et compléter le tableau de valeurs suivant en exécutant cet algorithme" mais le tableau ne comporte que les étapes 1 et 2 alors que l'exécution de l'algorithme s'arrête à l'étape 19, faut-il se contenter des deux premières étapes (ce qui n'a pas beaucoup de sens tel que la question est posée) ou décrire l'intégralité du déroulement de l'algorithme (c'est concrètement très laborieux) ?
On peut aussi ajouter à ça les "pièges" de l'exercice 4 :
- la proposition 1 qui appelle l'interprétation d'un argument du quotient de deux différences de nombres complexes (une propriété n'est pas clairement au programme, celui-ci mentionnant l'interprétation géométrique des arguments mais pas celle des opérations ; quant à la relation de Chasles sur les angles orientés, son statut officiel reste assez obscur) ou bien le détour soit par la recherche d'un coefficient de proportionnalité réel entre les affixes des vecteurs, soit par leurs coordonnées (mais la présence d'un radical induit alors une difficulté purement calculatoire alors qu'on pourrait mobiliser exactement le même raisonnement avec des coefficients entiers - donc, là, outre qu'on se trouve à la marge du programme, on est aussi sur une attente de technicité) ;
- les deux questions de géométrie dans l'espace qui partent dans deux directions différentes (section d'un prisme et géométrie analytique) en leur conférant un poids égal alors que dans le programme la géométrie analytique est proportionnellement beaucoup plus présente, sans compter que, compte tenu du temps imparti dans l'année, il n'est pas possible de bien entraîner les élèves aux questions de sections de prisme (là, il n'y a pas de secret, c'est la répétition de ce genre d'exercice qui permet d'apprendre les astuces qui permettent de les traiter), à moins de négliger une autre partie du programme ;
- l'exercice sur l'encadrement d'intégrale est assez vicieux car, contrairement à ce dit le corrigé de l'APMEP, on peut montrer que l'intégrale est majorée par 6 mais on ne peut pas obtenir a priori de meilleure minoration que 1, ce qui ne suffit pas à prouver rigoureusement que la minoration par 1,5 est incorrecte car pour ça il faudrait en fait fournir un contre-exemple qui n'est pas évident à définir explicitement sauf si on accepte une courbe grossièrement tracée en admettant que son intégrale peut être aussi proche que l'on veut de 1 (prendre une fonction continue avec les variations correspondant au tableau mais qui globalement se rapproche de la fonction indicatrice de l'intervalle [4;5] ; le contre exemple explicite le plus simple qui me vient à l'idée est, pour n entier assez grand, f(x)=3(3-x)^n sur [2;3], f(x)=(x-3)^n sur [3;4], f(x)=1+(x-4)^n sur [4;5]).
Bref, une fois de plus, ce sujet est totalement inadapté au profil moyen des élèves de terminale S de 2016 et appellera en définitive à valider des réponses très approximatives, allant ainsi à l'encontre de l'objectif d'une véritable formation en maths.
Cela me semble être un bon résumé de la situation.BR a écrit:J'ai parcouru la discussion et, notamment, la distinction entre intervalle de fluctuation et intervalle de confiance. J'ai pris la peine de relire le très intéressant article de Jean-Pierre Raoult : intervalle de confiance, pourquoi tant de défiance ?, ce qui m'a permis de toucher du doigt une énorme difficulté occulté par les formules du programme.
L'intervalle de fluctuation au seuil alpha pour la loi normale d'espérance m et d'écart type sigma est l'intervalle centré en m telle que la probabilité de cet intervalle soit égal à alpha. Il est de la forme : où F_X désignant la fonction de répartition de la loi normale centrée réduite. Une valeur approchée de t_(95%) est le fameux 1.96 chéri des programmes (quoiqu'à tout prendre, 2 serait une valeur donnant en pratique les mêmes résultats).
Au programme du lycée, on considère un échantillon de n variable aléatoire iid suivant la loi de Bernoulli de paramètre p.
L'intervalle de confiance IC(f,t_a) associé à f au niveau de confiance t_a est l'ensemble des valeurs p telle que f appartient à l'intervalle de fluctuation IF(p,t_a), bref, il s'agit d'identifier l'ensemble des p tels que :
Comme l'écrit Jean Pierre Raoult :
Le programme admet qu'en première approximation, l'inégalité inverse est à peu de choses près :
Reste une dernière étape technique pour obtenir les IC donnés dans le programme : inverser les fonctions A+ et A-...
La formule usuelle des intervalles de confiance est donc une formule approchée (alors que les intervalles de fluctuation pour la loi normale sont tout ce qu'il y a de plus rigoureux).
Dans le cadre d'un exercice où on souhaite valider l'hypothèse que p=0.5 alors qu'on a observé f=0.42, on peut utiliser indifféremment l'intervalle de fluctuation et l'intervalle de confiance, puisqu'en théorie, ils sont définis de façon duale et donneront la même réponse.
En pratique, c'est différent :
- on dispose d'une formule exacte pour l'intervalle de fluctuation si on utilise directement la loi binomiale,
- on dispose d'une formule asymptotique pour l'intervalle de fluctuation si on utilise l'approximation par une loi normale,
- on dispose d'une formule asymptotique approchée pour l'intervalle de confiance, où on cumule deux sources d'erreurs : l'approximation par une loi normale et l'inversion approximative de l'intervalle de fluctuation.
A tout prendre, je conseillerais donc d'abord la formule exacte pour l'intervalle de fluctuation avec la loi binomiale, puis la formule asymptotique pour l'intervalle de fluctuation, et enfin (pire possibilité) la formule de l'intervalle de confiance donnée dans le programme.
Personnellement, j'aurais une préférence pour la formule asymptotique de l'intervalle de fluctuation obtenu à partir d'une loi normale car elle est concrètement plus simple à mettre en oeuvre et, avec le théorème central limite, elle se généralise à d'autres contextes (test d'une hypothèse sur n'importe quelle moyenne et pas seulement sur une proportion) ; on perd certes en précision par rapport à la loi binomiale, mais on est de toute manière au royaume de l'incertitude et il ne faut pas oublier que la loi binomiale est elle-même une approximation dès que l'échantillon est en réalité prélevé sans remise.
Enfin à mon avis, cela arrive bien trop tôt dans le cursus de maths et je pense que, tant qu'à aborder ce domaine avec un public "généraliste", il faudrait faire un choix et ne surtout pas faire découvrir presque dans le même temps les intervalles de fluctuation et les intervalles de confiance car la nuance est trop subtile pour ne pas entraîner de confusion (je connais le problème pour devoir traiter depuis déjà plusieurs années en BTS les tests d'hypothèses et les intervalles de confiance : même avec des supports concrets basés sur des histoires de productions de pièces, même en séparant le chapitre sur l'estimation de celui sur les tests, les étudiants ne font font généralement aucune réelle distinction entre ces deux types d'intervalles dont les formules se ressemblent et dont la signification leur reste inaccessible).
- MarieFNiveau 6
le sujet de physique centres étrangers est très difficile, avec des données absentes et des questions qui relèvent plutôt de l'enseignement supérieur (allusion à l'expérience de Bertozzi sur les électrons relativistes). Les professeurs de terminale n'ont pas forcément le temps de traiter cette expérience qui est au programme de math sup. Les trois exos sont d'un niveau qui m'a surpris, voir les remarques des collègues de labolycée qui commentent avec des "compétences officielles" et des "compétences officieuses". Le sujet de chimie sur les sucres est très difficile, d'autant plus que les sucres ne sont plus traités explicitement dans le programme de chimie (c'était avant au programme de la spé physique).
_________________
Le désordre est le prix à payer pour l'organisation de l'univers.
L'uniformité est la source du chaos. (second principe)
- BRNiveau 9
Moonchild propose de façon très pragmatique de s'en tenir à l'intervalle de fluctuation asymptotique, qui se calcule de façon rassurante avec une formule exacte (au terme 1.96 près qui est une valeur approchée...) et explicite.
Pour ma part, je serais plus en accord avec Daniel Perrin qui milite dans la revue Statistique et Enseignement pour utiliser directement la loi binomiale : puisque, quoiqu'il arrive, tout finit toujours par des calculs à la calculatrice, autant utiliser directement la formule exacte, maintenant que nous disposons d'outils techniques capables de mener ces calculs facilement avec une précision suffisante. Soyons modernes !
Après les intervalles de fluctuation et les intervalles de confiance, on peut d'ailleurs corser encore les choses en définissant la notion d'intervalle de concentration au seuil alpha, qui est l'intervalle de plus petite taille de probabilité supérieure ou égale à alpha. Pour une loi binomiale de paramètre p différent de 0.5, cet intervalle est plus petit que l'intervalle de fluctuation (la loi n'étant pas symétrique, l'intervalle de concentration n'a pas de raison d'être centré sur l'espérance...) et est naturellement d'étendue plus petite que l'intervalle de fluctuation :-)
Nous pourrions donc demander que ce soit l'intervalle de concentration qui soit calculé en lieu et place de l'intervalle de fluctuation; puis à ce que l'intervalle de confiance soit également calculé de façon précise (par exemple par une méthode numérique de type Newton) en utilisant l'intervalle de concentration :-) Les vendeurs de clignotrices n'auront aucun mal à fournir les fonctions qui répondront en un clic aux problèmes d'étoiles filantes, d'Hadopi, de bille en bois, de lance balle ou de raton laveurs.
Pour ma part, je serais plus en accord avec Daniel Perrin qui milite dans la revue Statistique et Enseignement pour utiliser directement la loi binomiale : puisque, quoiqu'il arrive, tout finit toujours par des calculs à la calculatrice, autant utiliser directement la formule exacte, maintenant que nous disposons d'outils techniques capables de mener ces calculs facilement avec une précision suffisante. Soyons modernes !
Après les intervalles de fluctuation et les intervalles de confiance, on peut d'ailleurs corser encore les choses en définissant la notion d'intervalle de concentration au seuil alpha, qui est l'intervalle de plus petite taille de probabilité supérieure ou égale à alpha. Pour une loi binomiale de paramètre p différent de 0.5, cet intervalle est plus petit que l'intervalle de fluctuation (la loi n'étant pas symétrique, l'intervalle de concentration n'a pas de raison d'être centré sur l'espérance...) et est naturellement d'étendue plus petite que l'intervalle de fluctuation :-)
Nous pourrions donc demander que ce soit l'intervalle de concentration qui soit calculé en lieu et place de l'intervalle de fluctuation; puis à ce que l'intervalle de confiance soit également calculé de façon précise (par exemple par une méthode numérique de type Newton) en utilisant l'intervalle de concentration :-) Les vendeurs de clignotrices n'auront aucun mal à fournir les fonctions qui répondront en un clic aux problèmes d'étoiles filantes, d'Hadopi, de bille en bois, de lance balle ou de raton laveurs.
- IgniatiusGuide spirituel
J'avoue en effet m'interroger sur l'intérêt de l'approximation d'une binomiale par une normale alors que l'intervalle de fluctuation d'une binomiale est assez simple à calculer dès la Première.
Quel est le seul intérêt des pénibles Stats ? Je dirais l'aide à la décision.
Du coup, pourquoi passer autant de temps à tenter de faire comprendre les lois normales alors qu'on pourrait le passer à maîtriser la binomiale.
Ou faire des vraies maths, genre géométrie ou étude sérieuse de fonctions dans le cadre de l'optimisation.
Mais je rêve...
Quel est le seul intérêt des pénibles Stats ? Je dirais l'aide à la décision.
Du coup, pourquoi passer autant de temps à tenter de faire comprendre les lois normales alors qu'on pourrait le passer à maîtriser la binomiale.
Ou faire des vraies maths, genre géométrie ou étude sérieuse de fonctions dans le cadre de l'optimisation.
Mais je rêve...
_________________
"Celui qui se perd dans sa passion est moins perdu que celui qui perd sa passion."
St Augustin
"God only knows what I'd be without you"
Brian Wilson
- VinZTDoyen
Les probabilités sont de "vraies maths", pas le salmigondis qu'on nous fait enseigner.
Mais pour le coup, la théorie est assez loin des maths expérimentales...
Et comme on est dans le dogme du "observer, conjecturer, démontrer" (on aime à faire croire qu'on joue au chercheur), on n'est pas sortis de l'auberge.
Bien d'accord pour dire qu'on pourrait, dans un cadre élémentaire, s'en tenir au probabilités discrètes. Je trouve ainsi aberrant qu'un bachelier scientifique actuel soit incapable de calculer une combinaison à la main, ne sache pas ce qu'est une factorielle. Enfin zutre ! comment peut-on décemment prétendre faire des probas sans faire un peu de combinatoire ?
Mais pour le coup, la théorie est assez loin des maths expérimentales...
Et comme on est dans le dogme du "observer, conjecturer, démontrer" (on aime à faire croire qu'on joue au chercheur), on n'est pas sortis de l'auberge.
Bien d'accord pour dire qu'on pourrait, dans un cadre élémentaire, s'en tenir au probabilités discrètes. Je trouve ainsi aberrant qu'un bachelier scientifique actuel soit incapable de calculer une combinaison à la main, ne sache pas ce qu'est une factorielle. Enfin zutre ! comment peut-on décemment prétendre faire des probas sans faire un peu de combinatoire ?
_________________
« Il ne faut pas croire tout ce qu'on voit sur Internet » Victor Hugo.
« Le con ne perd jamais son temps. Il perd celui des autres. » Frédéric Dard
« Ne jamais faire le jour même ce que tu peux faire faire le lendemain par quelqu'un d'autre » Pierre Dac
« Je n'ai jamais lâché prise !» Claude François
« Un économiste est un expert qui saura demain pourquoi ce qu'il avait prédit hier ne s'est pas produit aujourd'hui. » Laurence J. Peter
- MoonchildSage
Il me semble que les intervalles de fluctuation tels qu'ils sont présentés en classe de première avec la loi binomiale ne sont pas non plus a priori centrés sur l'espérance. Sinon, j'ai peut-être lu un peu vite l'article de Daniel Perrin, mais j'ai l'impression que les intervalles de fluctuation et confiance qu'il propose dans le 4.2.3 sont en fait "unilatéraux" ; ai-je mal compris ?BR a écrit:Moonchild propose de façon très pragmatique de s'en tenir à l'intervalle de fluctuation asymptotique, qui se calcule de façon rassurante avec une formule exacte (au terme 1.96 près qui est une valeur approchée...) et explicite.
Pour ma part, je serais plus en accord avec Daniel Perrin qui milite dans la revue Statistique et Enseignement pour utiliser directement la loi binomiale : puisque, quoiqu'il arrive, tout finit toujours par des calculs à la calculatrice, autant utiliser directement la formule exacte, maintenant que nous disposons d'outils techniques capables de mener ces calculs facilement avec une précision suffisante. Soyons modernes !
Après les intervalles de fluctuation et les intervalles de confiance, on peut d'ailleurs corser encore les choses en définissant la notion d'intervalle de concentration au seuil alpha, qui est l'intervalle de plus petite taille de probabilité supérieure ou égale à alpha. Pour une loi binomiale de paramètre p différent de 0.5, cet intervalle est plus petit que l'intervalle de fluctuation (la loi n'étant pas symétrique, l'intervalle de concentration n'a pas de raison d'être centré sur l'espérance...) et est naturellement d'étendue plus petite que l'intervalle de fluctuation :-)
Nous pourrions donc demander que ce soit l'intervalle de concentration qui soit calculé en lieu et place de l'intervalle de fluctuation; puis à ce que l'intervalle de confiance soit également calculé de façon précise (par exemple par une méthode numérique de type Newton) en utilisant l'intervalle de concentration :-) Les vendeurs de clignotrices n'auront aucun mal à fournir les fonctions qui répondront en un clic aux problèmes d'étoiles filantes, d'Hadopi, de bille en bois, de lance balle ou de raton laveurs.
En fait, si la décision ne tenait qu'à moi, je reverrais carrément au supérieur tous ces intervalles, dans des modules de probabilités pour les matheux (en gros à partir de L3 si on veut pouvoir faire ça en toute rigueur) et dans des modules de maths appliquées pour les biologistes et les économistes (placés en fonction des besoins) ; à vouloir faire de la vulgarisation statistique dès la terminale S tout en maintenant un semblant de justification mathématique, on se plante sur les deux tableaux et, à mon avis, on fait pire que si on n'avait rien fait. Je suis convaincu que, par exemple, l'étude de la combinatoire est intellectuellement beaucoup plus formatrice en élargissant les modes de raisonnements rencontrés tout en pouvant être rattachée à des problèmes simples à énoncer (je me souviens que, lorsque j'étais lycéen, ce chapitre - comme celui de la géométrie dans l'espace - bouleversait un peu l'ordre établi et ce n'était pas toujours ceux qui étaient habituellement les plus à l'aise en maths qui avaient la meilleure perception des problèmes étudiés).
Quant à l'idée de se baser sur la loi binomiale pour construire des intervalles de concentration, j'aurais quelques réticences dues à un point de vue que j'admets être assez rigide : je souhaiterais limiter autant que possible dans les programmes du secondaire (et particulièrement en S où on est censé former les futurs mathématiciens) les "zones d'ombres" dans lesquelles c'est finalement l'usage d'une touche miracle de la calculatrice qui permet d'obtenir le résultat attendu car je ne crois pas qu'à ce niveau les élèves puissent arriver à une réelle compréhension d'ensemble des notions qui entrent en jeu lorsqu'ils sont confrontés à des "formules occultées" (pour moi cela s'apparente à retrouver un chemin alors qu'on aurait eu les yeux bandés pendant une grande partie du trajet).
A la rigueur je dirai que l'usage de la calculatrice pour la loi normale est un moindre mal dans la mesure où on peut facilement illustrer graphiquement les probabilités en expliquant que la calculatrice fait un calcul approché de l'aire concernée, mais je préférerais quand même qu'en S on en revienne à la table de la loi normale centrée réduite (comme en BTS avant refonte récente des programmes) qui permet d'arriver assez vite à une méthode générale de résolution valable pour quasiment tous les exercices du Bac (je pense en particulier à ceux qui demandent de retrouver un écart type). Mais, encore une fois, l'étude de la loi normale ne me paraît pas être une priorité au secondaire.
Et puis si on voulait vraiment faire une sensibilisation à la prise de décision statistique, la moindre des choses serait de commencer par définir les risques de première et de deuxième espèce qui sont justement les notions permettant d'éclairer les enjeux de ces procédures.
- BalthazaardVénérable
Parfaitement d'accord avec toi Moonchild
- IgniatiusGuide spirituel
Moi aussi !
L'intro massive des stats est une absurdité.
L'intro massive des stats est une absurdité.
_________________
"Celui qui se perd dans sa passion est moins perdu que celui qui perd sa passion."
St Augustin
"God only knows what I'd be without you"
Brian Wilson
- Badiste75Habitué du forum
Petit bémol pour ma part. Je suis complètement d'accord que d'un point de vue conceptuel c'est bien trop exigent et obscur pour les élèves de TS. Les démos sont très (trop?) compliquées. Néanmoins certains exercices d'application ont bien intéressé les élèves (classe faible) qui aiment bien l'aspect concret (même artificiel), notamment l'exercice classique des sondages Chirac, Jospin, le pen et de la surprise du résultat du premier tour des présidentielles de 2002. Je n'ai aucun spé maths dans ma classe et les chapitres comme la forme exponentielle d'un complexe et/ou le produit scalaire dans l'espace ne les intéresse pas du tout. Leur attention va dans le même sens. C'est le côté positif que j'ai pu observer, j'essaye juste d'encore un peu positiver, ça m'aide à me lever le matin et à y croire encore...
- ben2510Expert spécialisé
Le corrigé de Polynésie a été corrigé sur le site de l'APMEP.
Par ailleurs, d'accord avec Moonchild sur la pertinence de l'utilisation d'une table de la loi normale centrée réduite en TS ; d'ailleurs c'est l'outil que beaucoup utiliseront dans le supérieur.
Dans mon lycée, nous commençons ainsi ; ensuite nous montrons aux élèves comment retrouver les valeurs de cette table avec leur calculatrice.
J'irai même jusqu'à dire qu'une table de cosinus et une table de logarithmes sont utiles pour commencer les notions (ne serait-ce que pour pouvoir parler d'interpolation linéaire).
Par ailleurs, d'accord avec Moonchild sur la pertinence de l'utilisation d'une table de la loi normale centrée réduite en TS ; d'ailleurs c'est l'outil que beaucoup utiliseront dans le supérieur.
Dans mon lycée, nous commençons ainsi ; ensuite nous montrons aux élèves comment retrouver les valeurs de cette table avec leur calculatrice.
J'irai même jusqu'à dire qu'une table de cosinus et une table de logarithmes sont utiles pour commencer les notions (ne serait-ce que pour pouvoir parler d'interpolation linéaire).
_________________
On fait la science avec des faits, comme on fait une maison avec des pierres : mais une accumulation de faits n'est pas plus une science qu'un tas de pierres n'est une maison. Henri Poincaré La notion d'équation différentielle est le pivot de la conception scientifique du monde. Vladimir Arnold
- Vincent83Niveau 6
veyne a écrit:Comme chaque année maintenant les deux dernières semaines de cours se résument avec mes terminales à plancher sur les derniers sujets tombés et je constate sur ceux de 2016 une accumulation de difficultés plutôt inédites... Je passe sur l'artificialité maintenant récurrente de certains exercices sensés rendre nos mathématiques plus pratiques et utilitaires c'est souvent à pleurer, le problème majeur pour moi c'est le niveau attendu : très peu de questions rassurantes par exemples et mes élèves d'un niveau pourtant globalement honnête s'arrêtent régulièrement dès la première question, certaines semblent parfois inabordables je pense en particulier à la question B.1. de l'exercice 2 d'Amerique du nord :
http://www.apmep.fr/IMG/pdf/S_Amerique_du_Nord_1_juin_2016-2.pdf
La dite question ainsi formulée -bien qu'intéressante- est effectivement déroutante. Il est hallucinant qu'un tel sujet ne soit pas relu et s'il l'est c'est encore pire ;-)
Il aurait "suffit" de prendre une fonction dont la réciproque est "facilement" explicitable. Ou au moins de choisir pour f(x) un valeur pour laquelle un antécédent naturel (?) saute aux yeux.
Etudiant je n'aurais pas apprécié -en plus sur une épreuve couperet- ce genre d'approximation.
Bref du boulot d'amateur ni fait ni à faire, autant faire faire des études de fonctions à l'ancienne plutôt que des tentatives miteuses d'originalité et de situation problème à la noix, on aura peut-être des étudiants suffisamment aguerris pour continuer leurs études scientifiques...
- leskhalNiveau 9
J'attaquai cette question dans les mêmes conditions que mes élèves (sans préparation) et ils ont dû être surpris de me voir dérouté.Vincent83 a écrit:veyne a écrit:Comme chaque année maintenant les deux dernières semaines de cours se résument avec mes terminales à plancher sur les derniers sujets tombés et je constate sur ceux de 2016 une accumulation de difficultés plutôt inédites... Je passe sur l'artificialité maintenant récurrente de certains exercices sensés rendre nos mathématiques plus pratiques et utilitaires c'est souvent à pleurer, le problème majeur pour moi c'est le niveau attendu : très peu de questions rassurantes par exemples et mes élèves d'un niveau pourtant globalement honnête s'arrêtent régulièrement dès la première question, certaines semblent parfois inabordables je pense en particulier à la question B.1. de l'exercice 2 d'Amerique du nord :
http://www.apmep.fr/IMG/pdf/S_Amerique_du_Nord_1_juin_2016-2.pdf
La dite question ainsi formulée -bien qu'intéressante- est effectivement déroutante. Il est hallucinant qu'un tel sujet ne soit pas relu et s'il l'est c'est encore pire ;-)
Il aurait "suffit" de prendre une fonction dont la réciproque est "facilement" explicitable. Ou au moins de choisir pour f(x) un valeur pour laquelle un antécédent naturel (?) saute aux yeux.
Etudiant je n'aurais pas apprécié -en plus sur une épreuve couperet- ce genre d'approximation.
Bref du boulot d'amateur ni fait ni à faire, autant faire faire des études de fonctions à l'ancienne plutôt que des tentatives miteuses d'originalité et de situation problème à la noix, on aura peut-être des étudiants suffisamment aguerris pour continuer leurs études scientifiques...
Je cherchai désespérément à trouver une astuce pour trouver une valeur exacte puis je me suis raccroché à l'approximation demandée, et c'est apparemment ce qu'il fallait faire. Maintenant qu'on le sait, on peut faire ce genre de saleté dans une exercice de mathématiques de bac. Bon. Je trouve une certaine forme de contrat rompu : si je suis dérouté, je n'ose pas imaginer les réactions des candidats qui n'ont pas redoublé autant de fois que moi...
_________________
- Samuel DMNiveau 6
Pour moi c'est une question "à prise d'initiatives" qui n'a pas vraiment sa place au début de la partie B d'un problème... On a tous des élèves impressionnables qui, s'ils ne savent faire la première question d'une partie, ne toucheront pas les suivantes...
A mon avis l'auteur ne voulait pas proposer en sous-question de déterminer l'unique antécédent par f et d'utiliser la valeur approchée pour répondre.
A mon avis l'auteur ne voulait pas proposer en sous-question de déterminer l'unique antécédent par f et d'utiliser la valeur approchée pour répondre.
Page 3 sur 4 • 1, 2, 3, 4
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum