Page 2 sur 2 • 1, 2
- mathmaxExpert spécialisé
Matheod a écrit:Bon déjà ya des bugs, le bouton descriptif me dit que c'est la compétence calculer et le bouton positionnement raisonner. Il faudrait savoir !
----
edit : ça va se ramasser sur cette question :
Pour chacune des affirmations suivantes, cocher Vrai ou Faux
S'il y a du soleil, alors il fait chaud.
Si un nombre entier est divisible par 5, alors ce nombre est divisible par 10.
Si un quadrilatère est un parallélogramme, alors ses côtés opposés sont de même longueur.
Si AI = IB, alors le point I est le milieu du segment [AB].
C’est quoi la bonne réponse ? Ça dépend des pays, des climats. Je n’aurais pas su quoi répondre.
- kyuNiveau 5
Perte de temps et d’énergie. Chez nous personne n’utilise ces tests.
Outre les questions bidons, leurs fiabilités laissent assez perplexes.
De nombreux élèves se retrouvent avec un niveau satisfaisant alors que le niveau réel est catastrophique et parfois (plus rarement) c’est l’inverse.
Les conditions dans lesquelles ces tests sont passés doit pas mal jouer aussi. Bien que les questions soient mélangées j’ai vu à plusieurs reprises deux élèves assis côte à côté avoir le même écran et ils ne se gênent pas pour observer l’écran du voisin.
Il y a un examen nationale qui est organisé en fin de troisième qui me semble être bien plus fiable en terme d’évaluation du niveau (même s’il est loin d’être parfait)
Et au fait à quoi servent toutes ces compétences qu’on fait remplir à nos collègues du collège ? Ne devaient elles pas justement servir à évaluer de façon fine les compétences (comme le nom l’indique) ?
Ou alors elles aussi sont bidons et ils le savent ?
Outre les questions bidons, leurs fiabilités laissent assez perplexes.
De nombreux élèves se retrouvent avec un niveau satisfaisant alors que le niveau réel est catastrophique et parfois (plus rarement) c’est l’inverse.
Les conditions dans lesquelles ces tests sont passés doit pas mal jouer aussi. Bien que les questions soient mélangées j’ai vu à plusieurs reprises deux élèves assis côte à côté avoir le même écran et ils ne se gênent pas pour observer l’écran du voisin.
Il y a un examen nationale qui est organisé en fin de troisième qui me semble être bien plus fiable en terme d’évaluation du niveau (même s’il est loin d’être parfait)
Et au fait à quoi servent toutes ces compétences qu’on fait remplir à nos collègues du collège ? Ne devaient elles pas justement servir à évaluer de façon fine les compétences (comme le nom l’indique) ?
Ou alors elles aussi sont bidons et ils le savent ?
- PrezboGrand Maître
PrCosinus a écrit:Je ne pense pas que ces tests soient inutiles. Pour vous oui, pour les élèves oui.
Mais pour le ministère, les résultats sont une mine d'or pour le pilotage des programmes, pour identifier les points forts, les points faibles, l'influence d'événements comme le covid ou une réforme des programmes.
Je te pense très idéaliste si tu t'imagines que les résultats de ces tests finiront ailleurs que dans un placard, et encore plus qu'ils influeront le pilotage des programmes ( ce dernier m'ayant toujours donné l'impression de se faire à la godille). Mais quand bien même on trouverait utile d'avoir des tests standardisés au niveau national pour disposer de statistiques, cela ne répondrait pas aux autres critiques : test passé moins de trois mois après un brevet des collèges déjà national et dont on pourrait exploiter les résultats, sujets opaques avec des items de niveaux disparates et des formulations de qualité douteuse, résultats sous forme d'évaluation par compétences inexploitables...
Si on ajoute que ce truc qui désorganise le début d'année a probablement été l'objet d'un lucratif marché privé, il y a de quoi être agacé.
- LaugarithmeFidèle du forum
Je suis d'accord avec toi. Il peut très bien manquer un renseignement sur la figure, ou un raisonnement à faire, pour conclure à l'égalité des longueurs.blackjj a écrit:Bonjour,
je viens de faire la série donnée en exemple pour le test de positionnement.
Et j'ai eu un doute sur une question : sur une figure avec du codage de longueur sur différents segments, je me demande si un codage différent implique une longueur différente.
Pour moi, c'est non. Si le codage est identique, les longueurs sont identiques, mais si le codage est différent (si on ne se fit qu'au codage), je ne peux pas dire que les longueurs sont différentes (c'est une possibilité mais pas une certitude).
Est-ce que je me trompe ?
- mathmaxExpert spécialisé
Notre proviseur veut parler en conseil pédagogique de l’exploitation des résultats de ces évaluations. Je crains pour lui un moment de solitude.
_________________
« Les machines un jour pourront résoudre tous les problèmes, mais jamais aucune d'entre elles ne pourra en poser un ! »
Albert Einstein
- PrCosinusNiveau 7
Comme toujours, quand on se demande à quoi ça sert, c'est probablement qu'il y a une directive européenne derrière ....Prezbo a écrit:PrCosinus a écrit:Je ne pense pas que ces tests soient inutiles. Pour vous oui, pour les élèves oui.
Mais pour le ministère, les résultats sont une mine d'or pour le pilotage des programmes, pour identifier les points forts, les points faibles, l'influence d'événements comme le covid ou une réforme des programmes.
Je te pense très idéaliste si tu t'imagines que les résultats de ces tests finiront ailleurs que dans un placard, et encore plus qu'ils influeront le pilotage des programmes ( ce dernier m'ayant toujours donné l'impression de se faire à la godille). Mais quand bien même on trouverait utile d'avoir des tests standardisés au niveau national pour disposer de statistiques, cela ne répondrait pas aux autres critiques : test passé moins de trois mois après un brevet des collèges déjà national et dont on pourrait exploiter les résultats, sujets opaques avec des items de niveaux disparates et des formulations de qualité douteuse, résultats sous forme d'évaluation par compétences inexploitables...
Si on ajoute que ce truc qui désorganise le début d'année a probablement été l'objet d'un lucratif marché privé, il y a de quoi être agacé.
_________________
"Quand les gens sont d'accord avec moi, j'ai toujours le sentiment que je dois me tromper." O.Wilde
- MathadorEmpereur
Eurostat ne se contente pas de commanditer des enquêtes statistiques: s'ils s'y intéressent, c'est pour ensuite chercher à cadrer suffisamment les enquêtes nationales afin de faire des statistiques à l'échelle européenne et des comparaisons entre pays.
_________________
"There are three kinds of lies: lies, damned lies, and statistics." (cité par Mark Twain)
« Vulnerasti cor meum, soror mea, sponsa; vulnerasti cor meum in uno oculorum tuorum, et in uno crine colli tui.
Quam pulchrae sunt mammae tuae, soror mea sponsa! pulchriora sunt ubera tua vino, et odor unguentorum tuorum super omnia aromata. » (Canticum Canticorum 4:9-10)
- beaverforeverNeoprof expérimenté
Le brevet ne permet pas de récupérer des données fines sur les élèves, on peut juste remonter une note. Par ailleurs, il pose des problèmes classiques de docimologie : l'effet correcteur rajoute du bruit qu'il faudrait précisément évaluer pour s'assurer que le nombre parvient à en gommer les effets. (Mais cette réduction du bruit n'agira que sur la moyenne et pas sur les résultats individuels des élèves, or c'est le niveau individuel que le test de positionnement cherche à mesurer).Prezbo a écrit:PrCosinus a écrit:Je ne pense pas que ces tests soient inutiles. Pour vous oui, pour les élèves oui.
Mais pour le ministère, les résultats sont une mine d'or pour le pilotage des programmes, pour identifier les points forts, les points faibles, l'influence d'événements comme le covid ou une réforme des programmes.
Je te pense très idéaliste si tu t'imagines que les résultats de ces tests finiront ailleurs que dans un placard, et encore plus qu'ils influeront le pilotage des programmes ( ce dernier m'ayant toujours donné l'impression de se faire à la godille). Mais quand bien même on trouverait utile d'avoir des tests standardisés au niveau national pour disposer de statistiques, cela ne répondrait pas aux autres critiques : test passé moins de trois mois après un brevet des collèges déjà national et dont on pourrait exploiter les résultats, sujets opaques avec des items de niveaux disparates et des formulations de qualité douteuse, résultats sous forme d'évaluation par compétences inexploitables...
Si on ajoute que ce truc qui désorganise le début d'année a probablement été l'objet d'un lucratif marché privé, il y a de quoi être agacé.
Le test de positionnement a des conditions de passage et de correction nettement plus standardisées, ce qui limite lourdement le bruit.
Ensuite tu soulignes que les questions sont biaisées (mal formulées, mal calibrées). Il est vrai qu'il n'existe pas de test parfait, mais normalement, dans ce type d'approche édumétrique chaque item voit sa distribution des réponses analysée. Le but est d'avoir des items réussis par certains publics et ratés par d'autres, ce qui permet de créer des groupes d'élèves. Une question mal formulée peut avoir un fort pouvoir discriminant, si elle oblige l'élève à faire un raisonnement autonome, une inférence, un transfert, ce qui permettra en pratique de créer un groupe "sait mobiliser sa pensée méthodique en cas de question ambiguë". Une question plus claire et donc étayant le raisonnement de l'élève aurait été moins discriminante et donc moins utile dans le test.
Pour le caractère inexploitable pour les enseignants je suis complètement d'accord avec toi : tous nos élèves ou presque, se retrouvent dans "satisfaisant". Or nous voyons de grande différence de niveau entre ces élèves. Cependant je pense que nous sommes un peu aveuglés par un effet établissement. Quand on regarde les synthèses nationales produites par la DEPP, on s'aperçoit que les niveaux des établissements sont très disparates, il existe des établissements où le niveau moyen des élèves est faible. Ces informations pourraient (devraient ? sont ?) être une mine d'or pour la gestion du système éducatif car elles permettent de voir les inégalités de niveau des élèves (à l'échelle nationale). Mais effectivement, on peut douter que toutes ces données sont utilisées efficacement quand on connaît le passif du ministère.
Pour ce qui est de la conception des tests, j'avais regardé les CV des signataires des études, et bon, j'avais été étonné du faible niveau de formation initiale en statistique : en gros, à part une polytechnicienne, personne ne semblait avoir fait des math en profondeur. Je n'ai peut être pas tout vu, mais j'ai trouvé cela étonnant. Par ailleurs, il ne me semble pas qu'un laboratoire d'édumétrie ait été associé à ce travail (alors que la DEPP a une tradition dans ces collaborations scientifiques). Il existe pourtant des laboratoires réputés en Belgique.
- IphigénieProphète
Depuis que l’on fait des tests( années 90) conçus par le ministère les programmes et les niveaux s’effondrent en ligne constante: on peut raisonnablement en conclure qu’ils sont inutiles ou néfastes ou inadaptés, ou mal conçus sauf optimisme vraiment farouche. Mais pendant qu’on y travaille qu’on en parle qu’on les traduit en statistiques ça donne l’impression que l’on agit : inutilement, mais on agit, et on communique. ( c’est plus simple et un fine moins coûteux que s’attaquer vraiment aux difficultés manifestes)
- MathadorEmpereur
Bienvenue dans le monde des SSM (Services Statistiques Ministériels)…beaverforever a écrit:Pour ce qui est de la conception des tests, j'avais regardé les CV des signataires des études, et bon, j'avais été étonné du faible niveau de formation initiale en statistique : en gros, à part une polytechnicienne, personne ne semblait avoir fait des math en profondeur. Je n'ai peut être pas tout vu, mais j'ai trouvé cela étonnant. Par ailleurs, il ne me semble pas qu'un laboratoire d'édumétrie ait été associé à ce travail (alors que la DEPP a une tradition dans ces collaborations scientifiques). Il existe pourtant des laboratoires réputés en Belgique.
Ces services sont sous l'autorité hiérarchique du ministère dont ils font partie, et leur personnel est constitué majoritairement de personnel du ministère, abondé par des agents « prêtés » par l'INSEE afin d'apporter l'expertise statistique (affectation 100% statutaire, sans qu'il n'y ait de détachement). C'est le cas entre autres de la collègue que tu mentionnes, qui pourrait tout aussi bien muter vers l'INSEE ou la DARES que vers un autre poste à la DEPP.
_________________
"There are three kinds of lies: lies, damned lies, and statistics." (cité par Mark Twain)
« Vulnerasti cor meum, soror mea, sponsa; vulnerasti cor meum in uno oculorum tuorum, et in uno crine colli tui.
Quam pulchrae sunt mammae tuae, soror mea sponsa! pulchriora sunt ubera tua vino, et odor unguentorum tuorum super omnia aromata. » (Canticum Canticorum 4:9-10)
Page 2 sur 2 • 1, 2
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum