Overblog
Suivre ce blog Administration + Créer mon blog

Recherche

*****

Les aides en vidéo

Philippe Mercier

 

Son forum d'aide

 

calculette scientifique
Wiris

flèches vers

Articles Récents

Des rubriques et des lieux

21 mai 2018 1 21 /05 /mai /2018 16:49

En rapport avec les 10 exercices proposés ici 

Je donne ici le programme générateur qui permet de produire ce type d'exercices.

A savoir des programmes de calcul qui correspondent à des situations de proportionnalité.

 

Un exemple complet : (Il y a la possibilité de simuler l'entrée d'autres valeurs que celles demandées et figurant dans la correction)

Le curseur sert à développer la correction pas à pas

La position 14 fait apparaître le rectangle de simulation d'autres valeurs.

 

Partager cet article

Repost0
20 mai 2018 7 20 /05 /mai /2018 22:54

Un exercice classique utilisant deux programmes de calcul.

La correction est ici proposée avec un simulateur permettant de faire varier le nombre choisi
et de voir les résultats des étapes intermédiaires.

Pour choisir le nombre de départ il faut utiliser le curseur vert Nombre

 

 

Partager cet article

Repost0
19 mai 2018 6 19 /05 /mai /2018 16:12

Au brevet 2018 qu'ont passé récemment les candidats de Pondichéry, l'exercice consacré aux transformations nécessité des connaissances (assez minimes) sur la translation.

Tout partait d'un motif utilisé pour une frise, nommé "Pieds de coq" 

 (Le motif "Pieds de poule est plus fin, plus utilisé ... mais plus complexe)

 

L'exercice :

Un outil de simulation pour répondre à la première et à la seconde question.

En utilisant le curseur "Motif" on peut, notamment si l'on place ce motif de base* de façon à obtenir une figure ayant un axe de symétrie, montrer que l'aire d'un motif "pied de coq" est

4 X 4 /2 unités de surface.
Soit ici 8 cm²

__

* Le quadrillage unitaire qui se répète et permet de remplir une surface.

Partager cet article

Repost0
18 mai 2018 5 18 /05 /mai /2018 23:33

Un petit exercice qui met en jeu

- écriture d'un nombre
- équations
- diviseurs
- nombres premiers entre eux

Avec sa solution pas à pas
et
un outil pour faire des essais (simuler les valeurs)

 

Au-delà du résultat

Dans cet exercice on peut voir que la recherche par tâtonnement est aussi intéressante du point de vue de la stratégie (si ce n'est plus) que la recherche par résolution de l'équation.

En effet, par essai de calcul, on voit très vite que les deux chiffres doivent très proches.
On déduit également de l'équation que A est Plus petit que B.
Ce qui limite le périmètre de recherche et permet d'aboutir après très peu d'essais.

Ces stratégies peuvent par ailleurs être considérées comme plus susceptibles de généralisation dans des problèmes du quotidien que les savoirs utilisés dans la démonstration.

Ce qui n'est pas sans conséquence sur :
Que doivent apprendre les mathématiques ? 
Jusqu'à quel niveau de maîtrise ? (Jusqu'où insister ... enfoncer le clou ?)
Quel dosage entre les approches par tâtonnement et la résolution de problème par démonstration ?

Lorsque je vois les difficultés des élèves à penser avec la partie intégrée à leur conscience de leurs savoirs, il me semble que le curseur est actuellement bien trop d'un côté et que l'on insiste bien trop pour apprendre à des enfants le plus souvent en échec dans l'approche "démonstration" ce qui ne sera jamais qu'un substrat étranger et perturbateur dans le fonctionnement de leur pensée.

Voir "Ces enfants empêchés de penser"

Extrait :

A propos de l'enseignement des mathématiques, me revient la fin d'une inspection au cours de laquelle je me suis vu reproché le fait de ne pas avoir, lors de l'introduction aux fonctions (troisièmes), de ne pas avoir fixé le vocabulaire (je l'ai donné sans le faire noter comme leçon sur le cahier de cours)

Mes dernières paroles à l'inspecteur furent alors :

"Monsieur nous n'avons pas la même conception de l'enseignement.
En ce qui me concerne, je ne conçois l'apprentissage d'une notion qu'après 
- Une phase de sensibilisation : s'appuyer sur les expériences et savoirs internes (au-delà des couches de savoirs posés non assimilés) pour susciter l'intérêt.

- Une phase d'information, analogue à une visite rapide d'un site archéologique (Survol de l'ensemble de la notion - premier motif de ce que l'on nomme l'apprentissage spiralaire)"...

C'est alors que l'on peut passer à l'apprentissage de la notion, 

suivi, lorsque c'est utile, (ce ne l'est pas toujours dans l'année ... mais plus tard, et peut-être pas pour tous les élèves) par la phase de maîtrise. (Etre capable de faire sans plus passer par la compréhension des étapes ...
La dernière phase, réservée aux apprentissages essentiels étant l'expertise. Lorsque le geste est intégré à la main, comme pour l'écriture.

Sans ces différentes phases, sauf pour quelques élèves "myopes", l'apprentissage ne peut être réellement intégré à ce que comprend et sait l'élève.
Il sert uniquement alors , pendant la durée des études (voire même uniquement jusqu'au contrôle) à être efficient.

Partager cet article

Repost0
17 mai 2018 4 17 /05 /mai /2018 22:43

Pour visualiser le tirage produit par une loterie de fête foraine.

Le dessin est emprunté à l'exercice de probabilité du brevet 2018 passé à Pondichéry très récemment.

 

La situation est tout à fait analogue à celle de la loterie de fête foraine. 
Les questions sont très abordables.

La seule difficulté de la dernière consiste à argumenter (par un calcul de probabilité !?) sur le fait qu'à chaque tirage, la probabilité reste la même pour chaque nombre.

Le tirage n'a pas de mémoire ! ... (et pourtant...)

Corrigé : 

 

Le corrigé complet de l'épreuve ici 
Merci au site Math93.com

Partager cet article

Repost0
11 mai 2018 5 11 /05 /mai /2018 09:02

Dans le cadre du travail sur la proportionnalité

un petit outil qui permet de calculer des prix à partir

des quantités exprimées de différentes manières : nombres, volume, masse ...

et du prix unitaire (à l'unité, au litre, au g)

L'intérêt est dans les limites que j'ai données ici aux valeurs que l'on peut atteindre
ce qui oblige à des stratégies pour obtenir les résultats concernant des valeurs au-delà de ces limites.
Stratégie mettant en oeuvre les propriétés de la proportionnalité
ex : pour avoir le prix de 500 objets on multipliera le prix de 5 objets (que l'on peut obtenir directement) par 100

Il s'agit donc ici aussi de calcul mental outillé.

Partager cet article

Repost0
16 avril 2018 1 16 /04 /avril /2018 14:52

Pour étudier l'importance relative d'une différence de vitesse entre deux mobiles (Ici Clara et Louis)

Une fois que l'on a défini les vitesse des deux marcheurs (mais pas que)
puis déterminer le retard de Clara sur le départ de Louis,

le curseur MarcheArrêt permet de mettre "en route le temps"
(que l'on peut accélérer avec le curseur "tempsMultiplicateur )

Si le curseur STOP est en position 1, alors l'animation s'arrête à l'instant où Clara rattrape Louis
sinon la marche continue. Mais alors un point indique la distance à laquelle les deux personnages sont sur la même ligne.

On peut utiliser cette animation de nombreuses manières.

Par exemple en demandant la perception intuitive du point de rencontre avec certaines données.

En vérifiant ensuite par l'animation.

Puis, avec de nouvelles données, en demandant de calculer l'instant de la rencontre et le lieu de ce dépassement ... et en vérifiant ensuite avec l'animation.

...

merci à ceux qui proposeront des utilisations personnelles.

Le fichier (image dynamique trop grande pour être affichée ici)
se trouve là

-----------------------

On peut zoomer sur la figure, ce qui permet d'utiliser des données comportant des vitesses plus importantes.


Une autre version propose ce zoom directement  :
 

On y voit ici Clara et Louis (en cyclomoteur)
Claire partant 10 secondes après Louis

Clara rattrape Louis après avoir parcouru 1000 m (comme lui)
et elle met 10 secondes de moins à faire ce trajet.

Cette version est est ici


 

Partager cet article

Repost0
16 janvier 2018 2 16 /01 /janvier /2018 15:38

Pour illustrer une des propriétés de la proportionnalité, lorsqu'on représente les valeur d'un tableau par un graphique cartésien :

Un ensemble d'agrandissement d'une figure
et ce qu'on peut constater lorsqu'on en fait coïncider l'origine (le point en bas à gauche) et qu'on joint par une ligne brisée les points correspondant.

Les curseurs "opacité"  définissent la transparence des différents personnages

Les curseurs "pointBleu" et "pointVert" définissent l'apparition des points repère sur les 4 figures.

Le curseur "droite" définit l'apparition des droites joignant les séries de points.

Les figures sont proportionnelles (pas de déformations) les points bleus sont alignés (de même pour les points verts)

 

Un exemple où ne figurent que les points

Le fichier geogebra

Partager cet article

Repost0
7 janvier 2017 6 07 /01 /janvier /2017 10:04

Une définition de la simulation et de la modélisation . A quels sont les avantages comparés et les limites de l'une et de l'autre.

" Construire un modèle est un processus particulier : il s'agit de choisir un cadre théorique, un formalisme pour décrire un objet d’étude, et que l'ensemble soit adapté à la question que l’on se pose sur cet objet. C’est aussi prévoir, dès sa conception, le moyen de valider ce modèle : il faut pouvoir montrer qu’il répond bien à la question posée. Le simuler, c’est le mettre en œuvre informatiquement, ..."

On pourra lire cet article (et notamment ce passage) en se rappelant que dans tous les domaines (notamment l'économique et le politique même) la simulation et la modélisation ont tendance à prendre le pas sur des processus non strictement numériques en rapport avec la pensée, l'interrogation, le doute, ... humains.

Source de l'article :  Modéliser plus pour simuler moins

En anglais : Simulation and Modeling: Less is More

(à noter la différence des titres... en français on n'a pas osé "Moins c'est plus"
Qui pourrait avoir un écho du côté de la décroissance ... peut-être ?)

 

 

L'article :

-----------

Frédéric Alexandre, vous êtes chercheur au Laboratoire bordelais de recherche en informatique (LaBRI1) et intervenant du colloque « Modélisation : succès et limites » qui se tient le 6 décembre 2016. Qu’entend-on au juste aujourd'hui par modélisation et simulation ?
F. A. : La dimension numérique s'est intensément développée dans tous les domaines où l'on sait représenter les phénomènes par des équations que l'on peut ensuite implanter informatiquement – on parle alors de modèles de connaissance. Ce phénomène s’est amplifié, surtout dernièrement avec la possibilité d'utiliser les données massives (big data) et l’apprentissage automatique (machine learning) pour faire des statistiques – on parle dans ce cas de modèles de représentation.
Mais construire une maquette et la mettre dans une soufflerie, c’est aussi modéliser et simuler. Construire un modèle est un processus particulier : il s'agit de choisir un cadre théorique, un formalisme pour décrire un objet d’étude, et que l'ensemble soit adapté à la question que l’on se pose sur cet objet. C’est aussi prévoir, dès sa conception, le moyen de valider ce modèle : il faut pouvoir montrer qu’il répond bien à la question posée. Le simuler, c’est le mettre en œuvre informatiquement, via des logiciels en adoptant notamment des schémas de calcul, et des matériels en utilisant une architecture adaptée aux calculs à réaliser, pouvant associer des processeurs spécifiques comme des processeurs graphiques, des grappes de machines homogènes (clusters) ou un ensemble de ressources hétérogènes et éventuellement délocalisées, la grille. Il faut également noter que gérer ces matériels nécessite de recourir à des logiciels dits intermédiaires (middleware). Le principe de cette simulation consiste à pouvoir, à ce stade, faire varier des paramètres pour voir comment le modèle évolue.

Quels sont les liens que ces concepts entretiennent avec ceux de théorie, de découverte et de preuve ?
F. A. : À la différence des données qui sont de simples observations d’un objet d’étude, une théorie vise à fournir des explications sur cet objet. Quand une théorie ne peut être prouvée par simple déduction logique – le cas le plus fréquent –, le recours à un modèle permet de mettre en œuvre cette théorie et, éventuellement, de la réfuter expérimentalement par des simulations. Une réfutation impose de modifier le modèle, voire de proposer une nouvelle théorie et de la corroborer par de nouveaux tests. Notons que le modèle et la théorie qu’il sous-tend sont ajustés par une série de mises au point expérimentales, sans que l’on puisse toutefois jamais parler de vérité définitive. En effet, comme le postule l’épistémologue Karl Popper, une théorie scientifique doit fournir une explication aux phénomènes observés – la meilleure disponible à un moment donné –, mais elle doit aussi fournir les conditions de sa propre réfutation.


En quoi cette démarche de modélisation-simulation a-t-elle bouleversé la façon de faire de la recherche dans certaines disciplines ?
F. A. : La croissance des puissances de calcul disponibles et la mise à disposition de logiciels d’aide à la mise en œuvre des simulations a effectivement rendu l’accès à cette boucle modélisation-simulation très facile. On pourrait presque dire trop facile… Par exemple, en 2014, dans le film Interstellar, il a été jugé plus simple de recourir à des simulations physiques pour représenter des vagues géantes. Le risque est alors de produire des simulations rapidement et facilement sans se poser trop de questions sur le domaine de validité des modèles associés ; ce qui, dès la sortie d’Interstellar, a conduit à des débats interminables entre physiciens quant au choix précis des conditions initiales utilisées pour la simulation.

On a tendance à penser que réaliser des simulations de plus en plus performantes requiert des puissances de calcul de plus en plus grandes ; mais est-ce vraiment le cas ? Et peut-on augmenter indéfiniment cette puissance ?
F. A. : Ce n’est pas forcément le cas, car les progrès sont aussi dus aux améliorations des logiciels de mise en œuvre qui réalisent effectivement des prouesses pour utiliser au mieux les architectures de calcul. Ces quinze dernières années, les progrès réalisés sur les algorithmes de calcul d'algèbre linéaire ont autant contribué à l'accélération des calculs que l’augmentation de la puissance des processeurs.

Ces quinze dernières années,
les progrès des algorithmes ont autant contribué à l'accélération des calculs que la puissance des processeurs.
On nous annonce depuis longtemps la fin de la loi de Moore relative à l'accroissement régulier de la puissance des ordinateurs. Le débat pourrait effectivement porter sur le fait que cette étape commence effectivement à se faire sentir ou que le génie humain trouvera toujours des solutions de substitution. Mais je pense qu'il est plus important de savoir si l’on a intérêt à développer des modèles de plus en plus complexes lorsque cela se fait au détriment d'une réflexion sur la nature et la pertinence des modèles utilisés. Et puis, faire tourner des clusters de machines a aussi un coût économique et écologique !
Ensuite, et de façon peut-être plus profonde, faire tourner rapidement un modèle en dehors de ses limites de validité ne le rend pas plus valide !

Un modèle plus simple mais plus adapté est toujours préférable. Autant on peut justifier l'accroissement du recours aux simulations quand il s'agit de faire tourner un modèle plus longtemps, sur une plus grande extension spatiale, ou de tester plus de jeux de paramètres, autant il convient de rester prudent quand on change d’échelle ou quand, par exemple, on agrège plusieurs modèles.


Vaudrait-il mieux complexifier ou plutôt simplifier ces modèles et simulations pour s'approcher au mieux de la réalité ?
F. A. : Pour répondre à cette question difficile, il faut d’abord introduire un autre acteur. En plus des modèles théoriques associés aux simulations numériques, il y a maintenant le duo big data-machine learning : là, des corpus gigantesques sont analysés par des procédures d’apprentissage automatique s’appuyant sur des modèles statistiques. Par exemple, dans le domaine du traitement automatique du langage, plutôt que de travailler sur la mise au point de modèles de langage, il est aujourd’hui plus efficace d’analyser statistiquement des corpus de millions de phrases pour faire des systèmes de traduction automatique performants. Et l'on peut penser qu’il en sera bientôt de même pour la description d’objets physiques où le recours aux équations de la physique sous-jacente serait moins efficace que l’analyse d’un corpus d’exemples…
Sans remettre en cause les performances bien réelles et même impressionnantes de ces systèmes, on peut simplement remarquer qu’ils poussent au bout la logique de la puissance de calcul au détriment de l’analyse de l’objet d’étude. Analyse qui aurait pu parfois permettre de trouver une solution plus élégante et surtout plus porteuse de sens. De gros modèles très paramétrés peuvent coller à beaucoup de données sans en extraire la logique sous-jacente. Prédire n’est pas expliquer, rappelle René Thom.

Et surtout – pour répondre enfin à la question –, ces deux approches, tant statistiques que théoriques, couplées à une utilisation massive de la simulation oublient parfois le principal : quelle est la question posée et le modèle est-il bien conçu pour y répondre ? Ces approches massives sont bien adaptées et commencent aujourd’hui à être bien maîtrisées sur des questions relatives à des phénomènes relativement réguliers. Toutefois, dès lors que ces phénomènes impliquent des considérations humaines, sociales, politiques ou cognitives, bien formuler les questions que l’on se pose et définir un modèle plus simple est souvent plus pertinent qu’appuyer tout de suite sur le bouton rouge de la simulation.

Pour en savoir plus sur le colloque : Modélisation : succès et limites


Notes
1. Unité CNRS/Univ. Bordeaux/Bordeaux INP

CNRS

Des passages importants de cette interview évoquent les travers de la simulation
On pourrait conclure sur les risques des dérives actuelles :

La brutalité du calcul s'impose … (plus facile)
la réalité , trop compliquée, s'estompe
Les modèles tournent, produisent … décident.

Partager cet article

Repost0