Overblog
Suivre ce blog Administration + Créer mon blog

Recherche

*****

Les aides en vidéo

Philippe Mercier

 

Son forum d'aide

 

calculette scientifique
Wiris

flèches vers

Articles Récents

Des rubriques et des lieux

24 janvier 2017 2 24 /01 /janvier /2017 16:57

Faisant suite à  Algorithmique et programmation au collège, vient de sortir aux éditions Ellipses un ouvrage de Xavier Chanet qui propose 

"15 travaux pratiques entièrement corrigés et dont chacun a pour but la résolution d'un problème, l'édition d'une application ou la création d'un jeu. " (basé sur "Scratch" ) 

Voir sur l'extrait du livre des exemples en rapport avec les mathématiques, traités sur tableur et avec scratch.  ici

Très utile pour tous ceux qui ont accepté la préconisation du "langage" scratch, notamment en vue du brevet des collèges.

Partager cet article

Repost0
7 janvier 2017 6 07 /01 /janvier /2017 10:04

Une définition de la simulation et de la modélisation . A quels sont les avantages comparés et les limites de l'une et de l'autre.

" Construire un modèle est un processus particulier : il s'agit de choisir un cadre théorique, un formalisme pour décrire un objet d’étude, et que l'ensemble soit adapté à la question que l’on se pose sur cet objet. C’est aussi prévoir, dès sa conception, le moyen de valider ce modèle : il faut pouvoir montrer qu’il répond bien à la question posée. Le simuler, c’est le mettre en œuvre informatiquement, ..."

On pourra lire cet article (et notamment ce passage) en se rappelant que dans tous les domaines (notamment l'économique et le politique même) la simulation et la modélisation ont tendance à prendre le pas sur des processus non strictement numériques en rapport avec la pensée, l'interrogation, le doute, ... humains.

Source de l'article :  Modéliser plus pour simuler moins

En anglais : Simulation and Modeling: Less is More

(à noter la différence des titres... en français on n'a pas osé "Moins c'est plus"
Qui pourrait avoir un écho du côté de la décroissance ... peut-être ?)

 

 

L'article :

-----------

Frédéric Alexandre, vous êtes chercheur au Laboratoire bordelais de recherche en informatique (LaBRI1) et intervenant du colloque « Modélisation : succès et limites » qui se tient le 6 décembre 2016. Qu’entend-on au juste aujourd'hui par modélisation et simulation ?
F. A. : La dimension numérique s'est intensément développée dans tous les domaines où l'on sait représenter les phénomènes par des équations que l'on peut ensuite implanter informatiquement – on parle alors de modèles de connaissance. Ce phénomène s’est amplifié, surtout dernièrement avec la possibilité d'utiliser les données massives (big data) et l’apprentissage automatique (machine learning) pour faire des statistiques – on parle dans ce cas de modèles de représentation.
Mais construire une maquette et la mettre dans une soufflerie, c’est aussi modéliser et simuler. Construire un modèle est un processus particulier : il s'agit de choisir un cadre théorique, un formalisme pour décrire un objet d’étude, et que l'ensemble soit adapté à la question que l’on se pose sur cet objet. C’est aussi prévoir, dès sa conception, le moyen de valider ce modèle : il faut pouvoir montrer qu’il répond bien à la question posée. Le simuler, c’est le mettre en œuvre informatiquement, via des logiciels en adoptant notamment des schémas de calcul, et des matériels en utilisant une architecture adaptée aux calculs à réaliser, pouvant associer des processeurs spécifiques comme des processeurs graphiques, des grappes de machines homogènes (clusters) ou un ensemble de ressources hétérogènes et éventuellement délocalisées, la grille. Il faut également noter que gérer ces matériels nécessite de recourir à des logiciels dits intermédiaires (middleware). Le principe de cette simulation consiste à pouvoir, à ce stade, faire varier des paramètres pour voir comment le modèle évolue.

Quels sont les liens que ces concepts entretiennent avec ceux de théorie, de découverte et de preuve ?
F. A. : À la différence des données qui sont de simples observations d’un objet d’étude, une théorie vise à fournir des explications sur cet objet. Quand une théorie ne peut être prouvée par simple déduction logique – le cas le plus fréquent –, le recours à un modèle permet de mettre en œuvre cette théorie et, éventuellement, de la réfuter expérimentalement par des simulations. Une réfutation impose de modifier le modèle, voire de proposer une nouvelle théorie et de la corroborer par de nouveaux tests. Notons que le modèle et la théorie qu’il sous-tend sont ajustés par une série de mises au point expérimentales, sans que l’on puisse toutefois jamais parler de vérité définitive. En effet, comme le postule l’épistémologue Karl Popper, une théorie scientifique doit fournir une explication aux phénomènes observés – la meilleure disponible à un moment donné –, mais elle doit aussi fournir les conditions de sa propre réfutation.


En quoi cette démarche de modélisation-simulation a-t-elle bouleversé la façon de faire de la recherche dans certaines disciplines ?
F. A. : La croissance des puissances de calcul disponibles et la mise à disposition de logiciels d’aide à la mise en œuvre des simulations a effectivement rendu l’accès à cette boucle modélisation-simulation très facile. On pourrait presque dire trop facile… Par exemple, en 2014, dans le film Interstellar, il a été jugé plus simple de recourir à des simulations physiques pour représenter des vagues géantes. Le risque est alors de produire des simulations rapidement et facilement sans se poser trop de questions sur le domaine de validité des modèles associés ; ce qui, dès la sortie d’Interstellar, a conduit à des débats interminables entre physiciens quant au choix précis des conditions initiales utilisées pour la simulation.

On a tendance à penser que réaliser des simulations de plus en plus performantes requiert des puissances de calcul de plus en plus grandes ; mais est-ce vraiment le cas ? Et peut-on augmenter indéfiniment cette puissance ?
F. A. : Ce n’est pas forcément le cas, car les progrès sont aussi dus aux améliorations des logiciels de mise en œuvre qui réalisent effectivement des prouesses pour utiliser au mieux les architectures de calcul. Ces quinze dernières années, les progrès réalisés sur les algorithmes de calcul d'algèbre linéaire ont autant contribué à l'accélération des calculs que l’augmentation de la puissance des processeurs.

Ces quinze dernières années,
les progrès des algorithmes ont autant contribué à l'accélération des calculs que la puissance des processeurs.
On nous annonce depuis longtemps la fin de la loi de Moore relative à l'accroissement régulier de la puissance des ordinateurs. Le débat pourrait effectivement porter sur le fait que cette étape commence effectivement à se faire sentir ou que le génie humain trouvera toujours des solutions de substitution. Mais je pense qu'il est plus important de savoir si l’on a intérêt à développer des modèles de plus en plus complexes lorsque cela se fait au détriment d'une réflexion sur la nature et la pertinence des modèles utilisés. Et puis, faire tourner des clusters de machines a aussi un coût économique et écologique !
Ensuite, et de façon peut-être plus profonde, faire tourner rapidement un modèle en dehors de ses limites de validité ne le rend pas plus valide !

Un modèle plus simple mais plus adapté est toujours préférable. Autant on peut justifier l'accroissement du recours aux simulations quand il s'agit de faire tourner un modèle plus longtemps, sur une plus grande extension spatiale, ou de tester plus de jeux de paramètres, autant il convient de rester prudent quand on change d’échelle ou quand, par exemple, on agrège plusieurs modèles.


Vaudrait-il mieux complexifier ou plutôt simplifier ces modèles et simulations pour s'approcher au mieux de la réalité ?
F. A. : Pour répondre à cette question difficile, il faut d’abord introduire un autre acteur. En plus des modèles théoriques associés aux simulations numériques, il y a maintenant le duo big data-machine learning : là, des corpus gigantesques sont analysés par des procédures d’apprentissage automatique s’appuyant sur des modèles statistiques. Par exemple, dans le domaine du traitement automatique du langage, plutôt que de travailler sur la mise au point de modèles de langage, il est aujourd’hui plus efficace d’analyser statistiquement des corpus de millions de phrases pour faire des systèmes de traduction automatique performants. Et l'on peut penser qu’il en sera bientôt de même pour la description d’objets physiques où le recours aux équations de la physique sous-jacente serait moins efficace que l’analyse d’un corpus d’exemples…
Sans remettre en cause les performances bien réelles et même impressionnantes de ces systèmes, on peut simplement remarquer qu’ils poussent au bout la logique de la puissance de calcul au détriment de l’analyse de l’objet d’étude. Analyse qui aurait pu parfois permettre de trouver une solution plus élégante et surtout plus porteuse de sens. De gros modèles très paramétrés peuvent coller à beaucoup de données sans en extraire la logique sous-jacente. Prédire n’est pas expliquer, rappelle René Thom.

Et surtout – pour répondre enfin à la question –, ces deux approches, tant statistiques que théoriques, couplées à une utilisation massive de la simulation oublient parfois le principal : quelle est la question posée et le modèle est-il bien conçu pour y répondre ? Ces approches massives sont bien adaptées et commencent aujourd’hui à être bien maîtrisées sur des questions relatives à des phénomènes relativement réguliers. Toutefois, dès lors que ces phénomènes impliquent des considérations humaines, sociales, politiques ou cognitives, bien formuler les questions que l’on se pose et définir un modèle plus simple est souvent plus pertinent qu’appuyer tout de suite sur le bouton rouge de la simulation.

Pour en savoir plus sur le colloque : Modélisation : succès et limites


Notes
1. Unité CNRS/Univ. Bordeaux/Bordeaux INP

CNRS

Des passages importants de cette interview évoquent les travers de la simulation
On pourrait conclure sur les risques des dérives actuelles :

La brutalité du calcul s'impose … (plus facile)
la réalité , trop compliquée, s'estompe
Les modèles tournent, produisent … décident.

Partager cet article

Repost0
3 octobre 2016 1 03 /10 /octobre /2016 20:32

Un petit argumentaire pour être convaincu de l'utilité de scratch dans l'apprentissage du codage

COMMENT ESSAYER SCRATCH EN 9 MINUTES.

 

Pour bien commencer avec scratch

Le Manuel de l’apprenant
(version éditable)

 

Le Manuel de l’animateur
(version éditable)

 

(voir aussi)

 

La plateforme http://scratch.mit.edu et son tutoriel.

 

-- installation--

Pour utiliser scratch  sans connection internet : les deux fichiers disponibles ici  
(à transférer sur une clé USB, puis lancer l’installation sur l’ordinateur cible.)

Partager cet article

Repost0
30 septembre 2016 5 30 /09 /septembre /2016 23:36

Le codage à l’école – apprentissage fondamental, Gadget … Outil de remédiation pour public en difficulté ?

 

Concernant l’intervention de Jean-Marc Monteil ( « chargé d'une mission sur le numérique dans l'Education nationale » ) dans l’émission « rue des écoles » de France-Culture (dimanche 25 septembre « Education, quelles fractures numériques ? » (disponible en réécoute))

Il y aurait beaucoup à dire, sur les propos de JMM, du mélange d’informations généralistes vieilles de plus de 30 sur la révolution numérique (Monsieur Monteil a-t-il lu Pierre Levy ?), où de plus de 80 ans concernant les mutations profondes de notre société (Monsieur Monteil a-t-il lu Lewis Mumford ?), mais je ne m’attacherais ici qu’à ce qui m’a le plus choqué dans les propos de JMM.

Tout d’abord sur la forme.

Intervenant après Karine Mauvilly[1] qui avait évoqué l’introduction récente du codage dans les programmes de l’école primaire et du collège, et qui avait à ce propos parlé de « gadget », il mêle le ricanement à la déformation des propos.

Ou plus exactement, il montre bien ce que peuvent être les dérives du numérique, dont une des fonctions principales est d’isoler les entités de sens (copiage, collage, efforts pour donner un sens plus ou moins normé et complet …). JMM décontextualise les propos de KM et lui prête une affirmation plus générale « le codage serait un gadget » dans l'absolu. Ce qui lui permet d’évoquer des lieux hors de l’école et du collège où le codage est un outil de production particulièrement efficace et de ridiculiser une position qui mérite pourtant d’être prise en compte.

Sur le fond

Selon JMM le codage deviendra à terme un apprentissage fondamental, tout comme lire, écrire et compter.


(exemple d'activité proposée avec le langage choisi dans l'éducation nationale : scratch. Ou comment apprendre à parler " "petit nègre" ")
 

A moins que Monsieur Monteil ait une définition très personnelle du codage et de ce qu’il est prévu d’enseigner sous ce nom, dans l’institution qui l’emploi, cette prédiction est une énormité.

Ce codage (n’)est(qu’) une réduction (instrumentalisée, ou « outillée ») d’un certain nombre d’apprentissages fondamentaux enseignés actuellement à l’école. Apprentissages qui ont rapport avec le langage et sa maitrise (dont par exemple les opérateurs logiques constamment présent derrière toute structure langagière, squelette de la grammaire)

Pour donner une idée de ce qui est énoncé là, par monsieur le chargé de mission, c’est un peu comme si au lieu de viser à la maitrise de la main en donnant à l’enfant des cubes et d’autres objets pouvant être assemblés de façon fines et « continues » (c’est-à-dire sans emboitements préconçus), on le faisait en donnant à celui-ci des pièces de LEGO[2].

Le langage est au codage ce que la pâte à modelée est au LEGO. Les seconds membres étant des réductions dans le domaine du discontinu (ce qu’est précisément le numérique) de ce qui s’exprime dans les premiers membres.

Le codage peut avoir sa place à l’école, mais pas du côté des apprentissages fondamentaux comme JMM le prophétise. .Il pourrait être un outil au service des élèves en grande difficulté langagière, un moyen de réduire la syntaxe, le vocabulaire, la grammaire etc. de façon à proposer une activité de remédiation travaillant sur les fonctions cognitives déficientes des élèves concernés.

 Mais pour des élèves n’ayant pas de difficultés insurmontables il est effectivement un gadget, une activité qui n’apporte rien de plus que l’enseignement d’un latin simplifié à l’extrême, agrémenté de ce que la firme Disney est capable de produire pour rendre un environnement (film, parc, activité …) ludique. (Sans la richesse culturelle que propose cette langue ancienne et tout ce que ses rapports – non purement formels – avec la nôtre permettent en termes de charge de significations

Lewis Mumford engageait en 1934 l’homme à mieux comprendre la machine et les objets techniques qu’il produisait de manière à permettre une meilleure intégration de ceux-ci et à diminuer l’appauvrissement systématique dont leur introduction était la cause.[3] Il serait utile que ceux qui sont responsables au plus haut niveau des innovations dans le système scolaire aient un regard large qui englobe autant le passé[4] que l’existant et le futur.

A propos du futur, on peut se demander si l’on ne se fourvoie pas complètement en dotant nos enfants de compétences techniques (car il s’agit bien de cela lorsqu’on regarde les documents de mise en œuvre de cette initiation au codage) qui seront bientôt obsolètes.

En effet, tout ce qui, dans la production par l’homme, est susceptible de se voir remplacer par une machine, le sera à plus ou moins long terme. Or, la transcription en code d’une séquence de travail en rapport elle-même avec une machine, est une activité bien plus facile à programmer que la traduction automatique d’une langue à une autre (lorsque le propos est non technique)

Les codeurs de notre époque sont peut-être les opérateurs des filatures du passé et les chômeurs de demain, lorsque[5] le concepteur d’un programme l’écrira en « langage naturel (technique, mais naturel) » et que cette rédaction sera traduite[6] par un ordinateur en « langage machine » (ou que, grâce aux travaux fait dans le domaine de la sémantique informatique, les ordinateurs fassent eux-mêmes cette traduction)

(Il serait peut-être temps de relire l’ambitieux programme des objectifs de la « Stratégie de Lisbonne » de 2000 et de voir ce qui n’y a pas fonctionné …)

 

 


[1] , co-auteur du livre "Le désastre de l'école numérique"

[2] Il ne s’agit pas ici de dénigrer ce jeu de construction, mais de montrer en quoi il est une réduction, utile dans le jeu, pour la main  autant que pour l’esprit, des jeux de construction sans emboitement.

A trop utiliser ce qui s’emboite parfaitement on conduit nécessairement à une certaine rigidité mentale qui incite à chercher constamment l’ajustement parfait entre deux pièces, réalités, idées, correspondances ….

[3] « Nos vastes gains dans l’énergie et la production se sont partiellement manifestés par une perte dans les formes et par un appauvrissement de la vie. » (1934 !)

[4] Cela fait très longtemps que le langage LOGO, est utilisé pour le type de remédiation évoqué en permettant tout ce qui est en jeu dans la programmation, mais avec un matériel de base simple (à la différence de SCRATCH produit retenu à ce jour par l’éducation nationale). De même, des outils tels que les Ateliers de Raisonnement Logique travaillent les structures fondamentales nécessaires à la réflexion, pour les élèves (y compris adultes) en difficulté à ce niveau.

[5] Cela déjà se faisait à British Telecom en 1992 pour les didacticiels de formations internes

[6] chez British Télécom, il s’agissait d’un secrétariat ad-hoc

Partager cet article

Repost0