Overblog
Suivre ce blog Administration + Créer mon blog

Recherche

*****

Les aides en vidéo

Philippe Mercier

 

Son forum d'aide

 

calculette scientifique
Wiris

flèches vers

Articles Récents

Des rubriques et des lieux

13 mai 2018 7 13 /05 /mai /2018 19:07

Un entrainement à la connaissance des nombres
en même temps qu'une sensibilisation (discrète) à la multiplication.

(Pour un autre rectangle cliquer sur le petit signe en haut à droite )
 

 

Partager cet article

Repost0
27 janvier 2018 6 27 /01 /janvier /2018 12:59

Partager cet article

Repost0
11 décembre 2017 1 11 /12 /décembre /2017 18:04

Pour voyager à travers l'infiniment grand et l'infiniment petit. Utilisation des des puissances de 10 positives (pour les grands nombres) et négatives (lorsqu'on va vers l'infiniment petit)

 

--------------------------

1 - Les puissances de 10 - Voyage dans l'infiniment grand et l'infiniment petit

-------------------------------------------------------------------------

2- L'échelle de l'univers

3 - L'échelle de l'univers - animation interactive

http://www.vulgarisation-scientifique.com/wiki/Animations/Scale_of_the_Universe_2

Quelques images extraites de cette animation
du côté de l'infiniment petit

Partager cet article

Repost0
17 novembre 2017 5 17 /11 /novembre /2017 21:43

En rapport avec la leçon "moyenne d'une série statistique"

Une vidéo qui explique la formule et donne un sens à la notion de moyenne à partir d'un exemple pratique

 

Partager cet article

Repost0
4 mars 2017 6 04 /03 /mars /2017 00:19

Un article du Temps, à propos du complexe d'infériorité des disciplines non perçues comme scientifiques. Et en particulier de l'économie et des conséquences que cela a eu et aura encore, tant que la mesure sera le gage de la justesse, voire même de la vérité.

-------------------------

Pour acquérir le statut de science, il faut soumettre les faits économiques à des équations. Donc les économistes se sont mis à calculer. Or l’économie moderne se résume surtout à des choix plus qu’à des calculs

---

Mais pas toujours en économie. La mort récente de Kenneth Arrow, l’un des plus grands économistes de notre époque, souligne que presque tous les Prix Nobel d’économie étaient aussi de brillants mathématiciens. En fait, plusieurs Nobel d’économie, comme John Nash, étaient avant tout des scientifiques dont les travaux intéressaient l’économie.

Le concept freudien de «blessure narcissique» s’applique bien aux économistes. Ils ont toujours souffert que leur discipline ne soit pas considérée comme une science à part entière. Pour acquérir le statut de science, il faut soumettre les faits économiques à des équations. Donc les économistes se sont mis à calculer.

Des choix plus que des calculs

En 1997, Myron Scholes et Robert Merton reçoivent le prix Nobel d’économie pour une nouvelle méthode de calcul du prix d’un produit dérivé. Ils entrent dans le conseil du hedge fund Long-Term Capital Management. En 1998 la société perd 4,6 milliards de dollars et fait faillite deux ans plus tard. Une explication selon Karl Popper, comme pour Franco Modigliani – un autre mathématicien Prix Nobel d’économie – est que l’économiste interfère avec les faits économiques qu’il étudie. «S’il prévoit une chute des prix, sa prédiction contribuera à la chute qu’elle anticipe».

A lire: L’économie de l’irréel au pouvoir

L’économie moderne se résume surtout à des choix plus qu’à des calculs. Pour diriger une entreprise, l’intelligence émotionnelle est aussi importante que l’intelligence rationnelle. Le rebond des marchés financiers juste après l’élection de Trump s’explique mieux par «l’instinct animal» si cher à John Maynard Keynes que par l’analyse financière. Nicolas Hayek n’a pas lancé la Swatch avec une formule mathématique. Angela Merkel, qui est pourtant une scientifique, ne gère pas l’Allemagne avec des équations…

Les limites des mathématiques

Même en sciences, les mathématiques ont leurs limites. La vraie révolution industrielle du XIXe siècle fut celle de l’électricité plus que la vapeur. Ses fondements, ou plutôt ceux de l’électromagnétisme, furent établis par Michael Faraday dans son livre de 1839 «Recherches expérimentales en électricité»: 332 pages et pas une seule équation mathématique…

Pourquoi cette obsession des mathématiques qui détruit la vie de tellement de jeunes autrement parfaitement intelligents? D’abord pour des raisons de sélection: quand des centaines d’étudiants se bousculent à l’entrée des facultés d’économie, il faut trier. Comment? Par des examens où il n’existe qu’une seule réponse à une seule question – donc essentiellement des mathématiques – et qui peuvent être corrigés en masse. Des questions d’économie où plusieurs réponses sont possibles pour le même problème deviendraient trop compliquées…

Faux sentiment de sécurité

Le drame est que nous démotivons des jeunes brillants mais qui n’ont pas nécessairement l’esprit scientifique. Ils doivent maîtriser des concepts mathématiques ou statistiques avancés qui ne leur serviront strictement à rien dans leur future carrière. Pire les chiffres leur donneront un faux sentiment de sécurité: si cela se calcule, ça doit être juste. Les sciences du comportement, la sociologie, voire même la psychologie seraient plus utiles. Mais qui le fait?

Quelle destruction de la créativité de nos enfants! Comme l’a dit Albert Einstein «la logique vous conduira de A à B mais l’imagination vous conduira partout». Avec la logique nous reproduirons le passé, avec l’imagination nous créerons l’avenir.


 

* Président du Conseil d’administration du Temps

 

-----------------

source de l'article

Partager cet article

Repost0
7 janvier 2017 6 07 /01 /janvier /2017 10:04

Une définition de la simulation et de la modélisation . A quels sont les avantages comparés et les limites de l'une et de l'autre.

" Construire un modèle est un processus particulier : il s'agit de choisir un cadre théorique, un formalisme pour décrire un objet d’étude, et que l'ensemble soit adapté à la question que l’on se pose sur cet objet. C’est aussi prévoir, dès sa conception, le moyen de valider ce modèle : il faut pouvoir montrer qu’il répond bien à la question posée. Le simuler, c’est le mettre en œuvre informatiquement, ..."

On pourra lire cet article (et notamment ce passage) en se rappelant que dans tous les domaines (notamment l'économique et le politique même) la simulation et la modélisation ont tendance à prendre le pas sur des processus non strictement numériques en rapport avec la pensée, l'interrogation, le doute, ... humains.

Source de l'article :  Modéliser plus pour simuler moins

En anglais : Simulation and Modeling: Less is More

(à noter la différence des titres... en français on n'a pas osé "Moins c'est plus"
Qui pourrait avoir un écho du côté de la décroissance ... peut-être ?)

 

 

L'article :

-----------

Frédéric Alexandre, vous êtes chercheur au Laboratoire bordelais de recherche en informatique (LaBRI1) et intervenant du colloque « Modélisation : succès et limites » qui se tient le 6 décembre 2016. Qu’entend-on au juste aujourd'hui par modélisation et simulation ?
F. A. : La dimension numérique s'est intensément développée dans tous les domaines où l'on sait représenter les phénomènes par des équations que l'on peut ensuite implanter informatiquement – on parle alors de modèles de connaissance. Ce phénomène s’est amplifié, surtout dernièrement avec la possibilité d'utiliser les données massives (big data) et l’apprentissage automatique (machine learning) pour faire des statistiques – on parle dans ce cas de modèles de représentation.
Mais construire une maquette et la mettre dans une soufflerie, c’est aussi modéliser et simuler. Construire un modèle est un processus particulier : il s'agit de choisir un cadre théorique, un formalisme pour décrire un objet d’étude, et que l'ensemble soit adapté à la question que l’on se pose sur cet objet. C’est aussi prévoir, dès sa conception, le moyen de valider ce modèle : il faut pouvoir montrer qu’il répond bien à la question posée. Le simuler, c’est le mettre en œuvre informatiquement, via des logiciels en adoptant notamment des schémas de calcul, et des matériels en utilisant une architecture adaptée aux calculs à réaliser, pouvant associer des processeurs spécifiques comme des processeurs graphiques, des grappes de machines homogènes (clusters) ou un ensemble de ressources hétérogènes et éventuellement délocalisées, la grille. Il faut également noter que gérer ces matériels nécessite de recourir à des logiciels dits intermédiaires (middleware). Le principe de cette simulation consiste à pouvoir, à ce stade, faire varier des paramètres pour voir comment le modèle évolue.

Quels sont les liens que ces concepts entretiennent avec ceux de théorie, de découverte et de preuve ?
F. A. : À la différence des données qui sont de simples observations d’un objet d’étude, une théorie vise à fournir des explications sur cet objet. Quand une théorie ne peut être prouvée par simple déduction logique – le cas le plus fréquent –, le recours à un modèle permet de mettre en œuvre cette théorie et, éventuellement, de la réfuter expérimentalement par des simulations. Une réfutation impose de modifier le modèle, voire de proposer une nouvelle théorie et de la corroborer par de nouveaux tests. Notons que le modèle et la théorie qu’il sous-tend sont ajustés par une série de mises au point expérimentales, sans que l’on puisse toutefois jamais parler de vérité définitive. En effet, comme le postule l’épistémologue Karl Popper, une théorie scientifique doit fournir une explication aux phénomènes observés – la meilleure disponible à un moment donné –, mais elle doit aussi fournir les conditions de sa propre réfutation.


En quoi cette démarche de modélisation-simulation a-t-elle bouleversé la façon de faire de la recherche dans certaines disciplines ?
F. A. : La croissance des puissances de calcul disponibles et la mise à disposition de logiciels d’aide à la mise en œuvre des simulations a effectivement rendu l’accès à cette boucle modélisation-simulation très facile. On pourrait presque dire trop facile… Par exemple, en 2014, dans le film Interstellar, il a été jugé plus simple de recourir à des simulations physiques pour représenter des vagues géantes. Le risque est alors de produire des simulations rapidement et facilement sans se poser trop de questions sur le domaine de validité des modèles associés ; ce qui, dès la sortie d’Interstellar, a conduit à des débats interminables entre physiciens quant au choix précis des conditions initiales utilisées pour la simulation.

On a tendance à penser que réaliser des simulations de plus en plus performantes requiert des puissances de calcul de plus en plus grandes ; mais est-ce vraiment le cas ? Et peut-on augmenter indéfiniment cette puissance ?
F. A. : Ce n’est pas forcément le cas, car les progrès sont aussi dus aux améliorations des logiciels de mise en œuvre qui réalisent effectivement des prouesses pour utiliser au mieux les architectures de calcul. Ces quinze dernières années, les progrès réalisés sur les algorithmes de calcul d'algèbre linéaire ont autant contribué à l'accélération des calculs que l’augmentation de la puissance des processeurs.

Ces quinze dernières années,
les progrès des algorithmes ont autant contribué à l'accélération des calculs que la puissance des processeurs.
On nous annonce depuis longtemps la fin de la loi de Moore relative à l'accroissement régulier de la puissance des ordinateurs. Le débat pourrait effectivement porter sur le fait que cette étape commence effectivement à se faire sentir ou que le génie humain trouvera toujours des solutions de substitution. Mais je pense qu'il est plus important de savoir si l’on a intérêt à développer des modèles de plus en plus complexes lorsque cela se fait au détriment d'une réflexion sur la nature et la pertinence des modèles utilisés. Et puis, faire tourner des clusters de machines a aussi un coût économique et écologique !
Ensuite, et de façon peut-être plus profonde, faire tourner rapidement un modèle en dehors de ses limites de validité ne le rend pas plus valide !

Un modèle plus simple mais plus adapté est toujours préférable. Autant on peut justifier l'accroissement du recours aux simulations quand il s'agit de faire tourner un modèle plus longtemps, sur une plus grande extension spatiale, ou de tester plus de jeux de paramètres, autant il convient de rester prudent quand on change d’échelle ou quand, par exemple, on agrège plusieurs modèles.


Vaudrait-il mieux complexifier ou plutôt simplifier ces modèles et simulations pour s'approcher au mieux de la réalité ?
F. A. : Pour répondre à cette question difficile, il faut d’abord introduire un autre acteur. En plus des modèles théoriques associés aux simulations numériques, il y a maintenant le duo big data-machine learning : là, des corpus gigantesques sont analysés par des procédures d’apprentissage automatique s’appuyant sur des modèles statistiques. Par exemple, dans le domaine du traitement automatique du langage, plutôt que de travailler sur la mise au point de modèles de langage, il est aujourd’hui plus efficace d’analyser statistiquement des corpus de millions de phrases pour faire des systèmes de traduction automatique performants. Et l'on peut penser qu’il en sera bientôt de même pour la description d’objets physiques où le recours aux équations de la physique sous-jacente serait moins efficace que l’analyse d’un corpus d’exemples…
Sans remettre en cause les performances bien réelles et même impressionnantes de ces systèmes, on peut simplement remarquer qu’ils poussent au bout la logique de la puissance de calcul au détriment de l’analyse de l’objet d’étude. Analyse qui aurait pu parfois permettre de trouver une solution plus élégante et surtout plus porteuse de sens. De gros modèles très paramétrés peuvent coller à beaucoup de données sans en extraire la logique sous-jacente. Prédire n’est pas expliquer, rappelle René Thom.

Et surtout – pour répondre enfin à la question –, ces deux approches, tant statistiques que théoriques, couplées à une utilisation massive de la simulation oublient parfois le principal : quelle est la question posée et le modèle est-il bien conçu pour y répondre ? Ces approches massives sont bien adaptées et commencent aujourd’hui à être bien maîtrisées sur des questions relatives à des phénomènes relativement réguliers. Toutefois, dès lors que ces phénomènes impliquent des considérations humaines, sociales, politiques ou cognitives, bien formuler les questions que l’on se pose et définir un modèle plus simple est souvent plus pertinent qu’appuyer tout de suite sur le bouton rouge de la simulation.

Pour en savoir plus sur le colloque : Modélisation : succès et limites


Notes
1. Unité CNRS/Univ. Bordeaux/Bordeaux INP

CNRS

Des passages importants de cette interview évoquent les travers de la simulation
On pourrait conclure sur les risques des dérives actuelles :

La brutalité du calcul s'impose … (plus facile)
la réalité , trop compliquée, s'estompe
Les modèles tournent, produisent … décident.

Partager cet article

Repost0
11 décembre 2016 7 11 /12 /décembre /2016 13:50

Le site "défi des mathématiques" propose pour cette seconde semaine de Décembre :

 

Semaine 50 :

 

Louis tient un sac avec 30 billes banches,bleues et vertes. Il sait que s’il extrait 25 billes au hasard il y aura parmi elles au moins 3 blanches, bleues et vertes. Quel est le nombre de billes bleues contenues dans le sac de Louis ?
 
----
Il faut arriver à la 4ème proposition de solution pour obtenir une résolution davantage basée sur le raisonnement que sur le calcul.
 
---------------------------

Bonsoir,

Sans doute suis-je d’une autre génération, mais je m’étonne de l’emploi du calcul quand le raisonnement est possible.

Il reste 5 billes qui si elles sont unicolores donnent au moins 8 blanches, ou 10 bleues, ou 12 vertes. Or 8+10+12=30 donc on a l’unique répartition

--------------------------- Joli !

 

 

 

Partager cet article

Repost0
8 octobre 2016 6 08 /10 /octobre /2016 00:34

Un outil qui permet de voir comment fonctionne l'addition des nombres relatifs.

Chaque nombre correspond à un déplacement à partir de 0.

Dans un premier temps on montre ces deux déplacements.

Puis dans un second temps on les mets "bout à bout". En tenant bien sur compte du sens du déplacement.

Les deux phases sont pilotées en changeant la position du curseur "additionner"

-

Lorsqu'on charge le fichier les valeurs choisies correspondent au deuxième calcul de l'exercice 6 page 22 du manuel sésamath de cycle 4

-

Pour une visualisation optimale le fichier est en ligne en lien direct ici sur le site de geogebra

Partager cet article

Repost0