Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

15/10/2011

La pomme, Steve JOBS et Alan TURING

steve jobs,apple,alan turing

La pomme à demi croquée, tout le monde connait, les pubs déjantées d'Apple, ... Symbole de jeunesse, de vitalité, créativité, musique, dance, mais au delà de cette image d'où vient donc cette pomme ? Quel en est le symbole et la signification ?

De quoi la pomme est elle le nom ?

 

 

 

 

steve jobs,apple,alan turing

 

 

 

 


 

 

 

  

Steve Jobs, bien sûr, qui vient de nous tirer sa révérence, très élégamment, après avoir, le plus tard possible passé les rênes d’Apple. Steve Jobs à l’origine de la création d’Apple avec Steve Woniak et acteur de sa re-création.

  

Apple II, années 1980

J’ai une dette envers Steve Jobs, pour avoir construit aux débuts des années 1980 deux Apple II, dont les plans et le logiciel avaient été piratés ...

L’écran avait 40 colonnes, (j’ai dû acheter fort cher à l’époque une carte 80 colonnes), il y avait 48 K de RAM, pas de disque dur, un seul lecteur de disquette 5’’ ¼ (les grandes disquettes souples) et bien sûr pas de souris. Langage de commande et programmation en basic, Snakebyte, ... Premier programme développé : simulation des probabilté de gagner au Loto ...

Mais ce fut le support de la découverte de « l’informatique » par mes deux fils Thomas et Sébastien, qui sont devenus des cracks de la programmation, exercée sans relâche sur Apple II puis sur Atari et maintenant chez sur Catia (Dassault Systèmes).

 

steve jobs,apple,alan turingAtari ST, fin des années 1980

Mais, bien vite, en 1985, nous avons abandonné l’Apple pour l’Atari, plus ouvert grâce à son interface MIDI et plus orienté vers les jeux. A noter aussi le fameux Basic GFA avec son éditeur intégré et son compilateur ...

 

 

 

 

 

 

Mais j’ai un autre attachement vis à vis de Steve Jobs, c’est mon utilisation quotidienne de la chaîne Podcast/Itunes/Ipod qui me permet de m’abonner et d’écouter en toute tranquillité des Podcast gratuits, nombreux et variés (Ciel et espace, mes émissions préférées de France culture, politique, sciences, philosophie, cinéma, littérature).

Apple II, MacIntosh, puis dans la 2eme période iMac, iPod, iTunes, iPhone, iPad, et encore bien d’autres produits qui ont marqué leur époque ! Le modèle Apple, c’est celui de l’innovation continue dans des produits complets qui arrivent en avance sur tous les concurrents et qui crèe un nouveau marché. C’est aussi la qualité, le design, l’esthétique et une vraie valeur offerte aux utilisateurs.

Mais le prix à payer, c’est celui de la fermeture, de la non compatibilité.

Apple livre le Hardware et l’OS et les applications. Tout cela est très bien intégré, mais ne laisse que peu de place à des partenaires. Il faut « vivre Apple ».

Atari c’était le monde du jeu, de la musique, du graphique, des ados et des crackers, mais des bourses peu solvables qui n’achetaient que le minimum de hard et qui crackait un maximum de logiciel.

Windows et les PCs, c’est un autre modèle, « ouvert à sa manière». ce n'est pas bien sûr Posix ou l'OSF mais un OS portable sur tous les matériels au standard PC. Et un OS ouvert à tous les développeurs d’applications. Bill Gates, un autre génie du marketing, avait compris tout le potentiel stratégique de ce modèle qui fit de lui bientôt l’homme le plus riche du monde.

 

Les déboires de Steve Jobs

Steve Jobs n’était pas un technicien, mais un homme de marketing, comme Bill Gates. Mais il avait aussi le génie de la découverte des innovations capable de trouver un public, voire de créer un public. (Les vrais inventeurs étaient par exemple Steve Wosniak pour l’Apple II, les développeurs de Xerox Park pour Lisa et le macintosh).

Ce modèle a cependant trouvé ses limites au milieu des années 1980, face à une concurrence croissante sur le marché des entreprises, notamment de la part des PCs/Windows, qui en 1986,  représenteront déjà plus de la moitié des ordinateurs personnels vendus dans le monde

Le succès de l’Apple II ne faiblit pas mais cette machine se voit cantonnée au marché des particuliers et de l’éductaion.

Steve Jobs subit un premier échec personnel sur l’Apple III (1980-1984)  pour des raisons de mauvaise conception  technique puis un second avec Lisa (1983-1985), qui apporte pourtant souris et interface graphique mais qui est trop cher. C’est enfin la sortie du Macintosh, mais les ventes tardent à décoller alors que cellse d’Apple II se maintiennent à un niveau élevé.

Confronté à ces difficultés et pour gagner le marché des entreprises, Stece Jobs avait appelé à la rescousse, en 1983, John Sculley, ancien patron de Pepsi-Cola. Comme si les pommes se gérait comme des bulles ... Et ce fût ensuite la triste dégringolade : marginalisation de Steve Jobs causant son départ d’Apple en 1985, ventes en chute libre jusqu’au départ du même John Sculley en 1993.

Steve Jobs, lui, a fondé une nouvelle entreprise NeXt avec l'objectif de concevoir des ordinateurs pour les établissements scolaires et universitaires. Mais les ventes restent confidentielles et la fabrication du matériel est bientôt arrêtée, en 1993. Mais  l’OS NeXTstep et l’environnement Open step intéressent de nombreuses entreprises, Canon, Ross Perrot, mais aussi ... Apple.

 

Steve Jobs, le retour

steve jobs,apple,alan turing

NeXT est finalement rachetée en 1996 pour 429 millions de dollars par Apple qui recherchait un nouveau système d’exploitation pour ses ordinateurs Macintosh, marquant le retour de Steve Jobs à la tête d’Apple.

En parallèle avec la création de NeXT, c’est dans un autre domaine, la création de films d’animation que Stev Jobs manifeste son génie de découvreur et d’accoucheur de nouvelles technologies. Il achète en effet Pixar en 1986,en devient le PDG et la repositionne[1] dans l’animation, pour la revendre à Walt Disney en 2006 à Disney avec de substantiels bénéfices.

Redevenu Patron d’Apple (pour un salaire de 1 dollar par an[2]), Steve Jobs y règne sans partage, en autocrate, impose l’équipe de NeXT aux postes clé et redresse rapidement l’entreprise. C’est le retour de l’innovation, le règne des designers, et la renaissance fulgurante d’Apple. Steve Jobs ne se pose plus trop de questions sue le marché qu'il vise : c'est le grand public, ce sont les jeunes, autour de produits qui favorisent le graphique, la facilité d'emploi, l'accès à la musique, au ludique. Le design  est plus que jamais soigné, la commercialisation se fait autour de communautés rassemblées dans les Applestores. Tout été dit sur cette saga et sur le caractère très controversé de Steve Jobs, donc je ne m’y attarderai pas. 

 

 Alan Turing

Mais la pomme ce n’est pas seulement Stev Jobs, c’est aussi Alan Turing.

Qui se souvient encore d'Alain Turing ?

steve jobs,apple,alan turing« Alan Mathison Turing, (23 juin 1912 - 7 juin 1954) est un mathématicien britannique, auteur de l'article fondateur de la science informatique1[3] qui allait donner le coup d'envoi à la création des calculateurs universels programmables (ordinateurs). Il y présente sa machine de Turing et les concepts modernes de programmation et de programme[4].

Il est également à l'origine de la formalisation des concepts d'algorithme et de calculabilité qui ont profondément marqué cette discipline. Son modèle a contribué à établir définitivement la thèse Church-Turing qui donne une définition mathématique au concept intuitif de fonction calculable.

Durant la Seconde Guerre mondiale, il a dirigé les recherches sur les codes secrets générés par la machine Enigma utilisée par les nazis.

Après la guerre, il a travaillé sur un des tout premiers ordinateurs, puis a contribué de manière provocatrice au débat déjà houleux à cette période sur la capacité des machines à penser en établissant le test de Turing4[5].

Vers la fin de sa vie, il s'est intéressé à des modèles de morphogenèse du vivant conduisant aux « structures de Turing ».

Il a été persécuté pour son homosexualité. Pour éviter la prison, il est condamné à la castration chimique par prise d'œstrogènes, ce qui a pour effet secondaire de développer sa poitrine. Il meurt le 7 juin 1954 d'un empoisonnement au cyanure, un suicide selon l'enquête qui s'ensuivit, quoique sa mère ait défendu la thèse d'un empoisonnement accidentel.

L'homosexualité de Turing lui valut d'être persécuté et brisa sa carrière. En 1952, son compagnon aide un complice à cambrioler la maison de Turing, qui porte plainte auprès de la police. L'enquête de police finit par l'accuser d'« indécence manifeste et de perversion sexuelle » (d'après la loi britannique sur la sodomie). Il décide d'assumer son orientation et ne présente pas de défense, ce qui le fait inculper.

S'ensuit un procès très médiatisé, où lui est donné le choix entre l'incarcération et une castration chimique, réduisant sa libido. Il choisit ce dernier, d'une durée d'un an, avec des effets secondaires comme le grossissement de ses seins. Alors qu'il avait été consacré, en 1951, en devenant membre de la Royal Society, à partir de 1952, il sera écarté des plus grands projets scientifiques.

En 1954, il meurt d'un empoisonnement au cyanure. L'enquête qui s'ensuivit conclut au suicide, même si sa mère tenta d'écarter cette thèse pour soutenir celle de l'accident : elle affirma vigoureusement que l'ingestion du poison était accidentelle en raison de la propension de son fils à entreposer des produits chimiques de laboratoire sans aucune précaution. Il est vrai que le moyen d'ingestion du poison aurait été une pomme partiellement mangée retrouvée près du corps de Turing et qui aurait été imbibée de cyanure (même s'il n'existe pas de certitude à cet égard, la pomme n'ayant pas été analysée). Le biographe de Turing, Andrew Hodges, a émis l'hypothèse que Turing ait pu choisir ce mode d'ingestion précisément pour laisser à sa mère la possibilité de croire à un accident. Nombreux sont ceux qui ont souligné le lien entre sa méthode de suicide et le film Blanche-Neige et les Sept Nains, duquel il avait particulièrement apprécié la scène où la sorcière crée la pomme empoisonnée, au point de régulièrement chantonner les vers prononcés par la sorcière : « Plongeons la pomme dans le chaudron, pour qu'elle s'imprègne de poison »

Selon wikipedia

 

Certaines rumeurs disent qu’Apple aurait choisi son logo en souvenir d’Alan Turing. C’est probablement faux, mais rien ne nous interdit d’y croire pour célébrer la mémoire de cet autre génie, autrement plus humain, que fût Alan Turing.



[1] Pixar était à l’origine un fabricant de matériel informatique haut de gamme « Pixar Image computer », très peu vendu.

[2] Rassurez-vous Steve Jobs n’est pas à la rue : « Depuis 1997, date de son retour à la tête de la marque à la pomme, Steve Jobs se verse à titre de salaire un dollar symbolique. A côté d'autres dirigeants, comme Bill Gates, Steve Jobs fait bonne figure. Le fondateur de Microsoft a touché près d'un million de dollars de rémunération pour l'exercice 2005. Pour autant, Steve Jobs ne travaille pas gratuitement. Sa principale source de revenu provient des 120 000 stock options, attribuées en tant que directeur de la société. Le PDG d'Apple mène également un grand train de vie au frais de la société. Pour l'exercice 2006, il a été remboursé de ses déplacements d'affaires qu'il effectue avec son avion personnel, à hauteur de 202 000 dollars. Sa fortune estimée à 5,7 milliards de dollars d'après le magazine Forbes, ferait de lui le 132ème homme le plus riche au monde. Ce salaire d'un dollar s'apparente donc plus à une opération de communication en faveur d'Apple. » Selon un papier du Figaro du 15 oct 2007

 

[4]John C. Mitchell ,Concepts in programming languages, Cambridge University Press, 2003, p.14 [archive] «The fact that all standard programming languages express precisely the class of partial recursive functions is often summarized by the statement that all programming languages are Turing complete.»

Bruce J.MacLennan, Principles of Programming Languages, Introduction : What is a programming language?, Oxford University Press, 1999. «A programming language is a language that is intended for the expression of computer programs and that is capable of expressing any computer program. This is not a vague notion. There is a precice theorical way of determining whether a computer language can be used to express any program, namely, by showing that is equivalent to a universal Turing machine.»

[5] Ces questions sont discutées dans l'article « philosophie de la technique ».

05/04/2011

Calcul de probabilité d'accident en fonction de risques indépendants


Un enfant de cinq ans comprendrait cela !
Allez donc me chercher un enfant de cinq ans ! 

Groucho Marx

 

 

Problème du conducteur et de l'accident

On suppose connues, et indépendantes, les probabilités d’avoir un accident : 
• Si l’on roule sans permis = p1 
• Si l’on roule sur verglas = p2 
• Si l’on roule ayant trop bu = p3 

Toto, qui n’a pas son permis, ayant bu, emprunte la voiture de Papa un jour de verglas. 

Existe-t-il une formule donnant la probabilité P pour Toto d’avoir un accident en fonction de p1, p2, p3? 

 

Pour effectuer ce calcul, il faut se ramener à une situation de probabilités conditionnelles et indépendantes, ce qui permettra ensuite de multiplier les probabilités.

Ici on va raisonner sur les probabilité de ne pas avoir d'accident.
Proba de 0 accident si l’on roule sans permis : (1- p1)
Proba de 0 accident si l’on roule sur verglas : (1-p2)
P
roba de 0 accident si l’on roule ayant trop bu : (1-p3)

Pour obtenir la probabilité de 0 accident si l’on roule sans permis et sur verglas et ayant trop bu, il faut multiplier les proba liés à la conjonction des 3 situations :

(1-p1)(1-p2)(1-p3)

D'où la probabilité d'avoir au moins un accident en cumulant les 3 conditions :

P= 1-(1-p1)(1-p2)(1-p3)

 

 

 

Problème du nucléaire et de l'accident

Appliquée au calcul de risques d'accident nucléaire, il suffit de remplacer 

- risques si l’on roule sans permis par risques liés à la technique
-risques si l’on roule ayant trop bu par risques liés aux facteurs humains
-risques si l’on roule sur verglas par risques liés au catastrophe naturelles

 

Ce qui donne donc

Si 

·         Ptech = probabilité d’accident d’origine technique sur une année pour un réacteur

·         Phum = probabilité d’accident d’origine humaine sur une année pour un réacteur

·         Pnat = probabilité d’accident d’origine catastrophe naturelle sur une année pour un réacteur

 

Probabilité d'avoir au moins 1 accident sur 1 réacteur sur une période d' 1 an.

R(1,1) = 1 - (1 – Ptech)(1 – Phum)(1 – Pnat)

et

R(n, a) = probabilité d’au moins un accident majeur pour n réacteurs durant a années

R(n, a) = 1 - [(1 – Ptech)(1 – Phum)(1 – Pnat)]na

 

 

 

n = 430 réacteurs

 

a = 10 (on cherche le risque sur 10 ans)

 

Ptech = 5.10-5 
Pour un réacteur nucléaire à eau pressurisée, tels ceux exploités en Europe de l’Ouest, le risque de fusion du cœur est estimé à 5.10-5 par centrale et par an. Cf : wikipedia

 

Phum = 10-4 : 
Il y a eu 1 catastrophe majeure d'origine humaine sur un parc d'environ 500 réacteurs pendant 20 ans (évaluation un peu pifométrique sur la base d’accidents survenus jusqu’ à ce jour), ce qui donne une probabilité de : 1/500x20 = 10-4 accident par an et par réacteur

 

Pnat = 10-4 
Il y a eu 1 catastrophe d'origine naturelle  sur un parc d'environ  500 réacteurs pendant 20 ans (évaluation un peu pifométrique sur la base d’accidents survenus jusqu’ à ce jour), ce qui donne une probabilité de : 1/500x20 = 10-4 accident par an et par réacteur

 

 

 

R(430, 10) = 1 - (1 – 5. 10-5)4300. (1 – 10-4)4300. (1 – 10-4)4300 = 65,9%

 

 

 

Ce qui veut dire qu’il y a 2 « chances » sur 3 qu’il y ait un accident majeur dans les 10 ans qui viennent.

 

Cela fait réfléchir, non ?

09/02/2011

Transformons l'équation de Drake!

Même si de nombreuses civilisations avaient surgi dans la Voie Lactée, elles resteraient désespérément isolées, faute de pouvoir communiquer entre elles. 

 C'est la conclusion que l'on peut retenir après une transformation sévère de "l'équation de Drake".

Rappelons que "l'équation de Drake" a pour objectif d'évaluer "le nombre de civilisations avec lesquelles nous pourrions communiquer dans notre galaxie".

 

Critique de « l’équation de Drake »

Comme je l'ai mentionné dans mon précédent article sur ce sujet, ce n'est pas une équation mais une formule et elle ne relève pas de la science dure, mais plutôt de spéculations sur l'émergence de la vie dans la Voie Lactée.

Il faut donc prendre cette formule comme une investigation pifométrique permettant de réfléchir sur les ordres de grandeur de paramètres concernant :
- la formation de planètes habitables dans la Voie Lactée
- l'émergence  sur ces planètes de civilisations capables de communiquer
- et notre capacité à détecter les signaux, les traces, en un mot les preuves manifestes de leur existence.

Et c'est là que repose la première faiblesse de la formule de Drake : elle n’explicite pas clairement ce qu’elle entend par « capables de communiquer ». Pour communiquer, il faut être deux : l’émetteur et le récepteur et préciser la nature de l’émission et de la réception (quel support, quel contenu, émission volontaire ou non, directe ou indirecte, temporalité, …). De nombreuses autres faiblesses ont été relevées par divers auteurs, notamment sur l'absence de limite à la durée d'une civilisation, sur la linéarité de la formation de planètes telluriques, ...

Il suffit de parcourir les diverses versions de "l'équation de Drake" sur Internet pour voir à quel point ces paramètres sont mal définis :

Wikipedia : "nombre de civilisations extraterrestres dans notre galaxie avec lesquelles nous pourrions entrer en contact."

Observatoire de Paris : "nombre de civilisations avec lesquelles nous pourrions communiquer aujourd'hui"

Futura Sciences : "nombre de civilisations avec lesquelles nous pourrions communiquer dans la galaxie"

Interkeltia : "nombre N de civilisations, observables depuis la Terre, qui existent dans notre galaxie, la Voie Lactée"

Comité de liaison es enseignants astronomes : "nombre de civilisations capables de communiquer dans la galaxie"

Société française d'exobiologie : "nombre de civilisations présentes en ce moment dans notre Galaxie"

Les Confins : "nombre de civilisations évoluées (formées d’êtres conscients capables de communiquer) dans la Voie lactée."

Les autres faiblesses de "l'équation de Drake" se situent dans l'absence d'évaluation de notre capacité à détecter ces fameux signaux. En effet, pour communiquer, il faut être deux et se rencontrer dans le temps, dans l'espace et dans la compréhension.

 



Archéologie des civilisations de la galaxie

Il faut, à mon avis, remplacer la formule de Drake par un calcul en deux étapes.

1. Evaluer le nombre de civilisations pouvant avoir laissé des traces détectables, des vestiges, depuis l’origine de la Voie Lactée.

2. Evaluer notre capacité à découvrir ces vestiges en fonction des technologies et des méthodes utilisées.

Chaque évaluation doit être affectée d'une évaluation basse, haute et typique.

 

 

D’où les formules de Marto

 

Ncvl = Ne x Np/e x Ph x Pv x Pi          [FM1]

Ncvl : Nombre de civilisations ayant probablement émergé dans la Voie Lactée

Ne : Nombre d'étoiles ayant existé dans la Voie Lactée pendant au moins 4 milliards d'années

Np/e : Nombre moyen de planètes (y compris les lunes) par étoile

Ph : Probabilité pour ces planètes de réunir les conditions permettant l'émergence de la vie (composition, présence d'eau liquide, énergie, rayonnements, ....)

Pv : Probabilité d'apparition effective de la vie sur ces planètes

Pi : Probabilité d'apparition de "l'intelligence technologique" parmi ces formes de vie



Nobs = Ncvl x Pt x Ps x Pcc                [FM2a]

Nobs : Nombre de civilisations dont nous sommes capables de détecter les vestiges

Ncvl : Nombre de civilisation ayant probablement émergé dans la Voie Lactée (calculé par FM1)

Pt : Probabilité d'observabilité dans le temps

Ps : Probabilité d'observabilité dans l'espace

Pcc : Probabilité de cohérence de communication entre 2 civilisations

 

Ce qui mène à

Nobs = Ncvl x Dvv/Dvvl  x Lo2/Lvl2 x Pcc  [FM2b]

Dvv : Durée de vie des vestiges observables

Dvvl : Durée de vie de la Voie Lactée

Lo : Distance de l'horizon observable

Lvl : Dimension de la Voie Lactée : en fait, je retiendrai plutôt son rayon, pour tenir compte du fait que nous sommes à 28 000 année-lumière de son centre autour duquel est concentré une bonne partie des étoiles de la Voie Lactée

 

En effet 

Pt = min [1, (Dvv + Do)/Dvvl]

Do : Durée d'observation

Do est pour l'instant négligeable par rapport à Dvv, on peut approximer par :

Pt = Dvv/Dvvl

Et

Ps = Lo2/Lvl2

si on considère que le nombre d'étoiles observables dans la Voie Lactée décroît comme le carré de la distance. (la VL est plate).

J'ai codé ces formules dans les formulaires ci-dessous. Donc maintenant, c'est à vous de jouer ! Vous pouvez entrer vos valeurs préférées et calculer en deux temps Ncvl et Nobs.

Comme à l'habitude j'ai mis par défaut les valeurs que je crois probables, ou au moins possible, mais il est vrai que pour ce qui concerne l'émergence de la vie, c'est du domaine de la boule de cristal.

Ne Nombre d'étoiles ayant existé dans la Voie Lactée pendant au moins 4 milliards d'année
Np/e Nombre moyen de planètes (y compris les lunes) par étoile
Ph Probabilité pour ces planètes d'être situées dans la zone permettant l'émergence de la vie
Pv Probabiblité d'apparition effectif de la vie sur ces planètes
Pi Probabilité d'apparition de "l'intelligence technologique" parmi ces formes de vie

Ncvl = = Le nombre de civilisations ayant laissé des traces dans la Voie lactée

 

 

 

Dvv La durée de vie des vestiges observables
Lo Distance de l'horizon observable
Pcc Probabilité de cohérence de communication

Nobs = = Le nombre de civilisations observables dans la Voie lactée

 

Vous pouvez aussi utiliser la feuille Excel jointe:

Ncvl-Ncvlobs.xls

 

Quelques commentaires sur les valeurs proposées

Ne : j'ai calculé le nombre d'étoiles ayant existé dans la Voie Lactée en prenant les hypothèses suivantes :
Taux de formation actuel : 20 étoiles par an
Taux de formation initial :  200 étoiles par an
J'ai considéré la variation de ce taux comme une fonction en 1/t

Cela donne environ 700 milliards d'étoiles ayant existé aujourd'hui et 600 milliards d'étoiles agées + de 4 milliards d'années (pour laisser à la vie le temps d'émerger).

Np/e : Au pif, et en prenant l'exemple de la Terre, j'ai pris 100 planètes + lunes par étoile. Il faut en effet prendre en compte les satellites des planètes gazeuses capables d'accueillir une forme de vie (ex : Encelade). 

Ph : De nouveau l'exemple de la Terre mène à Np/e x Ph = 2 ou 3. Donc Ph serait de l'ordre de 1 %. Ce choix est très naïf. Il faudrait en effet considérer que Ph est une fonction dépendante du temps (formation progressive des éléments lourds, notamment du fer, nécessaires à la formation de planètes telluriques, qui seules peuvent supporter la vie). Je retiens donc 0,1 %.

Pv et Pi : Boule de cristal, ce sont les 2 paramètres les plus difficiles à cerner. J'ai choisi une probabilité de 1/100 000 pour chacun de ces paramètres, ... .

 

Tous les paramètres qui suivent sont dépendants des technologies d'observation (basées aujourd'hui sur les photons et plus précisément sur les ondes radios en ce qui concerne SETI). Si d'autres technologies sont utilisées un jour (neutrinos, ....), elles changeront complètement les jeux de valeurs de ces paramètres.

Dvv : boule de cristal, cela peut être le temps d'émission d'un signal, ou la durée de vie d'artefacts observables depuis la Terre. J'ai choisi 10 000 ans, car pour l'instant on essaie de capter des ondes radio, enfin des photons sous diverses formes, ...

Dvvl : entre 14 et 15 milliards d'années. En fait, j'ai pris 10 milliards d'années en tenant compte des 4 milliards d'années nécessaire à l'émergence de la vie.

Rappelons quelques données sur la Voie Lactée : âgée de près de 15 milliards d'années, contenant entre 200 et 400 milliards d'étoiles, elle a pour diamètre 100 000 année-lumière et une épaisseur de 700 année-lumière au niveau du soleil, qui lui, est situé à 28 000 année-lumière de son centre.

Lo : horizon observable à l'aide de nos technologies : il est situé aujourd'hui à environ 20 000 année-lumière pour la détection d'exo-planètes, donc bien inférieur pour la détection des vestiges de civilisations sur ces planètes

Lvl : comme expliqué plus haut, rayon de la VL, donc environ 50 000 année-lumière

Pcc : boule de cristal, ce paramètre a pour objet de mesurer le recouvrement des technologies entre émetteur et récepteur et des logiques qui leur permettraient de s'envoyer des signatures.

 

 

En conclusion : même si il est possible que nous ne soyons pas seuls dans la Voie Lactée, nous restons totalement isolés, faute de pouvoir  communiquer !

1. Tout cela nous montre que "l'équation de Drake" est bien simpliste, mais que la méthode qu'elle propose est intéressante pour élaborer des outils pifométriques

2. La comparaison entre Ncvl et Nobs est lumineuse pour éclairer le débat qui dure depuis une cinquantaine d'années entre "ceux qui y croient" et "ceux qui n'y croient pas". En effet même avec des évaluations basses, le nombre de civilisations ayant existé dans la Voie Lactée est impressionnant ! Mais la probabilité de les observer est désespérément basse.

 

drake,équation de drake,paradoxe de fermi,seti,carl sagan,vie extra-terrestre,civilisations dans la voie lactée,principe anthropique,formules de marto,archéologie galactique

 

 
3. Ces calculs montrent que des programmes comme SETI n'ont de sens que si l'espèce humaine améliore drastiquement ses capacités d'archéologie galactique, c'est à dire sa capacité à exhumer les vestiges laissés dans la galaxie. Aujourd'hui, nous observons essentiellement des photons (Rayons gamma, rayons X, lumière, ondes radio, ...), photons qui sont largement perturbés par les environnements traversés et par les multiples sources d'émission (ex : difficultés de discriminer les photons d'une planète de ceux de son étoile). Il est donc essentiel de rechercher quelles autres particules permettraient une communication plus efficace, qu'aurait découvert des civilisations plus évoluées que la nôtre.

 
4. Le recours à la simulation devrait aussi permettre de mieux comprendre des phénomènes comme la formation des planètes et l'apparition de la vie et de restreindre ainsi les domaines d'incertitude des paramètres les moins bien cernés et avancer dans la compréhension de notre présence dans l'univers. Comme d'habitude en cosmologie, c'est la confrontation entre des modèles de plus en plus élaborés et des mesures de plus en plus précises qui permettra d'y voir plus clair.

Sommes-nous une exception ? ou bien sommes-nous un item banal d'une multitude de sociétés largement répandues dans notre galaxie ?

Lire à ce sujet : 

http://www.futura-sciences.com/fr/news/t/astronomie/d/le-...

 

Lire aussi le point de vue des sceptiques du Québec que je trouve très pertinent :

http://www.sceptiques.qc.ca/activites/conferences/mai-2009

 

Marto

 

18/01/2011

Combien de civilisations dans la Voie Lactée ?

Comme je l'avais annoncé dans une précédente note, Expériences de pensée, j'aimerais revenir sur le sujet de l'émergence de l'intelligence dans l'univers. En fait, dans la présente note, pour des raisons pragmatiques de dimension de l'espace-temps, je me limiterai à la question de l'émergence de l'intelligence dans la Voie Lactée. (Rappelons que la dimension de la Voie Lactée est de l'ordre de 100 000 années-lumière).
Beaucoup de choses ont été publiées à ce sujet dans la presse et sur le net, ma contribution pourrait être de simplifier, et surtout de mettre l'accent sur quelques points de cette question, notamment en ce qui concerne les rapports de la science et de la philosophie.
Science ? En fait soyons modeste, il ne s'agit pas réellement de science, mais plutôt de spéculations scientifiques.
En effet le débat sur cette question tourne essentiellement autour de 2 principes et d'une équation :
1. Le principe ou le paradoxe de Fermi, qui est plein de bon sens et que l'on peut résumer ainsi :
"Si la vie extra-terrestre intelligente était banale et très répandue dans la Voie Lactée, nous en aurions des preuves manifestes".
Or aujourd'hui malgré nos efforts et nos moyens d'observation qui nous permettent de scruter des galaxies distantes de 13,5 milliards d'années-lumière, il nous faut bien accepter "que le ciel reste désespérément vide".
http://www.exobiologie.fr/index.php/vulgarisation/astrono...
2. Le principe anthropique, à l'opposé, part de la constatation que nous sommes la preuve de l'apparition d'au moins une civilisation intelligente, et donc que la probabilité de l'émergence d'une telle civilisation n'est pas nulle. Mais c'est tout ce que l'on peut en tirer.
La probabilité d'un évènement qui est déjà survenu est de un. Mais le fait qu'il se soit produit une fois n'a aucune conséquence sur sa probabilité de se produire à nouveau.
En résumé, nous sommes là, à observer l'univers. Nous ne pouvons en déduire aucune conséquence sur la probabilité d'un tel fait, mais de ce fait, nous pouvons déduire beaucoup de choses sur la structure d'un univers qui nous a permis d'être là.
3. L'équation de Drake, qui n'est pas à proprement parler une équation mais une formule, permet d'évaluer le nombre de civilisations capables d'émettre à un moment donné des signaux de communication dans notre galaxie, la Voie Lactée.
Cette formule s'exprime sous la forme suivante :
Ncvl = Ne/an x Np/e x Ph x Pi x Pc x Dv
Dans la table suivante figurent les explications sur les divers paramètres de la formule. Leurs valeurs sont aujourd'hui hautement spéculatives, saufs pour les 2 premiers paramètres.
 
Ne/an Nombre de nouvelles étoiles par an dans la Voie Lactée
Np/e Nombre moyen de planètes (y compris les lunes) par étoile
Ph Taux de planètes situées dans la zone permettant l'émergence de la vie
Pv Taux d'apparition effectif de la vie sur ces planètes
Pi Taux d'apparition de "l'intelligence technologique" parmi ces formes de vie
Pc Taux de civilisations intelligentes émettant des signaux dans l'intention de communiquer
Dv Durée de vie des civilisatons communicantes

Ncvl = = Le nombre de civilisations communicantes dans la Voie lactée

 

Les valeurs par défauts, que j'ai programmées sont celles que je crois possibles (elle sont le produit de mon imaginaire). Elles conduisent à Ncvl de 0.15 ce qui est conforme au principe de Fermi.

Libre à vous de rentrer d'autres valeurs et d'indiquer vos résultats et vos spéculations en commentaire.

 

Drake, lui avait spéculé les valeurs suivantes :
Ne/an = 10
Np/E x Ph = 1 (en moyenne 1 planète par étoile est habitable)
Pv = 1 (toutes ces planètes développent de la vie)
Pi = 0.01 (1% deviennent intelligentes)
Pc = 0.01 (1% émettent des signaux)
Dv = 10 000 (la durée de vie d'une civilisation intelligente est de 10 000 ans)

Ce qui conduit à un Ncvl de 10 !

 

A vous de jouer, de noter vos résultats et vos remarques en commentaire !

 

En fait cette formule est très pragmatique : elle pose de façon pratique la question de l'utilité du SETI, le fameux programme d'observation du ciel à la recherche de signaux extra-terrestres.

http://fr.wikipedia.org/wiki/Search_for_Extra-Terrestrial...

 

 

Mais au delà ce ce petit exercice, beaucoup de questions restent ouvertes et permettent d'exercer notre imagination :
- Qu'est-ce que la vie ? Que pourrait-elle être ailleurs ?
- Qu'est-ce que la vie intelligente ?
- A quoi pourraient ressembler d'autres civilisations ?
- Pourquoi rechercher la vie dans l'espace et la détruire sur Terre ?
- Que faire si nous découvrons ces fameux signaux ?

Beaucoup questions déjà abordées dans 2001, l'Odyssée de l'espace. Ah, ce cher Kubrick !

 

25/12/2010

L'Hoax de la Nasa : la bactérie shootée à l'arsenic sent le soufre

A Thomas

 

Le 2 décembre 2010 tombait sur Internet un communiqué de la Nasa : «une découverte en astrobiologie qui aura un impact sur la recherche de preuve d'une vie extraterrestre». Une conférence de presse doit suivre.

http://www.nasa.gov/topics/universe/features/astrobiology_toxic_chemical.html

La blogosphère s'enflamme, les Ufologues (les croyants du monde des ovnis) exultent ...

Le Nouvel Obs titre : "La Nasa découvre une nouvelle forme de vie extra-terrestre "

« L'agence spatiale américaine aurait découvert "une bactérie dont l'ADN est complètement étranger à ce que l'on connait aujourd'hui", avance le site spécialisé Gizmodo »

 

Où en sommes-nous 15 jours après ? La baudruche s'est largement dégonflée :

« En effet, aucun petit homme vert n'était au rendez-vous fixé aux journalistes, jeudi 2 décembre, au siège de la NASA, à Washington. Mais un microbe californien, tiré des boues saumâtres du lac Mono. Une bactérie baptisée GFAJ-1, dont les caractéristiques pourraient tout de même conduire à une révision fondamentale des règles du vivant, où qu'il soit.

La vie sur Terre repose en effet sur six éléments : oxygène, carbone, hydrogène, azote, soufre et phosphore. La particularité de GFAJ-1, c'est qu'elle peut croître dans un milieu où le phosphore est remplacé par l'arsenic, son plus proche voisin dans le tableau périodique des éléments. »

La Nasa est tombée bien bas. Confrontée à une triste réalité budgétaire, elle a tenté de s’en sortir par une opération Marketing à la limite de la désinformation.

La réalité de la Nasa, c‘est la fin du rêve américain de domination de l’espace, dont l’apogée a été marquée il y a quarante ans par les missions Apollo et les premiers pas de l’homme sur la lune.

La triste réalité c’est la fin de la navette spatiale, qui fût globalement un échec et une impasse : plus chère, moins fiable (explosions de Columbia et Challenger, 14 morts) et moins disponible que les lanceurs classiques, la navette américaine a logiquement été abandonnée laissant la Nasa sans lanceur pour des vols habités. Le programme Constellation et son lanceur Orion lancé par Crazy Bush, ont été abandonné faute de financement.

Dans ce domaine, comme d’autres, Obama a été obligé de nettoyer les écuries d’Augias. Pour la Nasa ce fût l’atterrissage brutal. L’opération retour sur la lune est « enterrée ».

Dans le même temps, Soyouz retrouve une nouvelle jeunesse, après cinquante ans de bons et loyaux services. Ce sera, en 2012, le seul lanceur pour rejoindre l’ISS, la Station Spatiale Internationale.

Et la Chine et le Japon affichent leurs ambitions spatiales, bientôt suivis par l’Inde.

C’est dans ce contexte que la Nasa lutte pour préserver ses budgets colossaux et pour cela, elle doit continuer de faire rêver les états-uniens de base … Les faire rêver avec un programme réorienté vers la recherche de la vie extra-terrestre.

Vie extra-terrestre sur des planètes comme Mars, avec un programme d’envoi de robots dès 2011. Mais le retour d’échantillons sur terre n’est prévu qu’après 2020.

Donc en attendant, il faut se contenter d’étudier la vie ici et maintenant sur terre, avec des projets d’astrobiologie, c’est à dire de recherche sur l’origine de la vie, éventuellement extra-terrestre.

C’est dans ce cadre que la Nasa a recruté en 2010 une chercheuse du joli nom de Felisa, pressée de se faire un nom dans le monde scientifique. Elle avait en effet découvert en 2009 une souche de bactérie bizarre dans le lac Mono (Californie), quelle avait prénommée GFAJ. GFAJ, oui bien sûr comme " Get Felisa a Job ".

mono_lake01-09.jpgFelisa Wolfe-Simon (NASA-USGS) a eu l'idée de shooter cette bactérie à l’arsenic, pour voir comment elle réagissait. Et aurait elle-même été surprise de constater que le poison s'intégrait sans dommage au coeur même de la machinerie microbienne, y compris dans l'ADN et dans le carburant cellulaire, l'ATP. D’où le communiqué du 2 décembre…

 

 

 

 

La Nasa n’en est pas à son premier Hoax. L'exemple le plus célèbre de ses dérapages médiatiques remonte à 1996. Le 16 août de cette année-là est publié dans Science un article annonçant la découverte de traces biologiques fossiles au sein d'une météorite martienne, ALH84001, retrouvée en Antarctique douze ans plus tôt. Il s’avère peu de temps après qu’il s’agit probablement d’une contamination terrestre.

 

"Outre-Atlantique, le doute à l'égard de l'annonce mise en scène par la NASA s'est diffusé via des scientifiques bloggeurs. Rosie Redfield, de l'université de Colombie-Britannique, dont le site a attiré rapidement des milliers de visiteurs, a décidé d'adresser ses critiques, saignantes, à la revue Science, qu'elle accuse de ne pas avoir correctement évalué le travail soumis par Felisa Wolfe-Simon. Cette dernière a vite compris que la politique choisie par la NASA - ne pas répondre à des objections émanant de la blogosphère - n'était pas tenable. Elle devrait aussi rapidement diffuser GFAJ auprès des laboratoires qui souhaiteraient vérifier ses conclusions. Ou les invalider."

 A suivre ...

Prochaines étapes des découvertes de Felisa :

GFAN : Get Felisa A Name

GFAP : Get Felisa A Price


 

07/12/2010

Bull is back !

Bull, quesaco ?

Red Bull, Sitting Bull, Raging Bull, Dog Bull, la BD Bull ?

Mais non, je fais référence à l’ex-constructeur national, le fleuron de la technologie française dans les années 60, le tombeur de la CII, le bénéficiaire principal du plan calcul, le nationalisé et recapitalisé de 1981. Si vous avez plus de quarante ans, cela devrait vous intéresser, car vous avez payé une bonne partie de son déficit à travers vos impôts …

Quand on interroge quelqu’un de moins de cinquante ans, peu de chance que l’on fasse référence à l’ancien constructeur  informatique, qui faisait presque jeu égal avec IBM dans les années 50.

Mais c’était au siècle dernier …

 

Aujourd’hui Bull fait de nouveau parler de lui mais de façon plus modeste.

En effet Bull vient de livrer au CEA Tera 100, le 6eme plus puissant ordinateur de la planète.

Avec 1,05 pétaflops de puissance de calcul sur le test du Linpack, Tera 100 devient le premier supercalculateur européen à franchir la barre du pétaflops (1015 Floating Point Operation per second). Les Etats-Unis et la Chine sont toutefois nettement devant avec des puissances qui avoisinent désormais les 2 pétaflops.

Sur la base du classement de novembre 2010, le Tera 100 de Bull et du CEA se classerait en sixième position derrière trois systèmes chinois et deux état-uniens.

TOP 10 Systems - 11/2010

1

Tianhe-1A - NUDT TH MPP, X5670 2.93Ghz 6C, NVIDIA GPU, FT-1000 8C

2

Jaguar - Cray XT5-HE Opteron 6-core 2.6 GHz

3

Nebulae - Dawning TC3600 Blade, Intel X5650, NVidia Tesla C2050 GPU

4

TSUBAME 2.0 - HP ProLiant SL390s G7 Xeon 6C X5670, Nvidia GPU, Linux/Windows

5

Hopper - Cray XE6 12-core 2.1 GHz

6

Tera-100 - Bull bullx super-node S6010/S6030

7

Roadrunner - BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband

8

Kraken XT5 - Cray XT5-HE Opteron 6-core 2.6 GHz

9

JUGENE - Blue Gene/P Solution

10

Cielo - Cray XE6 8-core 2.4 GHz

 

Tera 100 est le fruit d'un investissement de 100 millions d'euros. Il s'agit d'un cluster composé de 4 370 serveurs Bullx série S regroupant 17 480 processeurs Intel Xeon 7500, 300 To de mémoire et 20 Po de capacités de stockage.

La puissance de calcul de Tera 100 est exploitée par les chercheurs du CEA (exclusivement) pour réaliser des simulations sur les systèmes d’armes nucléaires. Depuis l’arrêt des essais nucléaires, la simulation numérique est devenue critique dans ce secteur de la recherche.

Pour rappel :

Unité de performance des processeurs

Nom

FLOPS

 

yottaFLOPS

1024

 

zettaFLOPS

1021

 

exaFLOPS

1018

 

pétaFLOPS

1015

 

téraFLOPS

1012

 

gigaFLOPS

109

 

megaFLOPS

106

 

kiloFLOPS

103

 

 

Du Gamma 60 au Tera 100, positionnement de Bull

gamma60_baie.jpgA ses débuts Bull était positionné sur la vente d’objets complexes à fort valeur ajoutée et en petit nombre (Quelques centaines puis quelques milliers au maximum).

Ici on voit un Gamma 60, des années 1957-1964. (Il faut noter que ces systèmes avaient été livrés sans OS, qui furent développés conjointement avec les premiers clients).

Bull a ensuite été reconnu pour la qualité et les performances de ses systèmes DPS/GCOS dédiés aux applications de gestion des banques, assurances et grandes administrations. 

 

 

 

 

1-reportage-tera100.jpg

Avec l’arrivée des systèmes ouverts, d'Unix et de Windows, Bull a vainement  tenté de changer de positionnement, mais n’a jamais réussi à se positionner sur le marché des produits à fort volume et à faible valeur ajoutée.

Avec le Tera 100, Bull retrouve aujourd’hui son ancien positionnement. Espérons que cela lui réussisse ...

 

 

Le Tera 100

 

 

 

Si la techno des années 50 vous intéresse aller sur :

http://www.feb-patrimoine.com/PROJET/gamma60/gamma60_tech... 

27/03/2010

Expériences de pensée

Comment ne pas être fasciné par les « Expériences de pensée » ? Quel pouvoir d'imagination, quelle économie de moyens et quelle liberté de créativité !


Mais de quoi s’agit-il exactement ?

Une expérience de pensée (Thought experiment, ou Gedankenexperiment) est une méthode pour résoudre un problème scientifique ou philosophique en utilisant la seule puissance de l'imagination et de la pensée humaine, afin de substituer à l’expérimentation réelle une expérimentation accomplie par l’imagination.


Cette méthode remonte initialement à Galilée, mais a été utilisé par de nombreux scientifiques de Newton à Einstein. Elle a été étudiée en détail par Ernst Mach, dans La Mécanique[1], puis dans La Connaissance et l’erreur, Paris, 1919, où il en retrace le développement historique et lui donne une justification épistémologique.


La démarche générale qui préside aux expériences de pensée se formule par la question : que se passerait-il si... ? De nombreuses expériences de pensée portent sur les paradoxes de notre connaissance, mais elles peuvent porter sur des situations réelles, possibles physiquement.


Illustrons cela par l’exemple bien connu de la poussée d’Archimède :

« Considérons un fluide au repos. Délimitons, par une expérience de pensée, un certain volume de forme quelconque au sein de ce fluide. Ce volume est lui aussi au repos : malgré son poids, ce volume ne tombe pas. Cela signifie donc que son poids est rigoureusement équilibré par une force opposée, qui le maintient sur place, et qui provient du fluide extérieur. Remplaçons maintenant, toujours dans notre expérience de pensée, ce volume par un corps quelconque. Comme la force qui maintenait le fluide en équilibre est une force de pression agissant à la surface du volume, il est possible de supposer que cette même force s'applique encore au corps immergé : elle est toujours opposée au poids de fluide déplacé. C'est la poussée d'Archimède. »


Une expérience de pensée est généralement composée de trois étapes :


1. L’expérimentateur conçoit un scénario imaginaire dans son esprit afin de répondre à une question définie qui est généralement liée à une théorie spécifique.
2. Suite à l’exploration du scénario, il obtient par la seule pensée un résultat.
3. Enfin, de ce résultat, il tire les conclusions de son expérience de pensée.


Les modes de raisonnement impliqués peuvent être :
- pré factuel : Que se passerait-il si A arrivait ?
- contrefactuel : Que se passerait-il si A arrivait eu lieu de B ?

- de substitution : Que se passerait-il si on remplaçait B par A ?
- semi factuel : Est-ce qu’Y arriverait toujours si on avait X au lieu de A ?
- plus généralement le mode de raisonnement peut être prédictif, par simulation après coup, ou analytique des différentes étapes qui conduisent à un résultat.



Quelques exemples d’expériences de pensée


Le seau de Newton

Il n'est pas fréquent qu'un seau d'eau occupe le cœur d'un débat long de trois cents ans. Mais un seau ayant appartenu à sir Isaac Newton n'est pas un seau ordinaire, et la petite expérience qu'il décri­vit en 1689 a eu depuis une influence considérable sur les plus grands physiciens du monde, de Newton et Leibniz à Einstein en passant par Ernst Mach.

Voici l'expérience en question : prenons un seau rempli d'eau, pendons-le par une corde, faisons tourner le seau pour torsader la corde au maximum, puis lâchons le tout. Au début, le seau commence à tourner mais l'eau qu'il contient reste à peu près immobile; la surface de l'eau reste plate. Lorsque le seau commence à prendre de la vitesse, petit à petit, par le biais des frottements, son mouvement se communique à l'eau, qui commence elle aussi à tourner. Comme il se doit, la surface de l'eau prend une forme concave, plus haute sur les bords et plus basse au centre.

Voilà donc l'expérience - pas de quoi nous faire tourner la tête. Mais, en y réfléchissant un peu plus, nous prenons conscience que ce seau d'eau en rota­tion est surprenant. Et comprendre ce qui entre en jeu, bien qu'après trois siècles nous n'y soyons pas encore parvenus, est l’une des étapes les plus importantes pour la compréhension de la structure de l’univers.

Newton pose en effet la question du référentiel absolu. En examinant le seau en rotation, il observe que la surface du liquide forme une parabole due aux forces d’inertie. En effet, le liquide étant soumis à une rotation, subit une accélération. Il en conclue que la parabole indique une accélération absolue. Mais une accélération par rapport à quoi ? Par rapport aux étoiles lointaines supposées fixes, c’est à dire par rapport à une certaine distribution globale de matière prise comme référence ? Oui sans doute, mais dans l’hypothèse où l’univers entier serait en rotation et le seau resterait fixe, les mêmes forces apparaîtraient ; parler d’accélération absolue n’a pas plus de sens que de parler de vitesse absolue.

Mach, poursuivra sa réflexion en ce sens : sans masse dans l’univers autour du seau (et notamment en l’absence des masses lointaines qui définissent le champ global de gravitation), l’accélération ne pourrait pas être définie, il n’existerait pas d’inertie et la surface du liquide ne subirait pas une parabole de révolution; l’inertie est due à l’influence des masses de l’univers sur l’objet en mouvement dans le champ de gravité global de l’univers.

Ainsi, l’inertie, phénomène intrinsèque pour Galilée, relatif à un espace absolu pour Newton, devient un phénomène lié à la cosmologie pour Mach. Ce sera aussi le point de vue d’Einstein, mais le débat est toujours ouvert.



Géométrie non euclidienne

Qu’en serait-il du monde, par exemple, si on postulait que les parallèles se rejoignent ? On sait qu’en réponse à cette question, on a pu construire un monde entièrement cohérent dont la principale caractéristique est l’espace courbe ; est ainsi née la géométrie non-euclidienne.

 


La disparition de la Lune

Que se passerait-il si tout à coup, la Lune disparaissait ? L’effet gravitationnel sur la Terre serait-il immédiat ? Ou faudrait-il un certain temps pour que cet effet se fasse ressentir sur Terre ? Si oui quelle en serait la vitesse de propagation ?

De nombreux physiciens répondront que cette propagation est instantanée et la controverse durera jusqu'à Einstein qui, en application de la théorie de la Relativité Générale, montrera que cette propagation se fait à la vitesse de la lumière.



Le bateau de Thésée

D'après la légende grecque, rapportée par Plutarque, Thésée serait parti d'Athènes combattre le Minotaure. À son retour, vainqueur, son bateau fut préservé par les Athéniens : ils retiraient les planches usées et les remplaçaient - de sorte que le bateau resplendissait encore des siècles plus tard. Alors, deux points de vue s'opposèrent : les uns disaient que ce bateau était le même, les autres que l'entretien en avait fait un tout autre bateau. Le problème est de savoir si le changement de matière implique un changement d'identité, ou si l'identité serait conservée par la forme, ou encore d'une autre façon?

Il y a une autre question, corollaire : si on avait gardé les planches du bateau et qu'on l'avait reconstruit plus tard, serait-ce encore le même bateau ?

Pour les uns, le bateau de Thésée n'aurait pu rester identique à lui même que s'il était resté à quai, constamment entretenu, et dans ce cas, même si aucune pièce d'origine ne subsistait du bateau d'origine, c'est bien ce bateau-là qui aurait été le témoin de l'aventure de Thésée.



Le principe anthropique (Cet article ou cette section doit être recyclé. Sa qualité devrait être largement améliorée en le réorganisant et en le...)

Dans le domaine de la recherche d’autres forme de vies dans l’univers, il est particulièrement intéressant de mener des expériences de pensée à partir du principe anthropique qui peut s’énoncer de la façon suivante :

« Le principe anthropique (Cet article ou cette section doit être recyclé. Sa qualité devrait être largement améliorée en le réorganisant et en le...) (du grec anthropos, homme) est un principe métaphysique qui énonce que si nous observons l'univers (On nomme univers l'ensemble de tout ce qui existe, comprenant la totalité des êtres et des choses (celle-ci comprenant...) tel que nous le connaissons, c'est avant toute autre chose parce que... nous nous y trouvons ! Car, si nous n'y étions pas, nous ne serions pas là pour le constater. Il a été formulé et développé par Brandon Carter de l'observatoire de Meudon mais on en trouve le principe au premier livre du Monde comme volonté et comme représentation de Schopenhauer où il montre d'une part l'impossibilité pour toute science (La science (du latin scientia, connaissance) relève Historiquement de l'activité philosophique, et fut pendant...) d'atteindre une réalité en soi, d'autre part la confusion que font les hommes entre l'univers conçu et un supposé univers objectif indépendamment du sujet qui le conçoit. »

Ceci nous mènera à étudier le paradoxe de Fermi et l’équation de Drake, mais ce sera pour un autre article.

 

Liste de leins utiles sur les Expériences de pensée :

 

Petites expériences de pensée - Wikipédia

Thought experiment - Wikipedia, the free encyclopedia

Poussée d'Archimède - Wikipédia

expérience de pensée mach - Recherche Google

plaud.pdf (Objet application/pdf)

plaud.html





[1] La mécanique, exposé historique et critique de son développement, tr. E. Picard, Paris, Hermann, 1904

07/03/2010

"Je suis une boucle étrange" de Douglas Hofstadter - Dunod.

jesuisuneboucleetrange.gifPour tous ceux qui ont aimé "Gödel Escher Bach, les brins d'une guirlande éternelle", Douglas Hofstadter n'est plus ce qu'il était.

Ce nouveau livre, censé traquer les mécanismes de la conscience jusque dans la matière, commence de façon brillante par un dialogue socratique qu'Hofstadter avait écrit dans sa jeunesse.

Puis le sujet (qu'est-ce que le Je ?) est abordé grâce à la notion d'autoréférence, ce qui nous entraîne vers de multiples boucles étranges et notamment le théorème de Gödel. Une bonne partie du livre est centré sur ce sujet, mais c'était déjà celui de "Gödel Escher Bach".

Puis la suite n'est qu'un simple vagabondage sans beacoup de cohérence le long des thèmes préférés d'Hofstadter. Et les illustrations ternes et sans intérêt nous font regretter les dessins d'Escher. C'est bien dommage.

Pour une critique plus détaillée, lire ErMa dans Circa Diem : http://britedevil.over-blog.com/article-26314913.html