There’s Plenty of Room at the Bottom

En préparant un prochain article, je suis retombé sur un texte fondateur de la technologie moderne, celui de la présentation que Richard Feynman a donné le 29 décembre 1959 à la réunion annuelle de l'American Physical Society à (Caltech).

Intitulé "There's Plenty of Room at the Bottom", ce discours toujours visionnaire après presque 50 ans posait les bases de la course à la miniaturisation qui nous fournit chaque année des ordinateurs et autres gadgets plus puissants, plus fiables et moins chers, et qui nous amène vers les nanotechnologies.

Comme on ne trouve pas de traduction en français de cette référence, du moins sur le web, je m'y suis attaqué sur Google Docs, en partant d'une traduction automatique (fini le 11 juin 2009 : le résultat est ici)

Voici le passage qui m'intéressait pour le prochain article:

Miniaturiser l'ordinateur

Je ne sais pas comment les rendre petites en pratique, mais je sais que les machines informatiques sont trop grandes, elles remplissent des pièces. Pourquoi ne pouvons-nous pas les rendre très petites, avec de petits fils et de petits composants, et par "petits", je veux dire "vraiment petits" ? Par exemple, les fils devraient avoir 10 ou 100 atomes de diamètre, et les circuits ne devraient avoir que quelques milliers d'angströms.

Tous ceux qui ont analysé la théorie logique des ordinateurs parviennent à la conclusion que les possibilités des ordinateurs seraient très intéressants, s'ils pouvaient être rendus moins complexes de plusieurs ordres de grandeur. S'ils avaient des millions de fois plus d'éléments, ils pourraient émettre des jugements. Ils auraient le temps de calculer le meilleur moyen de faire le calcul qu'ils sont sur le point de faire. Ils pourraient choisir la méthode d'analyse qui, par leur expérience, serait meilleure que celle que nous leur fournirions. Et ils auraient plusieurs nouvelles caractéristiques qualitatives.

Si je regarde votre visage, je sais immédiatement que je l'ai vu avant. (En fait, mes amis vont dire que j'ai choisi un exemple malheureux pour illustrer ce sujet, mais au moins, je reconnais que c'est un homme et pas une pomme.) Pourtant, il n'existe pas de machine qui puisse aussi vite prendre une image d'un visage et dire qu'elle représente un homme, et encore moins que c'est le même homme que sur une précédente photo, à moins que ce ne soit exactement la même image. Si le visage est changé, si j'en suis plus proche, ou plus loin, si la lumière n'est pas la même, je le reconnais quand même. Ce petit ordinateur que je porte dans ma tête est capable de le faire facilement. Les ordinateurs que nous construisons ne sont pas en mesure de le faire. Le nombre d'éléments dans ma boîte osseuse est énormément plus élevé que le nombre d'éléments dans notre plus merveilleux ordinateur. Mais nos ordinateurs mécaniques sont trop gros; alors que les éléments dans cette boite sont microscopiques. Je veux en faire qui soient sub-microscopiques.

Si nous voulions faire un ordinateur ayant tous ces merveilleuses capacités supplémentaires, il devrait avoir, peut-être, la taille du Pentagone. Cela a plusieurs inconvénients. Tout d'abord, ça exige trop de matériel; il n'y a pas assez de germanium dans le monde pour tous les transistors qui doivent être mis dans cette énorme chose. Il y a aussi le problème de la production de chaleur et de la consommation d'énergie; la production de la TVA serait nécessaire pour faire tourner l'ordinateur. Mais une difficulté plus importante est que l'ordinateur serait limité à une certaine vitesse. En raison de sa grande taille, il faut un certain temps pour transférer l'information d'un endroit à l'autre. L'information ne peut pas aller plus vite que la vitesse de la lumière, donc si, nous voulons obtenir des ordinateurs de plus en plus rapides et de plus en plus élaborés, nous aurons à les rendre de plus en plus petits.

Mais il ya beaucoup de place pour les rendre plus petits. Il n'ya rien que je puisse voir dans les lois physiques qui dit que les composants des ordinateurs ne peuvent pas être considérablement plus petits qu'ils ne le sont maintenant. En fait, il y aurait même des avantages...

Feynman continue avec une description très précise des technologies actuellement utilisées pour produire des circuits intégrés de plus en plus puissants, mais qui ne sont toujours pas capable de reconnaître rapidement un visage humain. Par contre, le fait que la miniaturisation électronique permet simultanément d'augmenter la vitesse des ordinateurs et de diminuer leur consommation est l'élément clé du prochain article intitulé Loi de Moore... toujours ?

Références:

  1. Feynman, Richard P. “There's Plenty of Room at the Bottom.” Engineering and Science, Février 1960.
  2. Feynman, Richard P. “There's Plenty of Room at the Bottom.” Popular Science, Novembre 1960.
  3. Feynman, Richard P. "Vous voulez rire, Monsieur Feynman !", 2007, Éditions Odile Jacob, ISBN : une biographie marrante et passionnante de cet incorrigible curieux lauréat du Prix Nobel de physique
Comment | , , , , . permalink.
  • Yogi

    By the end of the war, TVA had completed a 650-mile (1,050-kilometer) navigation channel the length of the Tennessee River and had become the nation’s largest electricity supplier.

    http://www.tva.com/abouttva/history.htm

    Bravo pour votre blog !! Heureux de vous avoir découvert via le Café !

  • Yogi

    Ah bah mon commentaire du 13 juin est-il si discutable qu’il mérite 5 jours de réflexion du modérateur :-) ?

  • http://goulu.net Dr. Goulu

    oups, désolé j’ai été un peu occupé et ça a glissé …
    merci beaucoup pour l’info sur la TVA américaine (j’ai un peu honte de ne pas avoir essayé TVA.COM…)

  • Lisa SION

    « …Ils auraient le temps de calculer le meilleur moyen de faire le calcul qu’ils sont sur le point de faire… »

    monument de logique…!

  • http://goulu.net Dr. Goulu

    pour « Lisa Sion » : en fait cette remarque sur les ordinateurs qui « auraient le temps de calculer le meilleur moyen de faire le calcul qu’ils sont sur le point de faire…” montre que Feynman n’était pas informaticien, ni vraiment logicien, sinon il n’aurait pas osé dire ça.

    En effet, ce qu’il décrit est appelé la « fonction d’arrêt » et on peut démontrer que c’est une fonction non calculable. En pratique, il n’y a pas d’autre moyen de savoir combien de temps va prendre un programme (général) que de l’exécuter, et comme on l’a tous déjà expérimenté, c’est impossible de savoir si un programme est planté ou travaille toujours …