Physique et technologie : l'exemple de la microélectronique
La microélectronique:
Un rapide historique :
L’histoire de la découverte du transistor et des développements subséquents est pleine d’exemples très riches illustrant les divers modes par lesquels la créativité scientifique et l’accroissement des connaissances tirent le processus de découverte. Dans la première moitié du XXe siècle, l’électronique et la radio reposaient sur des tubes à vide. Le but à atteindre était alors de rendre simples, compactes et efficaces les fonctions de détection et d’amplification de ces lampes. Mais la compréhension des processus de transport des électrons dans les solides, et particulièrement dans les semi- conducteurs, n’a été obtenue que lorsque la physique quantique a atteint un degré de développement suffisant. La décennie des années 1930 fut très riche sur ce plan. Des progrès dans la pureté des matériaux étaient également requis pour pouvoir observer des comportements contrôlables et reproductibles en liaison avec cette théorie physique, plutôt que des propriétés aléatoires dues à des contaminations. Un concept d’amplificateur basé sur cette nouvelle physique apparut au milieu des années 1930 : c’était le transistor à effet de champ. L’idée simple était de produire un condensateur dont l’une des plaques était un semi-conducteur. En chargeant le condensateur, on induit des porteurs de charge dans le semi- conducteur, et on modifie ainsi sa conductivité. Si l’on insère le semi-conducteur dans un circuit, des modifications de la résistance (et donc du courant) peuvent être induites en changeant le voltage de la plaque (sans donc aucun courant) : on a ainsi la base d’un amplificateur. Malheureusement, on n’arrivait pas à faire fonctionner cette idée simple de physicien à cette époque. La technologie des semi-conducteurs était à peine capable de confirmer pour les physiciens les effets attendus de ces matériaux dans leur masse ; mais la région près de la surface où les charges induites apparaissent était encore incontrôlée. Les porteurs de charge aboutissaient souvent dans des régions où leur mobilité devenue insuffisante ne leur permettait plus de transporter du courant.
Mais, simultanément, les progrès dans la technologie des semi- conducteurs avaient conduit à des améliorations en ce qui concerne la fonction plus simple de détection des radiofréquences. En ajoutant un minuscule contact ponctuel à un semi-conducteur, on produisit des détecteurs extrêmement petits, capables de détecter les fréquences micro-ondes utilisées pendant et après la Seconde Guerre mondiale dans les radars nouvellement développés. Le tube volumineux des diodes à vide était incapable de détecter d’aussi hautes fréquences. On émit alors l’idée d’ajouter un second point de contact au semi-conducteur et de voir si le voltage sur ce second point pouvait éventuellement induire un courant à travers le premier contact. Le transistor « à pointes » naquit ainsi en 1948 auquel succéda un peu plus tard le transistor à jonction plus simple à élaborer. Partant des premières idées qualitatives, la théorie physique des semi-conducteurs permit de décrire en détail le fonctionnement de ces dispositifs plus complexes, un grand succès pour la toute jeune théorie quantique de l’état solide.
Il fallut une décennie supplémentaire avant qu’apparaisse le transistor plus simple à effet de champ. Lorsqu’on sut réaliser industriellement des interfaces de haute qualité entre le silicium et son oxyde Si02, on obtint les premières structures MOS (métal-oxyde semi-conducteur). C’est également dans les années 1960, avec la capacité de mettre de nombreux transistors sur un seul cristal semi-conducteur, que l’on commença à exploiter le concept de circuit intégré. C’est alors qu’apparut la supériorité du transistor à effet de champ par rapport au transistor à jonction, par sa capacité à être miniaturisé et à ne consommer qu’une faible puissance (CMOS, structure complémentaire). Au bout du compte, même si la compréhension détaillée de la physique des semi-conducteurs et le contrôle des processus physiques dans le transistor étaient devenus très élaborés, c’est bien l’idée physique simple de départ qui est à l’origine de toute la révolution microélectronique. Celle-ci a permis les incroyables progrès dans l’intégration des dispositifs. Chaque réduction de la taille par un facteur conduit à un accroissement des performances par un facteur pouvant aller jusqu’à 8. Sans ces progrès, la puissance de calcul nécessaire pour réaliser une image médicale par IRM demanderait un ordinateur ayant la taille de l’Arc de triomphe, qui de surcroît tomberait en panne toutes les milli-secondes.
CMOS : une révolution permanente
Les progrès dans la technologie CMOS ont reposé sur bien d’autres domaines de la physique que celle de l’état solide : l’optique, la mécanique, le calcul scientifique, etc., ont été sollicités. Réciproquement, tous ces secteurs ont avancé et permis de soutenir le défi de la célèbre loi de Moore : accroissement des performances par un facteur 2 tous les 1 an et demi. L’ampleur de l’activité en ce domaine fut et reste gigantesque : des dizaines de milliers de publications scientifiques et de chercheurs, une activité industrielle qui dépasse les 100 milliards de dollars.
Une propriété essentielle de la structure CMOS est liée à ses facteurs d’échelle, c’est-à-dire la manière dont les caractéristiques des composants, telles que la consommation électrique ou la vitesse d’opération, évoluent avec la diminution de la taille. Les gains de compétitivité obtenus par l’industrie par une réduction de la taille sont tels que les énormes efforts de recherche indispensables pour atteindre ces gains de miniaturisation n’ont jamais été ralentis ou remis au lendemain.
Chaque gain de performance des circuits intégrés se traduit par de nouvelles ruptures : la génération à venir d’ordinateurs peut battre un grand maître aux échecs, ce qui était impossible dans la génération précédente. Aucun autre domaine de l’activité humaine n’a connu une pareille croissance exponentielle soutenue pendant près de quarante ans. Il faut noter que le taux de croissance est lié aux cycles de l’économie : il est indispensable d’exploiter une génération d’usines de fabrication pendant le temps nécessaire à son amortissement. Mais, à l’issue de chacun de ces cycles, les défis scientifiques et technologiques présentés par le suivant ont été surmontés avec succès : la science n’est pas encore à ce jour le facteur limitatif. les avancées principales et les technologies nouvelles qui ont permis à la loi de Moore de se maintenir sont indiquées. Cette progression semble pouvoir se maintenir au moins jusqu’en 2015.Parmi les avancées attendues, on peut souligner :
—de nouvelles sources optiques pour la litho gravure : contrôler les dimensions des composants à une finesse de l’ordre d’une dizaine de nanomètres sur des distances de dizaines de centimètres nécessite l’emploi de sources très intenses dans le domaine des très courtes longueurs d’onde qui va des ultraviolets aux rayons X. Parmi les sources les plus prometteuses figurent celles qui résultent de l’interaction de lasers de haute énergie avec des cibles telles que des agrégats d’atomes ou des vapeurs métalliques. La compréhension au plan physique de ces interactions fait des progrès constants.
—les nouveaux matériaux : obtenir des matériaux de très basse résistivité (meilleurs que le cuivre) est un défi important pour la réalisation du transfert des signaux électriques d’un transistor à l’autre. Il faudra aussi envisager le remplacement de l’oxyde de silicium massif comme isolant de base si l’on veut réduire les courants de fuite et la constante diélectrique. L’une des lignes de recherche ne consiste pas à remplacer ce matériau, mais à modifier sa microstructure ; c’est ainsi que l’on étudie l’introduction d’oxydes de silicium mésoporeux.
— l’architecture des interconnexions : montre un exemple de onze niveaux d’interconnexions. La connexion de mil-liards de transistors sur une seule galette de silicium restera l’un des problèmes majeurs de la microélectronique. C’est un problème dont la solution est loin d’être claire et ce sera peut-être un verrou ultime de cette évolution. Peut-être arrivera-t-on à concevoir quelque chose qui, à l’image du cerveau humain, au lieu de connexions préétablies, sera apte à créer spontanément celles dont il a besoin pour réaliser l’opération demandée…
Et après le cmos ?
Malgré son caractère remarquable, l’évolution montre que la structure de base CMOS arrivera bientôt à sa limite ultime, éventuellement dès 2015. La suite sera peut- être une structure CMOS verticale, résultat d’un programme de recherche mondial sur dix années. L’un des défis pour les physiciens sera de contrôler seulement quelques centaines d’électrons par transistors, alors qu’ils se comptent par millions dans les circuits traditionnels. Des phénomènes exotiques, liés au caractère quantique des lois physiques, se manifesteront alors.
L’instrumentation physique :
Un exemple : la quête pour des évènements de durée ultracourte
Les scientifiques cherchent éternellement à repousser les limites de qui est observable et mesurable. L’extension du domaine explorable n’a cessé d’être la grande quête des physiciens depuis l’invention aux XVIe et XVIIe siècles du microscope, de la lunette astronomique et de l’horloge. Au cours des années 1980, la microscopie a réussi à dépasser les limites imposées par la longueur d’onde de la lumière visible (soit une fraction de micromètre) : c’est l’invention de la microscopie en champ proche, dont le précurseur, le microscope à effet tunnel valut le prix Nobel à G. Binnig et H. Rohrer (1986). Grâce à ces instruments, il est devenu possible d’observer et de manipuler des molécules une par une et même des atomes : la microscopie a donc atteint un niveau subnanométrique. À peu près à la même période, les progrès de l’optique, mis au service des observations astronomiques, ont conduit aux premières détections de planètes situées en dehors du système solaire.
Les instruments capables de mesurer des durées ultra brèves ont fait des progrès gigantesques au cours de la période récente. Certains lasers émettent des flashs de lumière si brefs que le champ électro-magnétique associé n’a que le temps d’émettre trois oscillations (soit 10 femtosecondes pour l’infrarouge proche). Dans l’ultraviolet, la barrière de la femtoseconde (10 13 seconde) a été franchie, et les temps se comptent maintenant en attosecondes (10-18 seconde).
Ces avancées remarquables concernent ce que l’on peut appeler le « temps de l’ingénieur », c’est-à-dire un intervalle de temps contrôlable. Des temps encore beaucoup plus courts apparaissent en physique, par exemple lorsque l’on considère le temps de vie de particules exotiques instables. Mais ces temps sont des paramètres physiques et non des entités contrôlables. C’est ainsi que l’on ne peut pas dire à la particule : « Désintégrez-vous dans 10 25 seconde SVP ! » Les temps contrôlés qui appartiennent au domaine de l’ingénieur ont longtemps été limités au domaine des radio¬fréquences, c’est-à-dire à des périodes de dizaines de picosecondes (10-11 secondes) ou plus. Les progrès récents de ces lasers ultra-rapides permettent aujourd’hui de mesurer des femtosecondes, temps caractéristiques des mouvements moléculaires ; cela ouvre la possibilité d’exercer un contrôle sur une réaction chimique. On envisage donc aujourd’hui d’observer les mouvements moléculaires, un peu comme l’imagerie médicale qui permet d’observer des organes in vivo. Peut-être aurons-nous ainsi demain de nouvelles techniques d’imagerie du vivant. Il est déjà possible aujourd’hui, par des techniques de contrôle cohérent par laser, de forcer une molécule A à se combiner à une molécule B, avec un chemin passant par un état intermédiaire spécifié A(ou au moins d’accroître le nombre de molécules qui suivent ce chemin, dans leur marche au hasard). En fait, il devient possible de réaliser le concept du « Démon de Maxwell », capable de battre le désordre moléculaire en choisissant de manière adéquate les molécules : un rêve pour le chimiste.
Le XXIe siècle : un âge d’or pour les physiciens-inventeurs
Les exemples que nous avons choisis illustrent deux tendances de base de l’instrumentation : la première est la recherche de performances extrêmes, alors que la seconde est un retour à des installations expérimentales de petite taille, celle d’une salle de laboratoire, à l’opposé des installations géantes nécessaires encore aujourd’hui. La seconde moitié du XXe siècle a vu le développement de très grands instruments pour explorer les frontières de la physique des particules et de l’astrophysique, et atteindre les propriétés ultimes de la matière, inerte ou vivante. Les accélérateurs géants, les télescopes, les sources de rayonnement synchrotron, sont emblématiques de cette orientation. Ces instruments ont joué et continueront encore à jouer un rôle fondamental dans nos efforts pour comprendre la matière et l’Univers. Ils ont conduit à regrouper dans de vastes équipes internationales performantes des physiciens et des ingénieurs. Si ces grands instruments, en eux-mêmes, n’ont eu que bien rarement des applications directement utilisables pour le grand public, ces grandes équipes confrontées aux technologies les plus innovantes ont permis des inventions nouvelles de grande importance, telles que le World Wide Web, inventé par les chercheurs du Cern pour faciliter les communications des scientifiques par Internet.
Le retour à des recherches à l’échelle de la salle de laboratoire va immanquablement s’accompagner d’inventions directement issues de la physique. Il est aujourd’hui possible pour une petite équipe composée de quelques physiciens de construire un microscope basé sur un laser ultra rapide. On observe aujourd’hui dans le monde entier une floraison de petites compagnies hightech qui transforment des concepts issus des laboratoires en instruments pour l’industrie. Les physiciens jouent un rôle central dans ces entreprises.
Cette évolution a été induite par les progrès stupéfiants de la microélectronique, qui permet aujourd’hui de concevoir et de simuler sur ordinateur des circuits de complexité et de performance toujours croissantes. D’autres champs, tels que l’optique, la mécanique, offrent des possibilités semblables. Ce type d’activité industrielle repose de plus en plus sur l’étape de conception, la fabrication étant confiée à une myriade de sous-traitants sophistiqués qui ont développé la compétence nécessaire. Le physicien-inventeur n’est plus simplement confiné à la réalisation de prototypes de principe et dépendant des grandes entreprises pour transformer ses idées en marché.
Un autre développement récent joue également en faveur de ces petites entreprises à base de physique : l’invasion de l’accès à l’Internet, en particulier chez leurs clients potentiels, permet à de petites équipes de se passer des gros bataillons de commerciaux. Il est maintenant aisé de diffuser l’information sur les nouveaux produits technologiques et aussi d’obtenir des informations sur les besoins réels des utilisateurs.
Vidéo : Physique et technologie : l’exemple de la microélectronique
Vidéo démonstrative pour tout savoir sur : Physique et technologie : l’exemple de la microélectronique