Menu

La découverte de la physique moderne concernant la structure du micromonde. Optique quantique

Autres systèmes du véhicule

Un bref historique de l'étude des particules élémentaires

La première particule élémentaire découverte par les scientifiques fut l'électron. Un électron est une particule élémentaire portant une charge négative. Il a été découvert en 1897 par J. J. Thomson. Plus tard, en 1919, E. Rutherford découvrit que parmi les particules extraites des noyaux atomiques, il y avait des protons. Puis les neutrons et les neutrinos ont été découverts.

En 1932, K. Anderson, alors qu'il étudiait les rayons cosmiques, découvrit le positron, les muons et les mésons K.

Depuis le début des années 50, les accélérateurs sont devenus le principal outil d'étude des particules élémentaires, ce qui a permis de découvrir un grand nombre de nouvelles particules. La recherche a montré que le monde des particules élémentaires est très complexe et que leurs propriétés sont inattendues et imprévisibles.

Particules élémentaires dans la physique du micromonde

Définition 1

Au sens étroit, les particules élémentaires sont des particules qui ne sont constituées d'autres particules. Mais dans la physique moderne, une compréhension plus large de ce terme est utilisée. Ainsi, les particules élémentaires sont les plus petites particules de matière qui ne sont ni des atomes ni des noyaux atomiques. L'exception à cette règle est le proton. C'est pourquoi les particules élémentaires sont appelées particules subnucléaires. La majorité de ces particules sont des systèmes composites.

Les particules élémentaires participent à tous les types fondamentaux d'interaction : forte, gravitationnelle, faible, électromagnétique. L’interaction gravitationnelle, due aux petites masses des particules élémentaires, n’est souvent pas prise en compte. Toutes les particules élémentaires actuellement existantes sont divisées en trois grands groupes :

  • bosons. Ce sont des particules élémentaires porteuses d’interactions électrofaibles. Il s'agit notamment d'un quantum de rayonnement électromagnétique, un photon, qui a une masse au repos égale à zéro, qui détermine que la vitesse de propagation des ondes électromagnétiques dans le vide est la vitesse maximale de propagation de l'influence physique. La vitesse de la lumière est l'une des constantes physiques fondamentales, sa valeur est de 299 792 458 m/s.
  • leptons. Ces particules élémentaires participent à des interactions électromagnétiques et faibles. Il existe actuellement 6 leptons : électron, muon, neutrino muonique, neutrino électronique, τ-lepton lourd et le neutrino correspondant. Tous les leptons ont un spin ½. Chaque lepton correspond à une antiparticule, qui a la même masse, le même spin et d'autres caractéristiques, mais diffère par le signe de la charge électrique. Il existe un positron, qui est l'antiparticule d'un électron, un muon, chargé positivement, et trois antineutrinos, qui ont une charge de lepton.
  • hadrons. Ces particules élémentaires participent à des interactions fortes, faibles et électromagnétiques. Les hadrons sont des particules lourdes dont la masse est 200 000 fois supérieure à celle d'un électron. C'est le plus grand groupe de particules élémentaires. Les hadrons, à leur tour, sont divisés en baryons - particules élémentaires de spin ½ et mésons de spin entier. De plus, il existe des soi-disant résonances. C'est le nom donné aux états excités de courte durée des hadrons.

Propriétés des particules élémentaires

Toute particule élémentaire possède un ensemble de valeurs discrètes et de nombres quantiques. Les caractéristiques communes à absolument toutes les particules élémentaires sont les suivantes :

  • poids
  • durée de vie
  • charge électrique

Remarque 1

Selon leur durée de vie, les particules élémentaires sont stables, quasi-stables et instables.

Les particules élémentaires stables sont : l'électron, dont la durée de vie est de 51 021 ans, le proton - plus de 1 031 ans, le photon, le neutrino.

Les particules quasistables se désintègrent à la suite d'interactions électromagnétiques et faibles ; la durée de vie des particules élémentaires quasi stables est supérieure à 10 à 20 s.

Les particules élémentaires instables (résonances) se désintègrent lors d'interactions fortes et leur durée de vie est de $10^(-22) – 10^(-24)$ s.

Les nombres quantiques des particules élémentaires sont les charges de leptons et de baryons. Ces nombres sont des valeurs strictement constantes pour tous les types d'interactions fondamentales. Pour les neutrinos leptoniques et leurs antiparticules, les charges leptoniques ont des signes opposés. Pour les baryons, la charge baryonique est de 1 ; pour leurs antiparticules correspondantes, la charge baryonique est de -1.

La caractéristique des hadrons est la présence de nombres quantiques spéciaux : « étrangeté », « beauté », « charme ». Les hadrons courants sont le neutron, le proton et le méson π.

Au sein de différents groupes de hadrons, il existe des familles de particules qui ont des masses et des propriétés similaires en ce qui concerne l'interaction forte, mais qui diffèrent par leur charge électrique. Un exemple en est le proton et le neutron.

La capacité des particules élémentaires à subir des transformations mutuelles, résultant d'interactions électromagnétiques et autres interactions fondamentales, est leur propriété la plus importante. Ce type de transformation mutuelle est la naissance d'un couple, c'est-à-dire la formation d'une particule et d'une antiparticule en même temps. Dans le cas général, une paire de particules élémentaires avec des charges baryoniques et leptoniques opposées est formée.

La formation de paires positron-électron et de paires muon est possible. Un autre type de transformation mutuelle de particules élémentaires est l'annihilation d'une paire résultant de la collision de particules avec formation d'un nombre fini de photons. En règle générale, la formation de deux photons se produit avec un spin total des particules en collision égal à zéro et de trois photons avec un spin total égal à 1. Cet exemple est une manifestation de la loi de conservation de la parité de charge.

Sous certaines conditions, la formation d'un système lié de positronium e-e+ et de muonium µ+e- est possible. Cette condition peut être due à la faible vitesse des particules en collision. De tels systèmes instables sont appelés atomes de type hydrogène. La durée de vie des atomes de type hydrogène dépend des propriétés spécifiques de la substance. Cette particularité permet de les utiliser en chimie nucléaire pour une étude détaillée de la matière condensée et pour étudier la cinétique des réactions chimiques rapides.

Les corps physiques qui nous entourent, même les mêmes, sont finalement distinguables. Nous disons souvent : « elles se ressemblent comme deux gouttes d’eau », même si nous sommes sûrs que deux gouttes d’eau, aussi semblables soient-elles, peuvent être distinguées. Mais par rapport aux électrons, le mot « similarité » ne convient pas. Nous parlons ici d’identité complète.

Chaque balle parmi un tas de balles complètement identiques a encore quelque chose qui lui est propre - du moins la place qu'elle occupe parmi les autres. C'est différent avec les électrons. Dans un système de plusieurs électrons, il est impossible d’en distinguer un seul : le comportement de chacun n’est pas différent des autres. Quelque chose de similaire se produit dans notre monde. Par exemple, deux ondes de même longueur, amplitude et phase sont tellement identiques qu'une fois superposées, il est totalement inutile de se demander où est l'une et où est l'autre. Ou imaginez des tourbillons qui se précipitent les uns vers les autres. Après leur collision, de nouveaux vortex peuvent se former, et il est impossible de déterminer lequel des vortex « nouveau-nés » est issu du premier et lequel du second.

Il s’avère que le caractère de l’électron ne fait pas penser à un corps physique, mais à un processus. Par exemple, les mouvements des vagues. Cependant, pour un certain nombre de raisons, qui seront discutées ci-dessous, il est impossible d'imaginer un électron uniquement sous la forme d'une onde.

Pile et queue

Après tout, qu’est-ce qu’un électron ? Avant de répondre à cette question, rappelons-nous d’abord le passionnant jeu « pile et face ». Le fait est que le concept de probabilité, qui sera très important pour nous à l’avenir, naît de l’analyse des jeux de hasard.

Lancez une pièce de monnaie dix, vingt, cent fois. Répétez une série de cent lancers plusieurs fois. Vous remarquerez que le nombre de têtes et de queues sera presque exactement le même dans toutes (ou presque toutes) les séries. Cela signifie que nous avons affaire à un certain modèle. Le sachant, vous pouvez estimer la probabilité de ce qui pourrait ou non se produire. Disons gagner à la loterie.

Mais qu’est-ce que tout cela a à voir avec le microcosme ? Le plus direct. L'objet d'étude de la mécanique est la probabilité de divers événements, par exemple la probabilité d'apparition d'éclairs à un endroit ou à un autre de l'écran.

Puisqu’il s’agit de la probabilité de savoir où et quand quelque chose peut arriver, il est nécessaire de connaître leur répartition dans l’espace et dans le temps. La mécanique quantique étudie de telles distributions (les physiciens les appellent fonctions d'onde).

Qu'est-ce qu'une maladie ?

Peut-être aurez-vous des doutes : comment les corps non physiques peuvent-ils faire l'objet de recherches en physique ? Cependant, rappelez-vous que l'objet, par exemple, de la sociologie ou de l'économie est la société ou certaines relations sociales qui ne peuvent pas être qualifiées d'objets. Et l’objet d’une science comme la médecine est la maladie. Pas des microbes ou des humains, mais une maladie, c'est-à-dire une violation des fonctions normales du corps humain. Ce n'est pas non plus un objet. Quant à la mécanique classique, ses objets - les points matériels - ne peuvent pas être considérés comme des objets réels, car ils ne possèdent pas l'ensemble des propriétés inhérentes aux corps physiques (par exemple, la couleur, le goût, l'odeur). Ceci n’est qu’une idéalisation du corps physique, un objet. Certes, il n'est pas difficile de voir ici la correspondance entre ce que la science étudie et ce qui existe dans le monde qui nous entoure : la mécanique étudie les points matériels qui correspondent aux corps physiques du monde extérieur.

Et à quoi correspondent les objets du micromonde : les atomes, les noyaux atomiques, ainsi que les électrons et autres particules élémentaires ? Il s'avère qu'il ne s'agit pas de corps physiques, ni de morceaux de matière dispersés d'une manière ou d'une autre dans l'espace, mais de certaines connexions probabilistes entre les phénomènes. Le micromonde n'est pas un nouveau monde avec des objets étonnants par leurs propriétés, mais un monde de nouvelles connexions jusqu'alors inconnues entre des phénomènes physiques.

Pas la lettre, mais le sens

Là encore, une question légitime : les connexions entre phénomènes existent-elles en dehors des corps physiques ? Bien sûr que non. Les connexions entre les phénomènes apparaissent et n'existent que dans les phénomènes eux-mêmes et ne peuvent exister comme quelque chose de séparé. Mais on peut les étudier sans se laisser distraire des phénomènes. C’est exactement ce que fait avec succès la mécanique quantique. Les phénomènes qu'elle étudie se produisent avec les corps les plus ordinaires – écrans, compteurs. Cependant, ces corps n’apparaissent pas dans la théorie. Les liens entre les phénomènes étudiés par la mécanique quantique sont si complexes qu'il faut recourir à des concepts abstraits (comme la fonction d'onde, la distribution de probabilité, etc.)

De telles abstractions sont-elles légitimes ? Est-il possible de parler de l’existence objective de connexions entre phénomènes, en les considérant comme indépendantes des phénomènes ? Oui, nous faisons cela très souvent. Rappelons qu'on peut parler du contenu d'un livre sans s'intéresser du tout aux propriétés de l'encre d'imprimerie et du papier sur lequel il est imprimé. C'est juste que dans ce cas, ce qui est important n'est pas la façon dont les lettres sont imprimées, ni la forme de ces lettres, mais la connexion entre elles.

Que se passe-t-il dans le microcosme ?

Comme déjà mentionné, les particules élémentaires ressemblent davantage non pas à des objets, mais à des processus et phénomènes physiques. C'est l'une des raisons du caractère unique du micromonde. Tout objet a un certain degré de permanence ; il peut être considéré comme inchangé, même si ce n'est que pour une période de temps limitée. Les processus et les phénomènes sont une tout autre affaire. Par exemple, les vagues s'additionnent (interfèrent) constamment et changent de forme ; lors de toute interaction avec des corps étrangers ou d'autres ondes, leur apparence ne reste pas inchangée. Quelque chose de similaire se produit avec les micro-objets.

Faisons une expérience de pensée

Laissez deux électrons tomber sur la cible. Après être entrés en collision, ils rebondissent dans des directions différentes. Si vous mesurez la poussée subie par la cible, vous pouvez alors, en utilisant la loi de conservation de l'impulsion, déterminer la quantité d'électrons après le rebond. Attendons que les électrons se dispersent sur une distance suffisamment grande et mesurons l'impulsion de l'un d'eux. Ainsi, puisque la somme des impulsions est connue, l’impulsion du deuxième électron est également déterminée. Maintenant, remarquez : c'est très important ! - que l'état dans lequel l'impulsion électronique a une certaine valeur, et l'état sans une certaine valeur de l'impulsion, sont, du point de vue de la mécanique quantique, des états différents. Il s'avère que lorsqu'on agit sur un électron (et lors de la mesure de l'impulsion, il est impossible de ne pas agir sur une particule), l'état d'un autre électron change simultanément ?

Télépathie dans les électrons ?

Cela ne peut pas être vrai ! En effet : après tout, les électrons sont éloignés les uns des autres et n’interagissent pas ; Comment l’action sur l’un d’eux change-t-elle l’état de l’autre ? Comment ne pas penser qu’il s’agit ici d’un transfert d’influence d’un corps à un autre d’une manière presque surnaturelle, c’est-à-dire de quelque chose comme la télépathie des électrons.

On peut cependant douter que l’état du deuxième électron ait réellement changé alors que nous recherchons l’impulsion du premier.

Après tout, les deux électrons possédaient une certaine impulsion spécifique avant même que nous commencions à mesurer. En conséquence, nous avons seulement appris l’impulsion du deuxième électron, mais nous n’avons en aucun cas modifié son état.

À première vue, ces arguments sont tout à fait logiques. Hélas, la mécanique quantique repose sur une logique particulière. Comme elle le prétend, avant l’expérience de mesure de l’impulsion du premier électron, les deux électrons n’avaient pas du tout d’impulsion spécifique.

Pour comprendre ce qui se passe, posons-nous une question apparemment absurde : chacun des électrons existait-il séparément ? En d’autres termes, il existait un système de deux électrons, mais était-il constitué d’électrons individuels ?

Cette question n’est pas du tout aussi dénuée de sens qu’il y paraît à première vue. En mécanique quantique, un électron individuel est décrit par une distribution de probabilité distincte. Dans ce cas, on peut dire que l’électron a telle ou telle probabilité d’être à un endroit donné et une autre probabilité d’être à un autre endroit. On peut en dire autant de l’impulsion, de l’énergie et d’autres paramètres de la particule.

Les probabilités caractérisant un électron changent avec le temps, indépendamment de ce qui arrive aux autres électrons (sauf s’il interagit avec eux). Ce n'est que dans ce cas que nous pouvons dire qu'il existe un électron individuel, et non leur système dans son ensemble, qui ne s'effondre pas. Mais avec les électrons dans notre expérience (le lecteur devra me croire sur parole), la situation est différente.

Les électrons apparaissent et disparaissent

Dans la distribution de probabilité qui décrit les systèmes après le rebond de nos électrons depuis la cible, il est impossible d'identifier des parties indépendantes qui correspondraient à des électrons individuels. Cependant, après avoir mis en place une expérience pour mesurer la quantité de mouvement, une situation complètement différente se présente. Sur la base des résultats des données obtenues, une nouvelle distribution de probabilité peut être établie, qui se divise en deux parties indépendantes, de sorte que chacune puisse être considérée comme un électron distinct.

Cela élimine le paradoxe de la « télépathie électronique ». L'état du deuxième électron ne change pas du tout suite à la mesure effectuée sur le premier électron : après tout, ces électrons n'existaient tout simplement pas avant l'expérience. Parler de l'apparition et de la disparition des électrons semble absurde si l'on considère les électrons comme des corps physiques, mais cela est tout à fait cohérent avec l'idée d'eux comme des distributions de probabilité qui n'ont pas la stabilité des corps physiques et changent d'expérience en expérience.

Comment asseoir l'électron

Et pourtant, il n’est pas si simple de refuser de considérer l’électron comme un corps ordinaire. En fait, les physiciens mesurent la position de l’électron, son élan et son énergie. Ces quantités caractérisent également l'état des corps physiques ordinaires. Et si tel est le cas, cela signifie que dans un certain sens, il est encore possible de caractériser un électron par les mêmes propriétés qu'un corps physique, par exemple par sa position dans l'espace ?

Hélas, non. Parce que comment faire ça ? La position d'un électron dans l'espace peut être déterminée, par exemple, à l'aide d'un écran scintillant. Il est recouvert d'une substance spéciale qui produit un flash lorsqu'un électron frappe l'écran. L’apparition d’un éclair est interprétée comme la nouvelle que l’électron est là à ce moment-là. Cependant, contrairement aux corps physiques ordinaires, l'électron, du point de vue d'un physicien, n'a pas de position définie avant et après l'éclair. De plus, tant qu'il n'y a pas d'écran, il est impossible de parler de la position de l'électron en un certain point de l'espace : de la mécanique quantique il résulte qu'en l'absence d'écran, l'électron est décrit par une fonction d'onde " étalé » sur une grande surface. L’apparition de l’écran change brusquement l’état de l’électron ; En conséquence, la fonction d’onde est instantanément compressée en un point où l’éruption se produit.

Figaro par-ci, Figaro par-là...

Cette contraction est appelée « réduction des paquets d’ondes ». Ce n'est qu'à la suite de la réduction que l'électron passe dans un nouvel état dans lequel il acquiert pour un instant une certaine position dans l'espace. Au moment suivant, le paquet d’ondes s’étend à nouveau et l’électron n’a à nouveau aucune position définie.

La même chose (avec des différences qui sont désormais insignifiantes pour nous) peut être dite à propos d'autres paramètres (par exemple, l'impulsion, l'énergie, le moment cinétique). Ainsi, tous les paramètres classiques ne caractérisent pas l'électron lui-même, mais uniquement le processus de son interaction avec l'appareil de mesure. Ils n'apparaissent dans l'électron qu'au moment de la mesure en raison de la réduction du paquet d'ondes. L'électron lui-même (et donc son comportement) est caractérisé uniquement par des propriétés probabilistes inscrites dans la fonction d'onde. Ainsi, dans une expérience où un électron heurtait un écran, la probabilité d'un éclair était non nulle en tout point d'une certaine région de l'espace, cette probabilité pouvait être calculée à l'avance, et elle ne dépendait pas de la présence ou non de l'écran ; ou non.

Plus rapide que la lumière

Un processus étonnant est la réduction du paquet d’ondes. Pour cette raison, l’électron et les autres particules du micromonde ne peuvent être représentés comme un mouvement ondulatoire dans aucun domaine physique. Le fait est que cette réduction (par exemple, dans l'exemple ci-dessus - contraction de la fonction d'onde en un point de l'écran) se produit instantanément. Ainsi, la réduction d’un paquet d’ondes ne peut pas être un processus physique N se produisant dans n’importe quel domaine. Les actions instantanées à distance contredisent les hypothèses fondamentales qui sous-tendent la théorie des champs. On sait par exemple que tout transfert d’énergie (et d’information) dans un champ électromagnétique s’effectue à la vitesse de la lumière. Selon la théorie de la relativité, la vitesse de la lumière est la vitesse maximale de transmission des effets physiques (et des messages) dans notre monde.

Cependant, la réduction du paquet d’ondes n’a rien de mystérieux en soi. Chacun d’entre vous l’a sûrement rencontré dans la vie de tous les jours. Disons que vous avez acheté un billet de loterie. Vous avez une certaine chance de gagner sur ce ticket, disons. La très faible probabilité que cela se produise instantanément devient soit zéro, soit un lorsque quelques tours du tambour de tirage décideront de ce problème d'une manière ou d'une autre.

Notez que, d’une manière générale, cela devient clair avant même de connaître les résultats du dessin. Il y a une réduction instantanée de la distribution de probabilité, se produisant au moment même du dessin et non associée à la transmission d'une quelconque action dans l'espace.

60% vivants et 40% morts

La mécanique quantique fait une distinction stricte entre les faits déjà survenus et les faits prédits par la théorie. Ils sont même décrits de différentes manières : la première - en termes de physique classique, et pour la seconde, une description de la mécanique quantique est utilisée, c'est-à-dire le langage des distributions de probabilité. Cette circonstance conduit à des malentendus intéressants.

Imaginez qu'une fusée soit envoyée dans l'espace avec un animal à son bord, par exemple. La fusée dispose d'un dispositif électronique qui s'allume automatiquement à un certain moment et libère un électron. Cet électron, réfléchi par la cible, frappe l'écran, et s'il frappe la moitié droite, disons, alors un engin explosif est déclenché, qui détruit le chat, mais s'il frappe la moitié gauche de l'écran, rien ne se passe, et le chat revient sur Terre vivant et indemne. Ce qui s'est réellement passé ne peut être découvert qu'après le retour de la fusée et qu'il est possible d'ouvrir le conteneur avec le chat. Voyons ce que la mécanique quantique peut dire sur le sort du chat avant l'ouverture du contenu du conteneur.

Sa conclusion ressemblerait à ceci : l’état du chat serait une superposition des états vivant et mort, le chat étant, disons, à 60 % vivant et à 40 % mort.

Où est notre erreur ?

À première vue, une telle prédiction semble complètement ridicule. En effet, de quelle superposition des vivants et des morts peut-on parler ? Comment peut-on vivre à 60 pour cent et être mort à 40 pour cent ? La prédiction semblera encore plus étrange une fois le conteneur ouvert. Là, bien sûr, ils trouveront soit un chat vivant, soit ses restes, et non un résultat intermédiaire.

Sur la base d'un raisonnement similaire, le physicien et philosophe hongrois L. Janosi arrive à la conclusion que la mécanique quantique ne décrit pas correctement ce qui se passe dans la réalité.

Pas pour prédire l'avenir, mais pour compter

Mais Janosi ne prend pas en compte une circonstance importante. La mécanique quantique ne prétend pas décrire avec précision ce qui se passe ; il parle seulement des conclusions qui découlent de faits déjà connus avec certitude. Dans l’expérience du chat imaginaire, tout ce que nous savons, c’est qu’à un certain moment, un certain appareil électronique s’allume. Sur cette base, il est impossible de tirer une conclusion sur les événements qui suivront exactement ; on ne peut prédire que les probabilités des résultats possibles. C'est ce que fait la mécanique quantique. Dans notre cas, ses prédictions ont la signification suivante : le chat a 60 chances sur 100 de rester en vie.

C'est tout ce que l'on peut dire à l'avance sans ouvrir le conteneur restitué. Encore une fois, la tâche de la mécanique quantique n’est pas de prédire la séquence d’événements qui se produisent réellement, mais simplement de découvrir comment les probabilités de ces événements évoluent au fil du temps.

Ce n'est pas facile - parce que c'est inhabituel

Le microcosme cache beaucoup de choses étonnantes. Lui-même est inhabituel, ses lois sont inhabituelles. C’est précisément ce qui explique la complexité de la mécanique quantique – une grande partie est difficile à comprendre à l’aide de concepts conventionnels. Il n'y a rien à faire : plus une personne comprend la nature profondément, plus elle découvre des modèles complexes. Et puis il faut abandonner ses idées habituelles. Il est difficile. Mais il n'y a pas d'autre moyen.

· Voie de microscopie 3

· Limite de microscopie 5

· Rayonnements invisibles 7

· Électrons et optique électronique 9

· Les électrons sont des vagues !? 12

· Structure du microscope électronique 13

· Objets de microscopie électronique 15

· Types de microscopes électroniques 17

· Caractéristiques du travail avec un microscope électronique 21

· Moyens de dépasser la limite de diffraction de la microscopie électronique 23

· Références 27

· Photos 28


Remarques :

1. Symbole signifie élever à une puissance. Par exemple, 2 3 signifie « 2 à la puissance 3 ».

2. Symbole e signifie écrire un nombre sous forme exponentielle. Par exemple, 2 e3 signifie "2 fois 10 à la puissance 3".

3. Toutes les photos sont sur la dernière page.

4. En raison de l’utilisation de littérature pas entièrement « récente », les données de ce résumé ne sont pas particulièrement « fraîches ».

L'œil ne verrait pas le Soleil,

s'il n'était pas comme

Au soleil.

Goethe.

La voie de la microscopie.

Lorsque le premier microscope a été créé au tournant du XVIIe siècle, presque personne (ni même son inventeur) n'aurait pu imaginer les succès futurs et les nombreuses applications de la microscopie. Avec le recul, nous sommes convaincus que cette invention a marqué quelque chose de plus que la création d'un nouvel appareil : pour la première fois, une personne était capable de voir ce qui était auparavant invisible.

À peu près à la même époque, un autre événement remonte à l’invention du télescope, qui permettait de voir l’invisible dans le monde des planètes et des étoiles. L’invention du microscope et du télescope a représenté une révolution non seulement dans la manière d’étudier la nature, mais aussi dans la méthode de recherche elle-même.

En effet, les philosophes naturels de l’Antiquité observaient la nature et n’en apprenaient que ce que l’œil voyait, la peau sentait et l’oreille entendait. On ne peut qu'être surpris de la quantité d'informations correctes sur le monde qui les entoure qu'ils ont reçues en utilisant leurs sens « nus » et sans mener d'expériences spéciales, comme ils le font actuellement. En même temps, à côté de faits précis et de suppositions brillantes, combien de fausses « observations », déclarations et conclusions nous ont été laissées par les scientifiques de l'Antiquité et du Moyen Âge !

Ce n'est que bien plus tard qu'une méthode d'étude de la nature a été découverte, qui consiste à mettre en place des expériences consciemment planifiées, dont le but est de tester des hypothèses et des hypothèses clairement formulées. Francis Bacon, l'un de ses créateurs, a exprimé les caractéristiques de cette méthode de recherche dans les mots suivants, désormais célèbres : « Mener une expérience, c'est interroger la nature. » Les toutes premières étapes de la méthode expérimentale, selon les idées modernes, étaient. les expérimentateurs modestes et, dans la plupart des cas, de l’époque se débrouillaient sans aucun appareil « améliorant » les sens. L’invention du microscope et du télescope a représenté une formidable expansion des possibilités d’observation et d’expérimentation.

Déjà les premières observations, réalisées à l’aide de la technologie la plus simple et la plus imparfaite selon les concepts modernes, révélaient « tout un monde dans une goutte d’eau ». Il s’est avéré que les objets familiers semblent complètement différents lorsqu’ils sont examinés au microscope : les surfaces lisses à l’œil et au toucher se révèlent en réalité rugueuses, et des myriades de minuscules organismes se déplacent dans l’eau « propre ». De la même manière, les premières observations astronomiques à l'aide de télescopes ont permis de voir d'une manière nouvelle le monde familier des planètes et des étoiles : par exemple, la surface de la Lune, chantée par les poètes de toutes les générations, s'est révélée être montagneuse et parsemée de nombreux cratères, et Vénus s'est avérée avoir un changement de phases, tout comme les Lunes.

Dans le futur, ces simples observations donneront naissance à des domaines scientifiques indépendants : la microscopie et l’astronomie observationnelle. Les années passeront et chacun de ces domaines connaîtra de nombreuses ramifications, exprimées dans des applications très différentes en biologie, médecine, technologie, chimie, physique et navigation.

Les microscopes modernes, que nous appellerons optiques contrairement aux microscopes électroniques, sont des instruments parfaits qui permettent d'obtenir des grossissements élevés avec une haute résolution. La résolution est déterminée par la distance à laquelle deux éléments structurels adjacents peuvent encore être vus séparément. Cependant, comme l'ont montré les recherches, la microscopie optique a pratiquement atteint la limite fondamentale de ses capacités en raison de la diffraction et des interférences, phénomènes provoqués par la nature ondulatoire de la lumière.

Le degré de monochromaticité et de cohérence est une caractéristique importante des ondes de toute nature (électromagnétiques, sonores, etc.). Les vibrations monochromatiques ¾ sont des vibrations constituées d'ondes sinusoïdales d'une fréquence spécifique. Lorsque nous imaginons des oscillations sous la forme d'une simple sinusoïde, respectivement, avec une amplitude, une fréquence et une phase constantes, il s'agit alors d'une certaine idéalisation, car, à proprement parler, dans la nature, il n'y a pas d'oscillations ni d'ondes qui soient décrites de manière absolument précise par un sinus. vague. Cependant, comme des études l'ont montré, les oscillations et les ondes réelles peuvent se rapprocher d'une sinusoïde idéale avec un degré de précision plus ou moins grand (avoir un degré de monochromaticité plus ou moins grand). Les oscillations et les ondes de forme complexe peuvent être représentées comme un ensemble d'oscillations et d'ondes sinusoïdales. En fait, cette opération mathématique est réalisée par un prisme qui décompose la lumière du soleil en un spectre de couleurs.

Les ondes monochromatiques, y compris les ondes lumineuses, de même fréquence (sous certaines conditions !) peuvent interagir les unes avec les autres de telle manière que, par conséquent, « la lumière se transforme en obscurité » ou, comme on dit, les ondes peuvent interférer. Lors d'interférences, une « amplification et une suppression » locale des ondes les unes par les autres se produisent. Pour que le motif d'interférence des ondes reste inchangé dans le temps (par exemple, lors de la visualisation à l'œil nu ou lors d'une photographie), il est nécessaire que les ondes soient cohérentes entre elles (deux ondes sont cohérentes entre elles si elles donnent un effet stable). motif d'interférence, qui correspond à l'égalité de leurs fréquences et à un déphasage constant).

Si des obstacles sont placés sur le chemin de propagation des ondes, ils affecteront considérablement la direction de propagation de ces ondes. De tels obstacles peuvent être les bords des trous dans les écrans, les objets opaques, ainsi que tout autre type d'inhomogénéité sur le chemin de propagation des ondes. En particulier, les objets transparents (pour un rayonnement donné), mais différant par leur indice de réfraction, et donc par la vitesse de passage des ondes à l'intérieur d'eux, peuvent aussi être des inhomogénéités. Le phénomène de changement de direction de propagation des ondes lorsqu'elles passent à proximité d'obstacles est appelé diffraction. La diffraction s'accompagne généralement de phénomènes d'interférence.

La limite de la microscopie.

L'image obtenue à l'aide de n'importe quel système optique est le résultat de l'interférence de différentes parties de l'onde lumineuse traversant ce système. En particulier, on sait que la restriction d'une onde lumineuse par la pupille d'entrée du système (les bords des lentilles, miroirs et diaphragmes qui composent le système optique) et le phénomène de diffraction associé conduisent au fait que l'onde lumineuse le point sera représenté sous la forme d’un cercle de diffraction. Cette circonstance limite la capacité de distinguer les petits détails de l'image formée par le système optique. L'image, par exemple, d'une source lumineuse infiniment éloignée (étoile) résultant de la diffraction par une pupille ronde (cadre de lunette d'observation) est une image assez complexe (voir Fig. 1). Sur cette image, vous pouvez voir un ensemble d’anneaux concentriques clairs et sombres. La répartition de l'éclairage, qui peut être corrigée si l'on se déplace du centre de l'image vers ses bords, est décrite par des formules assez complexes données dans les cours d'optique. Cependant, les motifs inhérents à la position du premier anneau sombre (à partir du centre de l’image) semblent simples. Notons D le diamètre de la pupille d'entrée du système optique et par l la longueur d'onde de la lumière envoyée par une source infiniment éloignée.

Riz. 1. Image de diffraction d'un point lumineux (appelé disque d'Airy).

Si l’on note j l’angle sous lequel le rayon du premier anneau sombre est visible, alors, comme le prouve l’optique,

péché j » 1,22 * ( je /D) .

Ainsi, en limitant le front d'onde aux bords du système optique (la pupille d'entrée), au lieu d'imager un point lumineux correspondant à un objet à l'infini, on obtient un ensemble d'anneaux de diffraction. Naturellement, ce phénomène limite la capacité de distinguer deux sources lumineuses ponctuelles proches. En effet, dans le cas de deux sources distantes, par exemple deux étoiles situées très proches l'une de l'autre dans la voûte céleste, deux systèmes d'anneaux concentriques se forment dans le plan d'observation. Dans certaines conditions, ils peuvent se chevaucher, rendant impossible la distinction entre les sources. Ce n'est pas un hasard si, conformément à la « recommandation » de la formule donnée ci-dessus, ils s'efforcent de construire des télescopes astronomiques avec de grandes pupilles d'entrée. La limite de résolution à laquelle deux sources lumineuses rapprochées peuvent être observées est déterminée comme suit : pour plus de précision, la limite de résolution est considérée comme la position des images de diffraction de deux sources lumineuses ponctuelles à laquelle le premier anneau sombre créé par l'une des sources coïncide avec le centre du point lumineux, créé par une autre source.

Découvertes fondamentales dans le domaine de la physique de la fin du XIXème au début du XXème siècle. découvert que la réalité physique est unifiée et possède à la fois des propriétés ondulatoires et corpusculaires. En étudiant le rayonnement thermique, M. Planck est arrivé à la conclusion que dans les processus de rayonnement, l'énergie n'est libérée en aucune quantité et en continu, mais seulement dans certaines parties - quanta.

Le quantique est la plus petite partie constante du rayonnement.

Einstein a étendu l'hypothèse de Planck sur le rayonnement thermique au rayonnement en général et a étayé une nouvelle théorie de la lumière : la théorie des photons. La structure de la lumière est corpusculaire. L'énergie lumineuse est concentrée à certains endroits et la lumière a donc une structure intermittente - un flux de quanta lumineux, c'est-à-dire photons. Un photon est une particule spéciale (corpuscule). Un photon est un quantum d'énergie de lumière visible et invisible, de rayons X et de rayonnement gamma, qui possède simultanément les propriétés d'une particule et d'une onde, n'a pas de masse au repos, a la vitesse de la lumière et, dans certaines conditions, génère un positon. + paire d'électrons. Cette théorie d'Einstein expliquait le phénomène de l'effet photoélectrique - l'élimination des électrons de la matière sous l'influence des ondes électromagnétiques. La présence d’un effet photoélectrique est déterminée par la fréquence de l’onde et non par son intensité. Pour la création de la théorie des photons, A. Einstein a reçu le prix Nobel en 1922. Cette théorie fut confirmée expérimentalement dix ans plus tard par le physicien américain R.E. Milliken.

Paradoxe : la lumière se comporte à la fois comme une onde et comme un flux de particules. Les propriétés des ondes apparaissent lors de la diffraction et de l'interférence, les propriétés corpusculaires - lors de l'effet photoélectrique.

La nouvelle théorie de la lumière a conduit N. Bohr au développement de la théorie de l'atome. Elle repose sur 2 postulats :

1. Chaque atome a plusieurs orbites électroniques stationnaires, dont le mouvement permet à l'électron d'exister sans rayonnement.

2. Lorsqu'un électron passe d'un état stationnaire à un autre, l'atome émet ou absorbe une partie de l'énergie.

Ce modèle atomique expliquait bien l’atome d’hydrogène, mais il n’expliquait pas les atomes multiélectroniques, car Les résultats théoriques différaient des données expérimentales. Ces divergences ont ensuite été expliquées par les propriétés ondulatoires des électrons. Cela signifiait que l’électron, étant une particule, n’est pas une boule solide ou un point, il possède une structure interne qui change en fonction de son état. Un modèle d’atome, décrivant sa structure sous la forme d’orbites dans lesquelles se déplacent les électrons, a en fait été créé pour plus de clarté ; il ne peut pas être pris au pied de la lettre ; (Il s'agit d'une analogie de relations, pas d'objets.) En réalité, de telles orbites n'existent pas ; les électrons ne sont pas répartis uniformément dans un atome, mais de telle manière que la densité de charge moyenne est plus grande à certains points et moindre à d'autres. L'orbite électronique est formellement appelée la courbe qui relie les points de densité maximale. Il est impossible de représenter visuellement les processus se produisant dans un atome sous forme de modèles mécaniques. La physique classique ne peut pas expliquer même les expériences les plus simples visant à déterminer la structure de l’atome.

En 1924, le physicien français Louis de Broglie, dans son ouvrage « Lumière et matière », a exprimé l'idée des propriétés ondulatoires de toute matière. Le physicien autrichien E. Schrödinger et le physicien anglais P. Dirac en ont donné une description mathématique. Cette idée a permis de construire une théorie couvrant les propriétés corpusculaires et ondulatoires de la matière dans leur unité. Dans ce cas, les quanta de lumière deviennent une structure particulière du micromonde.

Ainsi, la dualité onde-particule a conduit à la création de la mécanique quantique. Elle repose sur deux principes : le principe des relations d'incertitude, formulé par W. Heisenberg en 1927 ; Le principe de complémentarité de N. Bohr. Le principe de Heisenberg stipule : en mécanique quantique, il n'existe pas d'états dans lesquels la localisation et l'impulsion auraient une valeur complètement définie, il est impossible de connaître simultanément les deux paramètres - la position et la vitesse, c'est-à-dire qu'il est impossible de déterminer à la fois la position et la vitesse ; impulsion d'une microparticule avec la même précision.

N. Bohr a formulé le principe de complémentarité comme suit : « Les concepts de particules et d'ondes se complètent et en même temps se contredisent, ce sont des images complémentaires de ce qui se passe. Les contradictions dans les propriétés particule-onde des micro-objets sont le résultat de l'interaction incontrôlée des micro-particules avec les appareils : dans certains appareils, les objets quantiques se comportent comme des ondes, dans d'autres, comme des particules. En raison de la relation d'incertitudes, les modèles corpusculaires et ondulatoires pour décrire un objet quantique ne se contredisent pas, car n'apparaissent jamais en même temps. Ainsi, selon les expériences, un objet montre soit sa nature corpusculaire, soit sa nature ondulatoire, mais pas les deux à la fois. En se complétant, les deux modèles du micromonde permettent d'en obtenir une image globale.

Introduction

Au 20ème siècle Les sciences naturelles se sont développées à un rythme incroyablement rapide, déterminé par les besoins de la pratique. L'industrie exigeait de nouvelles technologies, basées sur sciences naturelles connaissance.

Les sciences naturelles sont la science des phénomènes et des lois de la nature. Les sciences naturelles modernes comprennent de nombreuses branches des sciences naturelles : physique, chimie, biologie, physico-chimie, biophysique, biochimie, géochimie, etc. Elles couvrent un large éventail de questions sur les diverses propriétés des objets naturels, qui peuvent être considérées comme un tout.

L'immense arbre ramifié des sciences naturelles s'est lentement développé à partir de la philosophie naturelle - la philosophie de la nature, qui est une interprétation spéculative des phénomènes et des processus naturels. Le développement progressif des sciences naturelles expérimentales a conduit au développement progressif de la philosophie naturelle en connaissances en sciences naturelles et, par conséquent, à des réalisations phénoménales dans tous les domaines de la science et, surtout, dans les sciences naturelles, dont le XXe siècle a été si riche. .

Physique - micromonde, macromonde, mégamonde

Dans les profondeurs de la philosophie naturelle est née la physique - la science de la nature, étudiant les propriétés les plus simples et en même temps les plus générales du monde matériel.

La physique est la base des sciences naturelles. Conformément à la variété des formes de matière étudiées et de leur mouvement, elle est divisée en physique des particules élémentaires, physique nucléaire, physique des plasmas, etc. Il nous présente les lois les plus générales de la nature qui régissent le flux des processus dans le monde qui nous entoure. nous et dans l'Univers dans son ensemble.

Le but de la physique est de découvrir les lois générales de la nature et d’expliquer des processus spécifiques sur cette base. À mesure qu’ils avançaient vers cet objectif, une image majestueuse et complexe de l’unité de la nature s’est progressivement imposée aux scientifiques.

Le monde n’est pas un ensemble d’événements disparates indépendants les uns des autres, mais les manifestations diverses et nombreuses d’un tout.

Micromonde. En 1900 Le physicien allemand Max Planck a proposé une approche complètement nouvelle : le quantique, basé sur un concept discret. Il a été le premier à introduire l'hypothèse quantique et est entré dans l'histoire du développement de la physique comme l'un des fondateurs théorie des quanta. Avec l'introduction du concept quantique, commence l'étape de la physique moderne, incluant non seulement les concepts quantiques, mais aussi les concepts classiques.

Sur la base de la mécanique quantique, de nombreux microprocessus se produisant au sein de l'atome, du noyau et des particules élémentaires sont expliqués - de nouvelles branches de la physique moderne sont apparues : l'électrodynamique quantique, la théorie quantique des solides, l'optique quantique et bien d'autres.

Dans les premières décennies du 20e siècle. recherché radioactivité, et des idées sur la structure du noyau atomique ont été avancées.

En 1938 une découverte importante a été faite : les radiochimistes allemands O. Hahn et F. Strassmann ont découvert fission des noyaux d'uranium lorsqu'il est irradié par des neutrons. Cette découverte a contribué au développement rapide physique nucléaire, création d'armes nucléaires Et la naissance de l'énergie nucléaire.

L'une des plus grandes réalisations de la physique du 20e siècle. - ceci a bien sûr été créé en 1947. transistor les remarquables physiciens américains D. Bardeen, W. Brattain et W. Shockley.

Avec le développement de la physique des semi-conducteurs et la création du transistor, une nouvelle technologie est née : les semi-conducteurs, et avec elle une branche prometteuse et en développement rapide des sciences naturelles : la microélectronique.

Les idées sur les atomes et leur structure ont radicalement changé au cours des cent dernières années. Fin XIXème – début XXème siècles. En physique, des découvertes exceptionnelles ont été faites qui ont détruit les idées antérieures sur la structure de la matière.

La découverte de l'électron (1897), puis du proton, du photon et du neutron montre que l'atome possède une structure complexe. L'étude de la structure de l'atome devient la tâche la plus importante de la physique du XXe siècle. Après la découverte de l'électron, du proton, du photon et enfin, en 1932, du neutron, l'existence d'un grand nombre de nouvelles particules élémentaires fut établie.

Y compris : positron (antiparticule électronique) ; les mésons sont des microparticules instables ; divers types d'hypérons - microparticules instables dont la masse est supérieure à la masse d'un neutron ; résonances de particules ayant une durée de vie extrêmement courte (environ 10 -22 -10 -24 s) ; le neutrino est une particule stable qui n’a pas de charge électrique et possède une perméabilité presque incroyable ; antineutrino - antiparticule d'un neutrino, différant d'un neutrino par le signe de la charge du lepton, etc.

Les particules élémentaires sont actuellement généralement divisées dans les classes suivantes :

  • 1. Les photons sont des quanta du champ électromagnétique, des particules de masse au repos nulle, n'ont pas d'interactions fortes et faibles, mais participent à l'interaction électromagnétique.
  • 2. Les leptons (du grec leptos - lumière), qui comprennent les électrons, les neutrinos ; tous n'ont pas d'interaction forte, mais participent à une interaction faible, et ceux qui ont une charge électrique participent également à une interaction électromagnétique.
  • 3. Les mésons sont des particules instables qui interagissent fortement.
  • 4. Les baryons (du grec barys - lourd), qui comprennent les nucléons (particules instables dont la masse est supérieure à la masse d'un neutron), les hypérons et de nombreuses résonances.
  • 5. Vers 1963-1964, une hypothèse est apparue sur l'existence de quarks - des particules qui composent les baryons et les mésons, qui interagissent fortement et, en raison de cette propriété, sont unies sous le nom commun de hadrons.
  • 6. Les quarks ont des propriétés très inhabituelles : ils ont des charges électriques fractionnaires, ce qui n'est pas typique des autres microparticules, et, apparemment, ne peuvent pas exister sous une forme libre et non liée. Le nombre de quarks différents, différant les uns des autres par leur taille, le signe de leur charge électrique et certaines autres caractéristiques, atteint déjà plusieurs dizaines.

Mégamonde. La théorie du Big Bang. En 1946-1948. G. Gamow a développé la théorie de l'Univers chaud (modèle Big Bang). Selon ce modèle, il y a 15 milliards d'années l'Univers entier (selon d'autres estimations, 18 milliards d'années) a été comprimé en un point d'une densité infiniment élevée (pas moins de 10 93 g/cm 3). Cette condition est appelée singularité, les lois de la physique sans objet.

Les raisons de l'apparition d'un tel état et la nature de la présence de matière dans cet état restent floues. Cet état s’est avéré instable, entraînant une explosion et une transition brutale vers l’Univers en expansion.

Au moment du Big Bang, l'Univers s'est instantanément réchauffé jusqu'à une température très élevée de plus de 10 28 K. Déjà 10 -4 s après le Big Bang, la densité dans l'Univers chute à 10 14 g/cm 3 . À une température aussi élevée (au-dessus de la température du centre de l'étoile la plus chaude), des molécules, des atomes et même des noyaux atomiques existent ne peut pas.

La matière de l'Univers se présentait sous la forme de particules élémentaires, parmi lesquelles prédominaient les électrons, les positrons, les neutrinos, les photons, ainsi que les protons et les neutrons en quantités relativement faibles. La densité de la matière de l'Univers 0,01 seconde après l'explosion, malgré la température très élevée, était énorme : 4000 millions de fois supérieure à celle de l'eau.

Au bout des trois premières minutes après l'explosion, la température de la substance de l'Univers, en baisse continue, atteint 1 milliard de degrés (10 9 K). La densité de la substance a également diminué, mais elle est restée proche de la densité de l'eau. À cette température, bien que très élevée, des noyaux atomiques ont commencé à se former, notamment des noyaux d'hydrogène lourds (deutérium) et des noyaux d'hélium.

Cependant, la matière de l'Univers à la fin des trois premières minutes était principalement constituée de photons, de neutrinos et d'antineutrinos. Ce n’est qu’après plusieurs centaines de milliers d’années que des atomes ont commencé à se former, principalement de l’hydrogène et de l’hélium.

Les forces gravitationnelles ont transformé le gaz en amas, qui sont devenus le matériau nécessaire à l'émergence de galaxies et d'étoiles.

Ainsi, la physique du XXe siècle a justifié de plus en plus profondément l’idée de développement.

Macromonde. En macrophysique, les réalisations peuvent être distinguées dans trois directions : dans le domaine de l'électronique (microcircuits), dans le domaine de la création lasers et leurs applications, domaines de supraconductivité à haute température.

Mot "laser" est une abréviation de l'expression anglaise « Light Amplification by Stimulated Emission of Radiation », traduite par amplification de la lumière suite à une émission stimulée . L'hypothèse de l'existence d'un rayonnement stimulé a été avancée en 1917 par Einstein.

Les scientifiques soviétiques N.G. Basov et A.M. Prokhorov et, indépendamment d'eux, le physicien américain Charles Townes ont utilisé le phénomène d'émission stimulée pour créer un générateur micro-ondes d'ondes radio d'une longueur d'onde = 1,27 cm.

Le premier générateur quantique était Ruby état solide laser. Également créé : gaz, semi-conducteur, liquide, gaz-dynamique, anneau (onde voyageuse).

Les lasers se sont répandus application en science - le principal outil de optique non linéaire , lorsque les substances sont transparentes ou non pour le flux de lumière ordinaire, leurs propriétés changent à l'opposé.

Les lasers ont permis de mettre en œuvre une nouvelle méthode d'obtention d'images volumétriques et couleur, appelée holographie, largement utilisée en médecine, notamment en ophtalmologie, en chirurgie et en oncologie, capable de créer une petite tache en raison de sa monochromaticité et de sa directivité élevées.

Traitement laser des métaux. La capacité d'obtenir des faisceaux lumineux de haute puissance jusqu'à 10 12 -10 16 à l'aide de lasers W/cm 2 lors de la focalisation du rayonnement sur un point d'un diamètre allant jusqu'à 10-100 µm fait du laser un outil puissant pour le traitement de matériaux optiquement opaques inaccessibles au traitement par les méthodes conventionnelles (soudage au gaz et à l'arc).

Cela permet de nouvelles opérations technologiques, par exemple, forage Très canaux étroits en matériaux réfractaires, diverses opérations de fabrication de microcircuits en film, ainsi que augmentation de la vitesse traitement détails.

À percer des trous dans les meules diamantées réduit le temps de traitement d'une meule de 2-3 jours à 2 minutes.

Les lasers sont les plus utilisés en microélectronique, où il est préférable soudage relations, pas de soudure.