Énoncez le principe de complémentarité là où il s'applique. Le principe de complémentarité, ses manifestations et son essence

Le principe de complémentarité est un postulat méthodologique, qui a été formulé à l'origine par le grand physicien et philosophe danois Niels Bohr en relation avec le domaine Le principe de complémentarité de Bohr, très probablement, n'est né que du fait qu'encore plus tôt, le Le physicien allemand Kurt Gödel a proposé sa conclusion et la formulation du célèbre théorème sur les propriétés des systèmes déductifs, qui appartient au domaine de Niels Bohr, a étendu les conclusions logiques de Godel à la mécanique quantique et a formulé le principe approximativement comme suit : bien connaître le sujet du micromonde, il devrait être étudié dans des systèmes qui s'excluent mutuellement, c'est-à-dire dans certains systèmes supplémentaires. Cette définition est entrée dans l'histoire comme le principe de complémentarité en mécanique quantique.

Un exemple d'une telle solution aux problèmes du micromonde a été la prise en compte de la lumière dans le cadre de deux théories, ondulatoire et corpusculaire, qui a conduit à un résultat scientifique étonnant en termes d'efficacité, qui a révélé à l'homme la nature physique de lumière.

Niels Bohr dans sa compréhension de la conclusion faite est allé encore plus loin. Il tente d'interpréter le principe de complémentarité à travers le prisme de la connaissance philosophique, et c'est ici que ce principe acquiert une signification scientifique universelle. Or la formulation du principe ressemblait à ceci : pour reproduire un phénomène en vue de sa connaissance dans un système de signes (symbolique), il est nécessaire de recourir à des concepts et catégories supplémentaires. Parler plus langage clair, le principe de complémentarité présuppose dans la cognition non seulement possible, mais dans certains cas nécessaire, l'utilisation de plusieurs systèmes méthodologiques qui permettront d'acquérir des données objectives sur l'objet de la recherche. Le principe de complémentarité, en ce sens, s'est manifesté comme un fait d'accord avec la nature métaphorique des systèmes logiques de la méthodologie - ils peuvent se manifester d'une manière ou d'une autre. Ainsi, avec l'avènement et la compréhension de ce principe, en fait, il a été reconnu que la logique seule ne suffisait pas à la cognition, et donc une conduite illogique dans le processus de recherche a été reconnue comme acceptable. En fin de compte, l'application du principe de Bohr a contribué à un changement significatif

Plus tard, Yu. M. Lotman a élargi signification méthodologique Le principe de Bohr et a transféré ses régularités à la sphère de la culture, en particulier, appliqué à la description Lotman a formulé le soi-disant "paradoxe de la quantité d'informations", dont l'essence est que l'existence humaine se déroule principalement dans des conditions d'insuffisance d'informations . Et au fur et à mesure du développement, cette insuffisance augmentera tout le temps. En utilisant le principe de complémentarité, il est possible de compenser le manque d'information en la transférant à un autre système sémiotique (de signe). Cette technique a en effet conduit à l'émergence de l'informatique et de la cybernétique, puis d'Internet. Plus tard, le fonctionnement du principe a été confirmé par l'aptitude physiologique cerveau humainà ce type de pensée, cela est dû à l'asymétrie de l'activité de ses hémisphères.

Une autre disposition, qui est médiée par le fonctionnement du principe de Bohr, est le fait de la découverte par le physicien allemand Werner Heisenberg, la loi de la relation d'incertitude. Son action peut être définie comme la reconnaissance de l'impossibilité de la même description de deux objets avec la même précision si ces objets appartiennent à des systèmes différents. L'analogie philosophique de cette conclusion a été donnée dans l'ouvrage «Sur la fiabilité», il a déclaré que pour affirmer la certitude de quelque chose, il faut douter de quelque chose.

Ainsi, le principe de Bohr a acquis une importance méthodologique énorme dans divers domaines.

Le principe fondamental de la mécanique quantique, avec la relation d'incertitude, est le principe de complémentarité, auquel N. Bohr a donné la formulation suivante :

"Les concepts de particule et d'onde se complètent et en même temps se contredisent, ce sont des images complémentaires de ce qui se passe."

Les contradictions des propriétés des ondes corpusculaires des micro-objets sont le résultat de l'interaction incontrôlée des micro-objets et des macro-dispositifs. Il existe deux classes d'appareils : dans certains objets quantiques, ils se comportent comme des ondes, dans d'autres, ils se comportent comme des particules. Dans les expériences, on n'observe pas la réalité en tant que telle, mais seulement un phénomène quantique, notamment le résultat de l'interaction d'un appareil avec un micro-objet. M. Born a noté au sens figuré que les ondes et les particules sont des "projections" de la réalité physique sur la situation expérimentale.

Premièrement, l'idée de dualité onde-particule signifie que tout objet matériel qui a une dualité onde-particule a une coquille d'énergie. Une coquille d'énergie similaire existe sur la Terre, ainsi que chez l'homme, que l'on appelle le plus souvent un cocon d'énergie. Cette coque énergétique peut jouer le rôle d'une coque sensorielle qui protège un objet matériel de l'environnement extérieur et constitue sa "sphère gravitationnelle" extérieure. Cette sphère peut jouer le rôle de membrane dans les cellules des organismes vivants. Il ne fait passer à l'intérieur que des signaux "filtrés", dont le niveau de perturbations dépasse une certaine valeur limite. Des signaux similaires ayant dépassé un certain seuil de sensibilité de la coque, celui-ci peut également passer en sens inverse.

Deuxièmement, la présence d'une coquille d'énergie dans les objets matériels amène à un nouveau niveau de compréhension l'hypothèse du physicien français L. de Broglie sur la nature véritablement universelle de la dualité onde-particule.

Troisièmement, en raison de l'évolution de la structure de la matière, la nature du dualisme des ondes corpusculaires d'un électron peut être le reflet du dualisme des ondes corpusculaires des photons. Cela signifie que le photon, étant une particule neutre, a une structure de méson et est le micro-atome le plus élémentaire, à partir duquel, à l'image et à la ressemblance, tous les objets matériels de l'Univers sont construits. De plus, cette construction s'effectue selon les mêmes règles.

Quatrièmement, le dualisme des ondes corpusculaires permet d'expliquer naturellement le phénomène de mémoire des gènes (Gene memory) des particules, des atomes, des molécules, des organismes vivants, permettant de comprendre les mécanismes d'une telle mémoire, lorsqu'une particule sans structure se souvient de toutes ses créations dans le Passé et possède une « intelligence » pour sélectionner des processus de synthèse, afin de former de nouvelles « particules », avec des propriétés sélectionnées.

Le principe d'incertitude est une loi physique qui stipule qu'il est impossible de mesurer avec précision les coordonnées et la quantité de mouvement d'un objet microscopique en même temps, car le processus de mesure perturbe l'équilibre du système. Le produit de ces deux incertitudes est toujours supérieur à la constante de Planck. Ce principe a été formulé pour la première fois par Werner Heisenberg.

Il découle du principe d'incertitude que plus l'une des quantités incluses dans l'inégalité est déterminée avec précision, moins la valeur de l'autre est certaine. Aucune expérience ne peut conduire à une mesure précise simultanée de telles variables dynamiques ; Dans le même temps, l'incertitude des mesures n'est pas liée à l'imperfection de la technique expérimentale, mais aux propriétés objectives de la matière.

Le principe d'incertitude, découvert en 1927 par le physicien allemand W. Heisenberg, a été une étape importante dans l'élucidation des modèles de phénomènes intra-atomiques et dans la construction de la mécanique quantique. Une caractéristique essentielle des objets microscopiques est leur nature d'ondes corpusculaires. L'état d'une particule est complètement déterminé par la fonction d'onde (une valeur qui décrit complètement l'état d'un micro-objet (électron, proton, atome, molécule) et, en général, de tout système quantique). Une particule peut être trouvée à n'importe quel point de l'espace où la fonction d'onde est non nulle. Par conséquent, les résultats d'expériences pour déterminer, par exemple, des coordonnées sont de nature probabiliste.

Exemple: le mouvement d'un électron est la propagation de sa propre onde. Si vous lancez un faisceau d'électrons à travers un trou étroit dans le mur : un faisceau étroit le traversera. Mais si vous rendez ce trou encore plus petit, de sorte que son diamètre soit égal à la longueur d'onde d'un électron, le faisceau d'électrons divergera dans toutes les directions. Et ce n'est pas une déviation provoquée par les atomes les plus proches de la paroi, qui peut être éliminée : cela est dû à la nature ondulatoire de l'électron. Essayez de prédire ce qui se passera ensuite avec un électron passant à travers le mur, et vous serez impuissant. Vous savez exactement où il traverse le mur, mais vous ne pouvez pas dire quelle quantité de mouvement transversal il va acquérir. Au contraire, afin de déterminer avec précision que l'électron apparaîtra avec tel ou tel certain élan dans la direction d'origine, vous devez agrandir le trou pour que l'onde électronique passe droit, ne divergeant que légèrement dans toutes les directions en raison de la diffraction. Mais alors il est impossible de dire exactement où exactement la particule d'électron a traversé la paroi : le trou est large. Combien vous gagnez dans la précision de la détermination de l'élan, vous perdez donc dans la précision avec laquelle sa position est connue.

C'est le principe d'incertitude de Heisenberg. Il a joué un rôle extrêmement important dans la construction d'un appareil mathématique pour décrire les ondes de particules dans les atomes. Son interprétation stricte dans les expériences avec des électrons est que, comme les ondes lumineuses, les électrons résistent à toute tentative de faire des mesures avec la plus grande précision. Ce principe change également l'image de l'atome de Bohr. Il est possible de déterminer exactement la quantité de mouvement d'un électron (et donc son niveau d'énergie) sur n'importe laquelle de ses orbites, mais dans ce cas sa localisation sera absolument inconnue : rien ne peut être dit sur sa localisation. À partir de là, il est clair que cela n'a aucun sens de dessiner une orbite claire d'un électron et de la marquer dessus sous la forme d'un cercle. À fin XIX dans. de nombreux scientifiques pensaient que le développement de la physique était achevé pour les raisons suivantes :

Plus de 200 ans il y a les lois de la mécanique, la théorie de la gravitation universelle

a développé une théorie de la cinétique moléculaire

Une base solide a été posée pour la thermodynamique

Terminé la théorie de l'électromagnétisme de Maxwell

Les lois fondamentales de la conservation (énergie, quantité de mouvement, moment cinétique, masse et charge électrique) ont été découvertes

Fin XIX - début XX siècle. découvert par V. Roentgen - rayons X (rayons X), A. Becquerel - le phénomène de radioactivité, J. Thomson - électron. Cependant, la physique classique n'a pas réussi à expliquer ces phénomènes.

La théorie de la relativité d'A. Einstein a nécessité une révision radicale du concept d'espace et de temps. Des expériences spéciales ont confirmé la validité de l'hypothèse de J. Maxwell sur la nature électromagnétique de la lumière. On pourrait supposer que le rayonnement des ondes électromagnétiques par des corps chauffés est dû au mouvement oscillatoire des électrons. Mais cette hypothèse a dû être confirmée en comparant les données théoriques et expérimentales.

Pour une considération théorique des lois du rayonnement, nous avons utilisé le modèle d'un corps absolument noir, c'est-à-dire un corps qui absorbe complètement les ondes électromagnétiques de toute longueur et, par conséquent, émet toutes les longueurs d'onde des ondes électromagnétiques.

Un exemple de corps absolument noir en termes d'émissivité peut être le Soleil, en termes d'absorption - une cavité avec des parois de miroir avec un petit trou.

Les physiciens autrichiens I. Stefan et L. Boltzmann ont établi expérimentalement que l'énergie totale E rayonnée pour 1 avec un corps complètement noir à partir d'une surface unitaire est proportionnelle à la quatrième puissance de la température absolue T :

où s = 5.67.10-8 J/(m2.K-s) est la constante de Stefan-Boltzmann.

Cette loi s'appelait la loi de Stefan-Boltzmann. Il a permis de calculer l'énergie de rayonnement d'un corps complètement noir à partir d'une température connue.

Dans un effort pour surmonter les difficultés de la théorie classique pour expliquer le rayonnement d'un corps noir, M. Planck a avancé en 1900 une hypothèse: les atomes émettent de l'énergie électromagnétique dans des portions séparées - les quanta. L'énergie E, où h=6.63.10-34 J.s est la constante de Planck.

Il est parfois pratique de mesurer l'énergie et la constante de Planck en électronvolts.

Alors h=4.136.10-15 eV.s. En physique atomique, la quantité est également utilisée

(1 eV est l'énergie qu'acquiert une charge élémentaire en passant par une différence de potentiel accélératrice de 1 V. 1 eV = 1.6.10-19 J).

Ainsi, M. Planck a indiqué la sortie des difficultés rencontrées par la théorie Radiation thermique, après quoi la théorie physique moderne appelée physique quantique a commencé à se développer.

La physique est la principale des sciences naturelles, car elle révèle des vérités sur la relation de plusieurs variables de base qui sont vraies pour l'univers entier. Sa versatilité est inversement proportionnelle au nombre de variables qu'elle introduit dans ses formules.

Les progrès de la physique (et de la science en général) sont associés au rejet progressif de la visibilité directe. Comme si une telle conclusion devait contredire le fait que science moderne et la physique, tout d'abord, est basée sur l'expérience, c'est-à-dire expérience empirique qui se déroule dans des conditions contrôlées par l'homme et peut être reproduite à tout moment, n'importe quel nombre de fois. Mais le fait est que certains aspects de la réalité sont invisibles à l'observation superficielle et la visibilité peut être trompeuse.

La mécanique quantique est une théorie physique qui établit le mode de description et les lois du mouvement au niveau micro.

La mécanique classique se caractérise par la description des particules en précisant leur position et leurs vitesses, et la dépendance de ces quantités au temps. En mécanique quantique, les mêmes particules dans les mêmes conditions peuvent se comporter différemment.

Les lois statistiques ne peuvent s'appliquer qu'à de grandes populations, pas à des individus. La mécanique quantique refuse de rechercher les lois individuelles des particules élémentaires et établit des lois statistiques. Sur la base de la mécanique quantique, il est impossible de décrire la position et la vitesse d'une particule élémentaire ou de prédire sa trajectoire future. Les ondes de probabilité nous indiquent la probabilité de rencontrer un électron à un endroit particulier.

L'importance de l'expérience s'est accrue en mécanique quantique à tel point que, comme l'écrit Heisenberg, « l'observation joue un rôle décisif dans un événement atomique et que la réalité diffère selon qu'on l'observe ou non ».

La différence fondamentale entre la mécanique quantique et la mécanique classique est que ses prédictions sont toujours probabilistes. Cela signifie que nous ne pouvons pas prédire avec précision où, par exemple, un électron tombe dans l'expérience décrite ci-dessus, quels que soient les moyens d'observation et de mesure parfaits utilisés. On ne peut qu'estimer ses chances d'arriver à un certain endroit, et donc appliquer pour cela les concepts et les méthodes de la théorie des probabilités, qui sert à analyser les situations incertaines.

En mécanique quantique, tout état d'un système est décrit à l'aide de la matrice dite de densité, mais, contrairement à la mécanique classique, cette matrice détermine les paramètres de son état futur de manière non fiable, mais uniquement avec des degrés de probabilité variables. La conclusion philosophique la plus importante de la mécanique quantique est l'incertitude fondamentale des résultats de mesure et, par conséquent, l'impossibilité de prédire avec précision l'avenir.

Ceci, combiné au principe d'incertitude de Heisenberg et à d'autres preuves théoriques et expérimentales, a conduit certains scientifiques à suggérer que les microparticules n'ont aucune propriété intrinsèque et n'apparaissent qu'au moment de la mesure. D'autres ont suggéré que le rôle de la conscience de l'expérimentateur pour l'existence de l'Univers entier est clé, puisque, selon théorie des quanta, c'est l'observation qui crée ou crée partiellement l'observé. Le déterminisme est la doctrine de la déterminabilité initiale de tous les processus se produisant dans le monde, y compris tous les processus vie humaine, du côté de Dieu (déterminisme théologique, ou la doctrine de la prédestination), ou seulement les phénomènes de la nature (déterminisme cosmologique), ou spécifiquement la volonté humaine (déterminisme anthropologico-éthique), pour la liberté de laquelle, ainsi que pour responsabilité, il n'y aurait alors plus de place.

La définissabilité signifie ici l'affirmation philosophique selon laquelle chaque événement qui se produit, y compris les actions et les comportements humains, est déterminé de manière unique par un ensemble de causes qui précèdent immédiatement cet événement.

Dans cette optique, le déterminisme peut aussi être défini comme la thèse selon laquelle il n'y a qu'un seul futur possible, précisément donné.

L'indéterminisme est une doctrine philosophique et une position méthodologique qui nient soit l'objectivité d'une relation causale, soit la valeur cognitive d'une explication causale en science.

Dans l'histoire de la philosophie, depuis la philosophie grecque antique (Socrate) jusqu'à nos jours, l'indéterminisme et le déterminisme agissent comme des concepts opposés sur les problèmes de la conditionnalité de la volonté d'une personne, de son choix, le problème de la responsabilité d'une personne pour ses actes.

L'indéterminisme traite la volonté comme une force autonome, arguant que les principes de causalité ne s'appliquent pas à l'explication du choix et du comportement humain.

Le terme de détermination a été introduit par le philosophe hellénistique Démocrite dans sa conception atomiste, qui niait le hasard, le prenant simplement pour une nécessité inconnue. De la langue latine, le terme détermination est traduit par une définition, la définissabilité obligatoire de toutes choses et phénomènes dans le monde par d'autres choses et phénomènes. Au début, déterminer signifiait déterminer un objet par l'identification et la fixation de ses caractéristiques qui séparent cet objet des autres. La causalité était assimilée à la nécessité, tandis que le hasard était exclu de la considération, il était considéré comme simplement inexistant. Une telle compréhension de la détermination impliquait l'existence d'un sujet connaissant.

Avec l'émergence du christianisme, le déterminisme s'exprime dans deux nouveaux concepts - la prédestination divine et la grâce divine, et l'ancien principe du libre arbitre se heurte à ce nouveau déterminisme chrétien. Pour la conscience ecclésiastique générale du christianisme, dès le début, il était également important de garder intactes les deux affirmations : que tout, sans exception, dépend de Dieu et que rien ne dépend de l'homme. Au Ve siècle, en Occident, dans ses enseignements, Pélage soulève la question du déterminisme chrétien sous l'aspect du libre arbitre. Le bienheureux Augustin s'est prononcé contre l'individualisme pélagien. Dans ses écrits polémiques, au nom des exigences de l'universalité chrétienne, il a souvent porté le déterminisme à des extrêmes erronés, incompatibles avec la liberté morale. Augustin développe l'idée que le salut d'une personne dépend entièrement et exclusivement de la grâce de Dieu, qui est communiquée et agit non selon ses propres mérites, mais comme un don, selon le libre choix et la prédestination de la part du Divin.

Le déterminisme a été développé et étayé dans les sciences naturelles et la philosophie matérialiste des temps modernes (F. Bacon, Galilée, Descartes, Newton, Lomonosov, Laplace, Spinoza, matérialistes français du XVIIIe siècle). Conformément au niveau de développement des sciences naturelles, le déterminisme de cette période est mécaniste, abstrait.

S'appuyant sur les travaux de ses prédécesseurs et sur les idées fondamentales des sciences naturelles de I. Newton et C. Linnaeus, Laplace, dans son ouvrage "L'expérience de la philosophie de la théorie des probabilités" (1814), a apporté les idées de déterminisme mécaniste jusqu'à sa fin logique : il procède du postulat selon lequel, de la connaissance des causes initiales, on peut toujours déduire sans ambiguïté des conséquences.

Le principe méthodologique du déterminisme est en même temps le principe fondamental de la doctrine philosophique de l'être. L'une des idées ontologiques fondamentales posées à la base des sciences naturelles classiques par ses créateurs (G. Galileo, I. Newton, I. Kepler et d'autres) était le concept de déterminisme. Ce concept consistait en l'adoption de trois énoncés de base :

1) la nature fonctionne et se développe conformément à ses lois internes « naturelles » inhérentes ;

2) les lois de la nature sont l'expression des liens nécessaires (sans ambiguïté) entre les phénomènes et les processus du monde objectif ;

3) le but de la science, correspondant à son but et à ses capacités, est la découverte, la formulation et la justification des lois de la nature.

Parmi les diverses formes de détermination, reflétant l'interconnexion et l'interaction universelles des phénomènes dans le monde environnant, on distingue particulièrement la relation de cause à effet, ou causale (du latin causa - cause), dont la connaissance est indispensable pour une orientation correcte dans la pratique et activité scientifique. C'est donc la cause qui est l'élément le plus important du système des facteurs déterminants. Pourtant, le principe de déterminisme est plus large que le principe de causalité : outre les relations de cause à effet, il inclut d'autres types de déterminations (connexions fonctionnelles, connexion d'états, détermination de cible, etc.).

le déterminisme dans sa développement historique passé par deux étapes principales - classique (mécaniste) et post-classique (dialectique) dans son essence.

L'enseignement d'Épicure sur la déviation spontanée d'un atome par rapport à une ligne droite contenait une compréhension moderne du déterminisme, mais puisque le caractère aléatoire d'Épicure lui-même n'est déterminé par rien (sans cause), alors sans aucune erreur particulière, nous pouvons dire que l'indéterminisme provient d'Épicure.

L'indéterminisme est la doctrine selon laquelle il existe des états et des événements pour lesquels une cause n'existe pas ou ne peut être spécifiée.

Dans l'histoire de la philosophie, on connaît deux types d'indéterminisme :

· L'indéterminisme dit « objectif », qui nie complètement la causalité en tant que telle, non seulement sa réalité objective, mais aussi la possibilité de son interprétation subjectiviste.

· L'indéterminisme idéaliste, qui, niant le caractère objectif des relations de détermination, proclame la causalité, la nécessité, la régularité comme produits de la subjectivité, et non comme attributs du monde lui-même.

Cela signifie (chez Hume, Kant et bien d'autres philosophes) que la cause et l'effet, comme d'autres catégories de détermination, ne sont qu'a priori, c'est-à-dire reçus non de la pratique, des formes de notre pensée. De nombreux idéalistes subjectifs déclarent que l'utilisation de ces catégories est une « habitude psychologique » d'une personne d'observer un phénomène après l'autre et déclarent que le premier phénomène est la cause et le second l'effet.

Le stimulant de la renaissance des vues indéterministes au début du XXe siècle a été le fait que le rôle des régularités statistiques en physique a augmenté, dont la présence a été déclarée pour réfuter la causalité. Cependant, l'interprétation dialectique-matérialiste de la corrélation du hasard et de la nécessité, les catégories de causalité et de loi, le développement de la mécanique quantique, qui a révélé de nouveaux types de connexion causale objective des phénomènes dans le micro-monde, ont montré l'échec des tentatives d'utiliser le présence de processus probabilistes dans la fondation du micromonde pour nier le déterminisme.

Historiquement, le concept de déterminisme est associé au nom de P. Laplace, bien que déjà parmi ses prédécesseurs, par exemple, Démocrite et Spinoza, il y avait une tendance à identifier la "loi de la nature", la "causalité" avec la "nécessité", considérer le "hasard" comme le résultat subjectif de l'ignorance des "vraies" causes .

La physique classique (en particulier la mécanique newtonienne) a développé une idée précise d'une loi scientifique. Il a été considéré comme évident que pour toute loi scientifique, l'exigence suivante doit nécessairement être satisfaite : si l'état initial d'un système physique (par exemple, ses coordonnées et sa quantité de mouvement en mécanique newtonienne) et l'interaction qui détermine la dynamique sont connus, alors dans Conformément à droit scientifique il est possible et devrait calculer son état à tout moment, à la fois dans le futur et dans le passé.

La relation causale des phénomènes s'exprime dans le fait qu'un phénomène (cause) sous certaines conditions entraîne nécessairement un autre phénomène (conséquence). En conséquence, il est possible de donner des définitions de travail de cause à effet. Une cause est un phénomène dont l'action anime, détermine le développement ultérieur d'un autre phénomène. Alors l'effet est le résultat de l'action d'une certaine cause.

Dans la détermination des phénomènes, dans le système de leur certitude, avec la cause, des conditions entrent également - ces facteurs, sans la présence desquels la cause ne peut pas donner lieu à un effet. Cela signifie que la cause elle-même ne fonctionne pas dans toutes les conditions, mais seulement dans certaines.

Le système de détermination des phénomènes (en particulier sociaux) comprend souvent une raison - l'un ou l'autre facteur qui ne détermine que le moment, le moment de l'apparition de l'effet.

Il existe trois types d'orientation temporelle des relations causales :

1) détermination par le passé. Une telle détermination est essentiellement universelle, parce qu'elle reflète un modèle objectif, selon lequel la cause, en fin de compte, précède toujours l'effet. Cette régularité a été très subtilement remarquée par Leibniz, qui a donné la définition suivante d'une cause : « Une cause est ce qui fait que quelque chose commence à exister » ;

2) détermination par le présent. Connaissant la nature, la société, notre propre pensée, nous découvrons invariablement que beaucoup de choses, étant déterminées par le passé, sont aussi dans une interaction déterminante avec des choses qui coexistent simultanément avec elles. Ce n'est pas un hasard si nous rencontrons l'idée d'une relation déterminante simultanée dans divers domaines de la connaissance - physique, chimie (lors de l'analyse des processus d'équilibre), biologie (lors de l'examen de l'homéostasie), etc.

Le déterminisme du présent est aussi directement lié à ces catégories paires de dialectique, entre lesquelles il existe une relation causale. Comme vous le savez, la forme de tout phénomène est sous l'influence déterminante du contenu, mais cela ne signifie pas du tout que le contenu précède la forme en général et qu'à son point d'origine il puisse être sans forme ;

3) détermination par l'avenir. Une telle détermination, soulignée dans un certain nombre d'études, bien qu'elle occupe une place plus restreinte parmi les facteurs déterminants par rapport aux types considérés ci-dessus, joue en même temps un rôle non négligeable. De plus, il faut tenir compte de toute la relativité du terme « détermination par le futur » : les événements futurs sont encore absents, on ne peut parler de leur réalité qu'au sens où ils sont nécessairement présents comme tendances dans le présent (et ont été présent dans le passé). Et pourtant le rôle de ce type de détermination est très important. Passons à deux exemples liés aux parcelles qui ont déjà été discutées,

La détermination par l'avenir sous-tend l'explication de la découverte découverte par l'académicien P.K. Anokhin de réflexion avancée de la réalité par les organismes vivants. Le sens d'une telle avancée, comme cela a été souligné dans le chapitre sur la conscience, réside dans la capacité d'un être vivant à répondre non seulement aux objets qui l'affectent maintenant directement, mais aussi aux changements qui semblent lui être indifférents pour le moment. , mais en réalité, qui sont des signaux d'impacts futurs probables. La raison ici, pour ainsi dire, opère à partir du futur.

Il n'y a pas de phénomènes déraisonnables. Mais cela ne signifie pas que toutes les connexions entre les phénomènes du monde environnant soient causales.

Le déterminisme philosophique, en tant que doctrine du conditionnement matériel régulier des phénomènes, n'exclut pas l'existence de types de conditionnement non causaux. Les relations non causales entre les phénomènes peuvent être définies comme les relations dans lesquelles il existe une relation, une interdépendance, une interdépendance entre eux, mais il n'y a pas de relation directe entre la productivité génétique et l'asymétrie temporelle.

L'exemple le plus caractéristique de conditionnement ou de détermination non causal est la relation fonctionnelle entre les propriétés individuelles ou les caractéristiques d'un objet.

Les liens entre les causes et les effets peuvent être non seulement nécessaires, déterminés de manière rigide, mais aussi aléatoires, probabilistes. La connaissance des relations causales probabilistes nécessitait l'inclusion de nouvelles catégories dialectiques dans l'analyse causale : hasard et nécessité, possibilité et réalité, régularité, etc.

Le hasard est un concept qui est polaire à la nécessité. Le hasard est une telle relation de cause à effet, dans laquelle les motifs de causalité permettent la mise en œuvre de l'une des nombreuses conséquences alternatives possibles. En même temps, la variante particulière de communication qui sera réalisée dépend d'une combinaison de circonstances, de conditions qui ne se prêtent pas à une comptabilité et une analyse précises. Ainsi, un événement aléatoire se produit à la suite de l'action de certains des indéfiniment un grand nombre causes diverses et précisément inconnues. Le déclenchement d'un événement-conséquence aléatoire est en principe possible, mais non prédéterminé : il peut ou non se produire.

Dans l'histoire de la philosophie, le point de vue est largement représenté, selon lequel il n'y a pas d'accident réel, il est une conséquence de causes nécessaires inconnues de l'observateur. Mais, comme Hegel l'a montré le premier, un événement aléatoire ne peut en principe pas être causé par les seules lois internes, qui sont nécessaires à tel ou tel processus. Un événement aléatoire, comme l'écrivait Hegel, ne peut s'expliquer par lui-même.

L'imprévisibilité des hasards semble contredire le principe de causalité. Mais ce n'est pas le cas, car les événements aléatoires et les relations causales sont les conséquences, bien qu'elles ne soient pas connues à l'avance et de manière approfondie, mais encore des conditions et des causes réellement existantes et assez certaines. Ils ne surviennent pas au hasard et pas à partir de « rien » : la possibilité de leur apparition, bien que pas de manière rigide, pas sans ambiguïté, mais naturellement, est liée à des motifs de causalité. Ces connexions et lois sont découvertes à la suite de l'étude d'un grand nombre (flux) d'événements aléatoires homogènes, décrits à l'aide de l'appareil de statistiques mathématiques, et sont donc appelés statistiques. Les modèles statistiques sont de nature objective, mais diffèrent considérablement des modèles de phénomènes uniques. L'utilisation de méthodes quantitatives d'analyse et de calcul des caractéristiques, soumises aux lois statistiques des phénomènes et processus aléatoires, en a fait l'objet d'une branche spéciale des mathématiques - la théorie des probabilités.

La probabilité est une mesure de la possibilité qu'un événement aléatoire se produise. La probabilité d'un événement impossible est nulle, la probabilité d'un événement nécessaire (fiable) est un.

L'interprétation probabiliste-statistique des relations causales complexes a permis de développer et d'appliquer dans la recherche scientifique des éléments fondamentalement nouveaux et très méthodes efficaces connaissance de la structure et des lois de développement du monde. Progrès modernes de la mécanique et de la chimie quantiques, la génétique serait impossible sans comprendre l'ambiguïté des relations entre les causes et les effets des phénomènes étudiés, sans reconnaître que les états ultérieurs d'un objet en développement ne peuvent pas toujours être complètement déduits du précédent.

Pour expliquer la relation d'incertitude, N. Bohr propose principe de complémentarité, en l'opposant au principe de causalité. Lorsque vous utilisez un instrument capable de mesurer avec précision les coordonnées des particules, la quantité de mouvement peut être quelconque et, par conséquent, il n'y a pas de relation causale. En utilisant des appareils d'une autre classe, vous pouvez mesurer avec précision l'élan et les coordonnées deviennent arbitraires. Dans ce cas, le processus, selon N. Bohr, se déroulerait en dehors de l'espace et du temps, c'est-à-dire il faut parler soit de causalité, soit d'espace et de temps, mais pas des deux.

Le principe de complémentarité est un principe méthodologique. Sous une forme généralisée, les exigences du principe de complémentarité comme méthode de recherche scientifique peuvent être formulées comme suit : pour reproduire l'intégrité d'un phénomène à un certain stade intermédiaire de sa connaissance, il est nécessaire d'appliquer des se limitant mutuellement des classes « supplémentaires » de concepts qui peuvent être utilisés séparément, selon des conditions particulières, mais qui, pris ensemble, épuisent toutes les informations qui peuvent être définies et communiquées.

Ainsi, selon le principe de complémentarité, obtenir des informations expérimentales sur certains grandeurs physiques décrire un micro-objet (particule élémentaire, atome, molécule) est inévitablement associé à la perte d'informations sur certaines autres grandeurs qui s'ajoutent aux premières. Ces quantités mutuellement complémentaires peuvent être considérées comme la coordonnée de la particule et sa vitesse (impulsion), l'énergie cinétique et potentielle, la direction et l'amplitude de l'impulsion.

Le principe de complémentarité a permis de mettre en évidence la nécessité de prendre en compte le caractère corpusculaire ondulatoire des micro-phénomènes. En effet, dans certaines expériences, les microparticules, par exemple les électrons, se comportent comme des corpuscules typiques, dans d'autres elles se comportent comme des structures ondulatoires.

D'un point de vue physique, le principe de complémentarité s'explique souvent par l'influence appareil de mesure sur l'état du micro-objet. Lors de la mesure précise de l'une des quantités supplémentaires, l'autre quantité subit un changement complètement incontrôlé en raison de l'interaction de la particule avec l'appareil. Si une telle interprétation du principe de complémentarité est confirmée par l'analyse des expériences les plus simples, elle se heurte d'un point de vue général à des objections d'ordre philosophique. Du point de vue de la théorie quantique moderne, le rôle d'un instrument dans les mesures est de « préparer » un certain état du système. Les états dans lesquels des quantités mutuellement complémentaires auraient simultanément des valeurs exactement définies sont fondamentalement impossibles, et si l'une de ces quantités est exactement définie, alors les valeurs de l'autre sont complètement indéterminées. Ainsi, en fait, le principe de complémentarité reflète les propriétés objectives des systèmes quantiques qui ne sont pas liées à l'observateur.

        1. Description des micro-objets en mécanique quantique

L'application limitée de la mécanique classique aux micro-objets, l'impossibilité de décrire la structure de l'atome à partir de positions classiques et la confirmation expérimentale de l'hypothèse de de Broglie sur l'universalité de la dualité onde-particule ont conduit à la création de la mécanique quantique, qui décrit les propriétés des microparticules en tenant compte de leurs caractéristiques.

La création et le développement de la mécanique quantique couvrent la période allant de 1900 (formulation de Planck de l'hypothèse quantique) à la fin des années 20 du XXe siècle et sont principalement associés aux travaux du physicien autrichien E. Schrödinger, des physiciens allemands M. Né et W. Heisenberg et le physicien anglais P. Dirac.

Comme déjà mentionné, l'hypothèse de de Broglie a été confirmée par des expériences sur la diffraction électronique. Essayons de comprendre quelle est la nature ondulatoire du mouvement d'un électron et de quel type d'ondes parlons-nous.

Le diagramme de diffraction observé pour les microparticules est caractérisé par une répartition inégale des flux de microparticules diffusées ou réfléchies dans différentes directions : plus de particules sont observées dans certaines directions que dans d'autres. La présence d'un maximum dans le diagramme de diffraction du point de vue de la théorie des ondes signifie que ces directions correspondent à l'intensité la plus élevée des ondes de Broglie. Par contre, l'intensité des ondes de Broglie est plus grande là où il y a plus de particules. Ainsi, l'intensité des ondes de Broglie en un point donné de l'espace détermine le nombre de particules qui frappent ce point.

Le diagramme de diffraction des microparticules est une manifestation d'une régularité statistique (probabiliste), selon laquelle les particules tombent aux endroits où l'intensité des ondes de Broglie est la plus grande. La nécessité d'une approche probabiliste pour la description des microparticules est une caractéristique importante de la théorie quantique. Est-il possible d'interpréter les ondes de Broglie comme des ondes de probabilité, c'est-à-dire de supposer que la probabilité de détecter des microparticules en différents points de l'espace change selon la loi des ondes ? Une telle interprétation des ondes de Broglie est incorrecte, ne serait-ce que parce que la probabilité de trouver une particule en certains points de l'espace est négative, ce qui n'a pas de sens.

Pour pallier ces difficultés, le physicien allemand M. Born (1882-1970) suggéra en 1926 que ce n'est pas la probabilité elle-même qui change selon la loi d'onde, mais l'amplitude de probabilité, appelée fonction d'onde. La description de l'état d'un micro-objet à l'aide de la fonction d'onde a un caractère statistique, probabiliste : à savoir, le carré du module de la fonction d'onde (le carré de l'amplitude des ondes de de Broglie) détermine la probabilité de trouver une particule à un instant donné dans un certain volume limité.

L'interprétation statistique des ondes de Broglie et la relation d'incertitude de Heisenberg ont conduit à la conclusion que l'équation du mouvement en mécanique quantique, qui décrit le mouvement des microparticules dans divers champs de force, devrait être une équation à partir de laquelle les propriétés ondulatoires des particules observées expérimentalement seraient suivre. L'équation de base devrait être l'équation de la fonction d'onde, puisque son carré détermine la probabilité de trouver une particule à un instant donné dans un volume spécifique donné. De plus, l'équation souhaitée doit prendre en compte les propriétés ondulatoires des particules, c'est-à-dire qu'il doit s'agir d'une équation ondulatoire.

L'équation de base de la mécanique quantique a été formulée en 1926 par E. Schrödinger. Équation de Schrödinger, comme toutes les équations de base de la physique (par exemple, l'équation de Newton en mécanique classique et les équations de Maxwell pour le champ électromagnétique) n'est pas dérivée, mais postulée. L'exactitude de l'équation de Schrödinger est confirmée par l'accord avec l'expérience des résultats obtenus avec son aide, ce qui lui donne à son tour le caractère des lois de la nature.

La fonction d'onde qui satisfait l'équation de Schrödinger n'a pas d'analogue en physique classique. Néanmoins, aux très courtes longueurs d'onde de de Broglie, le passage des équations quantiques aux équations classiques se fait automatiquement, tout comme l'optique ondulatoire passe à l'optique rayonnante pour les courtes longueurs d'onde. Les deux passages à la limite s'effectuent mathématiquement de manière similaire.

La découverte d'un nouveau niveau structurel de la structure de la matière et la méthode mécanique quantique de sa description ont jeté les bases de la physique corps solide. La structure des métaux, des diélectriques, des semi-conducteurs, leurs propriétés thermodynamiques, électriques et magnétiques ont été comprises. Des voies ont été ouvertes pour une recherche ciblée de nouveaux matériaux dotés des propriétés nécessaires, des moyens de créer de nouvelles industries, de nouvelles technologies. De grands progrès ont été réalisés grâce à l'application de la mécanique quantique aux phénomènes nucléaires. La mécanique quantique et la physique nucléaire ont expliqué que la source d'énergie stellaire colossale est les réactions de fusion nucléaire se produisant à des températures stellaires de dizaines et de centaines de millions de degrés.

L'application de la mécanique quantique à champs physiques. Une théorie quantique du champ électromagnétique a été construite - l'électrodynamique quantique, qui a expliqué de nombreux phénomènes nouveaux. Le photon, particule du champ électromagnétique, qui n'a pas de masse au repos, a pris place dans la série des particules élémentaires. La synthèse de la mécanique quantique et de la théorie de la relativité restreinte, réalisée par le physicien anglais P. Dirac, a conduit à la prédiction des antiparticules. Il s'est avéré que chaque particule devrait avoir, pour ainsi dire, son propre "double" - une autre particule avec la même masse, mais avec la charge électrique opposée ou une autre charge. Dirac a prédit l'existence du positon et la possibilité de convertir un photon en une paire électron-positon et vice versa. Le positron, l'antiparticule de l'électron, a été découvert expérimentalement en 1934.

À Vie courante Il existe deux façons de transférer de l'énergie dans l'espace - au moyen de particules ou d'ondes. Pour, par exemple, jeter un domino en équilibre sur son bord de la table, vous pouvez lui donner l'énergie nécessaire de deux manières. Tout d'abord, vous pouvez lui lancer un autre domino (c'est-à-dire transférer une impulsion ponctuelle à l'aide d'une particule). Deuxièmement, vous pouvez construire des dominos en ligne, menant le long de la chaîne à celui sur le bord de la table, et déposer le premier sur le second : dans ce cas, l'impulsion sera transmise le long de la chaîne - le deuxième domino sera accabler le troisième, le troisième le quatrième, et ainsi de suite. C'est le principe ondulatoire du transfert d'énergie. Dans la vie de tous les jours, il n'y a pas de contradictions visibles entre les deux mécanismes de transfert d'énergie. Ainsi, un ballon de basket est une particule, et le son est une onde, et tout est clair.

Résumons ce qui a été dit. Si des photons ou des électrons sont dirigés dans une telle chambre un par un, ils se comportent comme des particules ; cependant, si des statistiques suffisantes de ces expériences individuelles sont collectées, on constatera que, dans l'ensemble, ces mêmes électrons ou photons seront répartis sur la paroi arrière de la chambre de telle manière qu'un schéma familier de pics et de désintégrations alternés de on y observera une intensité indiquant leur nature ondulatoire. En d'autres termes, dans le microcosme, les objets qui se comportent comme des particules, en même temps, semblent "se souvenir" de leur nature ondulatoire, et vice versa. Cette étrange propriété des objets du micromonde s'appelle dualisme des ondes quantiques. De nombreuses expériences ont été réalisées dans le but de "révéler la vraie nature" des particules quantiques : diverses techniques et installations expérimentales ont été utilisées, dont celles qui permettraient à mi-chemin du récepteur de révéler les propriétés ondulatoires d'une particule individuelle ou, à l'inverse, de déterminer les propriétés ondulatoires d'un faisceau lumineux à travers les caractéristiques des quanta individuels. Tout est en vain. Apparemment, le dualisme des ondes quantiques est objectivement inhérent aux particules quantiques.

Le principe de complémentarité est un simple énoncé de ce fait. Selon ce principe, si nous mesurons les propriétés d'un objet quantique comme une particule, nous voyons qu'il se comporte comme une particule. Si nous mesurons ses propriétés ondulatoires, il se comporte pour nous comme une onde. Les deux points de vue ne sont nullement contradictoires; ils sont complément les uns des autres, ce qui se reflète dans le nom du principe.

Comme je l'ai déjà expliqué dans l'introduction, je crois que la philosophie des sciences a bénéficié d'une telle dualité onde-particule incomparablement plus qu'elle n'aurait été possible en son absence et une distinction stricte entre les phénomènes corpusculaires et ondulatoires. Aujourd'hui, il est bien évident que les objets du microcosme se comportent d'une manière fondamentalement différente des objets du macrocosme auxquels nous sommes habitués. Mais pourquoi? Sur quelles tablettes est-il écrit ? Et, tout comme les philosophes naturels médiévaux ont eu du mal à déterminer si le vol d'une flèche était "libre" ou "forcé", les philosophes modernes ont du mal à résoudre le dualisme des ondes quantiques. En fait, les électrons et les photons ne sont pas des ondes ou des particules, mais quelque chose de très spécial dans sa nature intrinsèque - et donc ne se prête pas à une description en termes de notre expérience quotidienne. Si nous continuons à essayer d'insérer leur comportement dans le cadre de paradigmes qui nous sont familiers, de plus en plus de paradoxes sont inévitables. La principale conclusion ici est donc que le dualisme que nous observons n'est pas généré par les propriétés inhérentes des objets quantiques, mais par l'imperfection des catégories dans lesquelles nous pensons.

Principe de conformité

Une nouvelle théorie qui prétend avoir une connaissance plus profonde de l'essence de l'univers, à plus Description complète et pour une application plus large de ses résultats que le précédent, devrait inclure le précédent comme cas limite. Ainsi, la mécanique classique est le cas limite de la mécanique quantique et de la mécanique de la théorie de la relativité. Mécanique relativiste ( théorie spéciale relativité) dans la limite des petites vitesses passe en mécanique classique (newtonienne). C'est le contenu du principe méthodologique de correspondance formulé par N. Bohr en 1923.

L'essence du principe de correspondance est la suivante : toute nouvelle théorie plus générale, qui est le développement de théories classiques antérieures, dont la validité a été expérimentalement établie pour certains groupes de phénomènes, ne rejette pas ces théories classiques, mais les inclut. Les théories antérieures conservent leur signification pour certains groupes de phénomènes comme forme limite et cas particulier de la nouvelle théorie. Cette dernière détermine les limites de l'application des théories antérieures et, dans certains cas, il y a la possibilité d'une transition d'une nouvelle théorie à une ancienne.

En mécanique quantique, le principe de correspondance révèle le fait que les effets quantiques ne sont significatifs que lorsqu'on considère des quantités comparables à la constante de Planck (h). Lorsque l'on considère des objets macroscopiques, la constante de Planck peut être considérée comme négligeable (hà0). Ceci conduit au fait que les propriétés quantiques des objets considérés s'avèrent insignifiantes ; représentations de la physique classique - sont équitables. Par conséquent, la valeur du principe de correspondance dépasse les limites de la mécanique quantique. Elle deviendra partie intégrante de toute nouvelle théorie.

Le principe de complémentarité est l'une des idées les plus profondes science naturelle moderne. Un objet quantique n'est pas une onde, ni une particule séparément. L'étude expérimentale des micro-objets implique l'utilisation de deux types d'instruments : l'un permet d'étudier les propriétés des ondes, l'autre - corpusculaire. Ces propriétés sont incompatibles en termes de leur manifestation simultanée. Cependant, ils caractérisent également l'objet quantique, et donc ne se contredisent pas, mais se complètent.

Le principe de complémentarité a été formulé par N. Bohr en 1927, lorsqu'il s'est avéré que lors de l'étude expérimentale de micro-objets, des données précises peuvent être obtenues soit sur leurs énergies et leurs impulsions (modèle énergie-impulsion), soit sur leur comportement dans espace et temps (image spatio-temporelle). Ces images mutuellement exclusives ne peuvent pas être appliquées simultanément. Ainsi, si nous organisons la recherche d'une particule à l'aide d'instruments physiques précis qui fixent sa position, alors la particule est trouvée avec une probabilité égale en tout point de l'espace. Cependant, ces propriétés caractérisent également le micro-objet, ce qui suppose leur utilisation dans le sens où au lieu d'une seule image, il faut en utiliser deux : énergétique-impulsionnelle et spatio-temporelle.

Dans un sens philosophique large, le principe de complémentarité de N. Bohr se manifeste dans caractérisation des différents objets de recherche au sein d'une même science.