Podaj zasadę komplementarności tam, gdzie ma ona zastosowanie. Zasada komplementarności, jej przejawy i istota

Zasada komplementarności jest postulatem metodologicznym, który oryginalnie sformułował wielki duński fizyk i filozof Niels Bohr w odniesieniu do dziedziny. Zasada komplementarności Bohra powstała najprawdopodobniej tylko dzięki temu, że już wcześniej Niemiecki fizyk Kurt Gödel zaproponował swój wniosek i sformułowanie słynnego twierdzenia o właściwościach systemów dedukcyjnych, które należy do dziedziny Nielsa Bohra, rozszerzył logiczne wnioski Gödla na mechanikę kwantową i sformułował zasadę mniej więcej w następujący sposób: aby wiarygodnie i dobrze znać przedmiot mikroświata, należy go badać w układach wzajemnie się wykluczających, czyli w niektórych układach dodatkowych. Ta definicja przeszła do historii jako zasada komplementarności w mechanice kwantowej.

Przykładem takiego rozwiązania problemów mikroświata było rozpatrzenie światła w kontekście dwóch teorii – falowej i korpuskularnej, co doprowadziło do zdumiewającego pod względem wydajności wyniku naukowego, który ujawnił człowiekowi fizyczną naturę światło.

Niels Bohr w swoim rozumieniu wyciągniętego wniosku poszedł jeszcze dalej. Podejmuje próbę interpretacji zasady komplementarności przez pryzmat wiedzy filozoficznej i tu zasada ta nabiera uniwersalnego znaczenia naukowego. Teraz sformułowanie zasady brzmiało tak: aby odtworzyć zjawisko w celu jego poznania w systemie znakowym (symbolicznym), konieczne jest odwołanie się do dodatkowych pojęć i kategorii. Mówiąc więcej zwykły język, zasada komplementarności zakłada w poznaniu nie tylko możliwe, ale w niektórych przypadkach konieczne, zastosowanie kilku systemów metodologicznych, które pozwolą na uzyskanie obiektywnych danych o przedmiocie badań. W tym sensie zasada komplementarności okazała się faktem zgodności z metaforyczną naturą logicznych systemów metodologii – mogą one przejawiać się w taki czy inny sposób. Tak więc wraz z pojawieniem się i zrozumieniem tej zasady faktycznie uznano, że sama logika nie wystarcza do poznania, a zatem nielogiczne postępowanie w procesie badawczym zostało uznane za dopuszczalne. Ostatecznie zastosowanie zasady Bohra przyczyniło się do istotnej zmiany

Później Yu M. Lotman rozszerzył się znaczenie metodologiczne Zasada Bohra i przenosząca jej prawidłowości na sferę kultury, w szczególności zastosowana do opisu Łotmana sformułowała tzw. . A wraz z postępem rozwoju ten niedobór będzie się stale zwiększał. Stosując zasadę komplementarności można skompensować brak informacji poprzez przeniesienie jej do innego systemu semiotycznego (znakowego). Technika ta doprowadziła de facto do pojawienia się informatyki i cybernetyki, a następnie Internetu. Później działanie zasady potwierdziła sprawność fizjologiczna ludzki mózg dla tego typu myślenia wynika to z asymetrii aktywności jego półkul.

Kolejnym zapisem, w którym pośredniczy działanie zasady Bohra, jest fakt odkrycia przez niemieckiego fizyka Wernera Heisenberga prawa relacji niepewności. Jego działanie można określić jako rozpoznanie niemożliwości takiego samego opisu dwóch obiektów z taką samą dokładnością, jeżeli obiekty te należą do różnych systemów. Filozoficzna analogia do tego wniosku została podana w pracy „O niezawodności”, stwierdził, że aby zapewnić pewność czegoś, trzeba w coś wątpić.

W ten sposób zasada Bohra nabrała ogromnego znaczenia metodologicznego w różnych dziedzinach.

Fundamentalną zasadą mechaniki kwantowej, wraz z relacją niepewności, jest zasada komplementarności, której N. Bohr nadał następujące sformułowanie:

„Koncepcje cząstki i fali uzupełniają się, a jednocześnie są ze sobą sprzeczne, są komplementarnymi obrazami tego, co się dzieje”.

Sprzeczności właściwości korpuskularno-falowych mikroobiektów są wynikiem niekontrolowanego oddziaływania mikroobiektów i makrourządzeń. Istnieją dwie klasy urządzeń: w niektórych obiektach kwantowych zachowują się jak fale, w innych zachowują się jak cząstki. W eksperymentach obserwujemy nie rzeczywistość jako taką, a jedynie zjawisko kwantowe, w tym wynik interakcji urządzenia z mikroobiektem. M. Born w przenośni zauważył, że fale i cząstki są „rzutami” rzeczywistości fizycznej na sytuację doświadczalną.

Po pierwsze, idea dualizmu falowo-cząsteczkowego oznacza, że ​​każdy obiekt materialny, który ma dualizm falowo-cząsteczkowy, ma powłokę energetyczną. Podobna powłoka energetyczna istnieje na Ziemi, a także u ludzi, którą najczęściej nazywa się kokonem energetycznym. Ta powłoka energetyczna może pełnić rolę powłoki sensorycznej, która osłania obiekt materialny przed środowiskiem zewnętrznym i tworzy jego zewnętrzną „sferę grawitacyjną”. Ta sfera może pełnić rolę błony w komórkach żywych organizmów. Przechodzi wewnątrz tylko „przefiltrowanych” sygnałów, których poziom zakłóceń przekracza określoną wartość graniczną. Podobne sygnały, które przekroczyły pewien próg czułości pocisku, mogą również przejść w przeciwnym kierunku.

Po drugie, obecność powłoki energetycznej w obiektach materialnych przenosi na nowy poziom zrozumienia hipotezę francuskiego fizyka L. de Broglie o prawdziwie uniwersalnej naturze dualizmu falowo-cząsteczkowego.

Po trzecie, ze względu na ewolucję budowy materii, natura dualizmu korpuskularno-falowego elektronu może być odzwierciedleniem dualizmu korpuskularno-falowego fotonów. Oznacza to, że foton, będąc cząsteczką obojętną, ma budowę mezonową i jest najbardziej elementarnym mikroatomem, z którego na obraz i podobieństwo zbudowane są wszystkie materialne obiekty Wszechświata. Co więcej, ta konstrukcja odbywa się według tych samych zasad.

Po czwarte, dualizm korpuskularno-falowy pozwala w naturalny sposób wyjaśnić zjawisko pamięci genowej (pamięć genowa) cząstek, atomów, molekuł, organizmów żywych, umożliwiając zrozumienie mechanizmów takiej pamięci, gdy bezstrukturalna cząstka zapamiętuje wszystkie swoje wytwory w przeszłości i posiada "inteligencję" w wybranych procesach syntezy, w celu uformowania nowych "cząstek" o wybranych właściwościach.

Zasada nieoznaczoności jest prawem fizycznym, które mówi, że nie można jednocześnie dokładnie zmierzyć współrzędnych i pędu mikroskopijnego obiektu, ponieważ proces pomiarowy zaburza równowagę systemu. Iloczyn tych dwóch niepewności jest zawsze większy niż stała Plancka. Zasada ta została po raz pierwszy sformułowana przez Wernera Heisenberga.

Z zasady nieoznaczoności wynika, że ​​im dokładniej określona zostanie jedna z wielkości zawartych w nierówności, tym mniej pewna jest wartość drugiej. Żaden eksperyment nie może prowadzić do równoczesnego dokładnego pomiaru takich zmiennych dynamicznych; Jednocześnie niepewność pomiarów jest związana nie z niedoskonałością techniki eksperymentalnej, ale z obiektywnymi właściwościami materii.

Zasada nieoznaczoności, odkryta w 1927 roku przez niemieckiego fizyka W. Heisenberga, była ważnym krokiem w wyjaśnianiu wzorców zjawisk wewnątrzatomowych i budowaniu mechaniki kwantowej. Istotną cechą obiektów mikroskopowych jest ich korpuskularno-falowy charakter. Stan cząstki jest całkowicie określony przez funkcję falową (wartość, która całkowicie opisuje stan mikroobiektu (elektronu, protonu, atomu, cząsteczki) i ogólnie dowolnego układu kwantowego). Cząstkę można znaleźć w dowolnym punkcie przestrzeni, w którym funkcja falowa jest niezerowa. Dlatego wyniki eksperymentów wyznaczających np. współrzędne mają charakter probabilistyczny.

Przykład: ruch elektronu jest propagacją własnej fali. Jeśli wystrzelisz wiązkę elektronów przez wąski otwór w ścianie: wąska wiązka przez nią przejdzie. Ale jeśli zmniejszysz tę dziurę, tak aby jej średnica była równa długości fali elektronu, wówczas wiązka elektronów rozejdzie się we wszystkich kierunkach. I nie jest to ugięcie spowodowane przez najbliższe atomy ściany, które można wyeliminować: wynika to z falowej natury elektronu. Spróbuj przewidzieć, co stanie się dalej z elektronem przechodzącym przez ścianę, a będziesz bezsilny. Wiesz dokładnie, gdzie przecina ścianę, ale nie możesz powiedzieć, jaki pęd poprzeczny nabierze. Wręcz przeciwnie, aby dokładnie określić, że elektron pojawi się z takim a takim pewnym pędem w pierwotnym kierunku, trzeba powiększyć dziurę tak, aby fala elektronowa szła prosto, tylko nieznacznie rozchodząc się we wszystkich kierunkach z powodu dyfrakcji. Ale wtedy nie można dokładnie powiedzieć, gdzie dokładnie cząsteczka elektronu przeszła przez ścianę: dziura jest szeroka. Ile wygrywasz w dokładności wyznaczania pędu, więc tracisz w dokładności, z jaką znana jest jego pozycja.

To jest zasada nieoznaczoności Heisenberga. Odegrał niezwykle ważną rolę w konstrukcji aparatu matematycznego do opisu fal cząstek w atomach. Jego ścisła interpretacja w eksperymentach z elektronami polega na tym, że elektrony, podobnie jak fale świetlne, opierają się wszelkim próbom wykonania pomiarów z najwyższą precyzją. Ta zasada zmienia również obraz atomu Bohra. Możliwe jest dokładne określenie pędu elektronu (a tym samym jego poziomu energii) na dowolnej z jego orbit, ale w tym przypadku jego lokalizacja będzie absolutnie nieznana: nic nie można powiedzieć o tym, gdzie się znajduje. Z tego widać, że nie ma sensu rysować wyraźnej orbity elektronu i zaznaczać go na nim w formie koła. W późny XIX w. wielu naukowców uważało, że rozwój fizyki został zakończony z następujących powodów:

Od ponad 200 lat istnieją prawa mechaniki, teoria powszechnego ciążenia

opracował teorię kinetyki molekularnej

Położono solidny fundament pod termodynamikę

Ukończył teorię elektromagnetyzmu Maxwella

Odkryto podstawowe prawa zachowania (energia, pęd, moment pędu, masa i ładunek elektryczny)

Pod koniec XIX - początek XX wieku. odkryty przez V. Roentgena - promienie rentgenowskie (promienie rentgenowskie), A. Becquerela - zjawisko promieniotwórczości, J. Thomsona - elektron. Jednak fizyka klasyczna nie potrafiła wyjaśnić tych zjawisk.

Teoria względności A. Einsteina wymagała radykalnej rewizji koncepcji przestrzeni i czasu. Specjalne eksperymenty potwierdziły słuszność hipotezy J. Maxwella o elektromagnetycznej naturze światła. Można przypuszczać, że promieniowanie fal elektromagnetycznych przez rozgrzane ciała jest spowodowane ruchem oscylacyjnym elektronów. Ale to założenie musiało zostać potwierdzone przez porównanie danych teoretycznych i eksperymentalnych.

Do teoretycznego rozważenia praw promieniowania wykorzystaliśmy model absolutnie czarnego ciała, tj. ciała, które całkowicie pochłania fale elektromagnetyczne o dowolnej długości i odpowiednio emituje fale elektromagnetyczne o wszystkich długościach.

Przykładem absolutnie czarnego ciała pod względem emisyjności może być Słońce pod względem absorpcji - wnęka o lustrzanych ścianach z małym otworem.

Austriaccy fizycy I. Stefan i L. Boltzmann eksperymentalnie ustalili, że całkowita energia E wypromieniowana dla 1 z całkowicie czarnym ciałem z powierzchni jednostki jest proporcjonalna do czwartej potęgi temperatury bezwzględnej T:

gdzie s = 5,67,10-8 J/(m2.K-s) jest stałą Stefana-Boltzmanna.

Prawo to nazwano prawem Stefana-Boltzmanna. Umożliwił obliczenie energii promieniowania ciała całkowicie czarnego ze znanej temperatury.

Próbując przezwyciężyć trudności klasycznej teorii w wyjaśnianiu promieniowania ciała doskonale czarnego, M. Planck wysunął w 1900 roku hipotezę: atomy emitują energię elektromagnetyczną w oddzielnych porcjach - kwantach. Energia E, gdzie h=6,63,10-34 Js jest stałą Plancka.

Czasami wygodnie jest zmierzyć energię i stałą Plancka w elektronowoltach.

Wtedy h=4.136.10-15 eV.s. W fizyce atomowej stosuje się również ilość

(1 eV to energia, którą uzyskuje ładunek elementarny, przechodząc przez przyspieszającą różnicę potencjałów 1 V. 1 eV = 1,6,10-19 J).

W ten sposób M. Planck wskazał drogę wyjścia z trudności, z jakimi boryka się teoria”. promieniowanie cieplne, po czym zaczęła się rozwijać współczesna teoria fizyczna zwana fizyką kwantową.

Fizyka jest główną z nauk przyrodniczych, ponieważ ujawnia prawdy o związku kilku podstawowych zmiennych, które są prawdziwe dla całego wszechświata. Jej wszechstronność jest odwrotnie proporcjonalna do liczby zmiennych, które wprowadza do swoich formuł.

Postęp fizyki (i nauki w ogóle) wiąże się ze stopniowym odrzucaniem bezpośredniej widzialności. Jakby taki wniosek miał przeczyć faktowi, że nowoczesna nauka a fizyka opiera się przede wszystkim na eksperymencie, tj. doświadczenie empiryczne, które odbywa się w kontrolowanych przez człowieka warunkach i może być odtwarzane w dowolnym momencie, dowolną liczbę razy. Chodzi jednak o to, że niektóre aspekty rzeczywistości są niewidoczne dla powierzchownej obserwacji, a widoczność może być myląca.

Mechanika kwantowa to teoria fizyczna, która ustala sposób opisu i prawa ruchu na poziomie mikro.

Mechanika klasyczna charakteryzuje się opisem cząstek poprzez określenie ich położenia i prędkości oraz zależności tych wielkości od czasu. W mechanice kwantowej te same cząstki w tych samych warunkach mogą zachowywać się inaczej.

Prawa statystyczne można stosować tylko do dużych populacji, a nie do jednostek. Mechanika kwantowa odmawia poszukiwania indywidualnych praw cząstek elementarnych i ustanawia prawa statystyczne. Na podstawie mechaniki kwantowej nie da się opisać położenia i prędkości cząstki elementarnej ani przewidzieć jej przyszłej drogi. Fale prawdopodobieństwa mówią nam o prawdopodobieństwie napotkania elektronu w określonym miejscu.

Znaczenie eksperymentu w mechanice kwantowej wzrosło do tego stopnia, że, jak pisze Heisenberg, „obserwacja odgrywa decydującą rolę w zdarzeniu atomowym i że rzeczywistość różni się w zależności od tego, czy ją obserwujemy, czy nie”.

Podstawowa różnica między mechaniką kwantową a mechaniką klasyczną polega na tym, że jej przewidywania są zawsze probabilistyczne. Oznacza to, że nie możemy dokładnie przewidzieć, gdzie np. elektron pada w omówionym powyżej eksperymencie, bez względu na to, jakie doskonałe środki obserwacji i pomiaru są używane. Można jedynie oszacować jego szanse na dotarcie do określonego miejsca, a zatem zastosować do tego pojęcia i metody rachunku prawdopodobieństwa, które służą do analizy sytuacji niepewnych.

W mechanice kwantowej każdy stan układu opisuje się za pomocą tzw. macierzy gęstości, ale w przeciwieństwie do mechaniki klasycznej macierz ta określa parametry jego przyszłego stanu nierzetelnie, a jedynie z różnym prawdopodobieństwem. Najważniejszym wnioskiem filozoficznym z mechaniki kwantowej jest fundamentalna niepewność wyników pomiarów, a co za tym idzie niemożność dokładnego przewidzenia przyszłości.

To, w połączeniu z zasadą nieoznaczoności Heisenberga i innymi dowodami teoretycznymi i eksperymentalnymi, skłoniło niektórych naukowców do zasugerowania, że ​​mikrocząstki nie mają żadnych wewnętrznych właściwości i pojawiają się tylko w momencie pomiaru. Inni sugerowali, że rola świadomości eksperymentatora dla istnienia całego Wszechświata jest kluczowa, ponieważ według teoria kwantowa, to obserwacja tworzy lub częściowo tworzy obserwowane.Determinizm jest doktryną o początkowej determinowalności wszystkich procesów zachodzących na świecie, w tym wszystkich procesów życie człowieka, ze strony Boga (determinizm teologiczny lub doktryna predestynacji), czy tylko zjawisk natury (determinizm kosmologiczny), a konkretnie woli ludzkiej (determinizm antropologiczno-etyczny), dla której wolności, jak również dla odpowiedzialność, wtedy nie byłoby już miejsca.

Definiowalność oznacza tutaj filozoficzne twierdzenie, że każde zdarzenie, które ma miejsce, w tym zarówno ludzkie działania, jak i zachowanie, jest jednoznacznie zdeterminowane przez zbiór przyczyn, które bezpośrednio poprzedzają to zdarzenie.

W tym świetle determinizm można również określić jako tezę, że istnieje tylko jedna, dokładnie określona, ​​możliwa przyszłość.

Indeterminizm jest doktryną filozoficzną i stanowiskiem metodologicznym, które negują obiektywność związku przyczynowego lub poznawczą wartość wyjaśnienia przyczynowego w nauce.

W historii filozofii, począwszy od filozofii starożytnej Grecji (Sokratesa) aż do współczesności, indeterminizm i determinizm działają jako przeciwstawne koncepcje dotyczące problemów uwarunkowań woli człowieka, jego wyboru, odpowiedzialności człowieka za swoje czyny.

Indeterminizm traktuje wolę jako autonomiczną siłę, argumentując, że zasady przyczynowości nie mają zastosowania do wyjaśniania ludzkich wyborów i zachowań.

Termin determinacja został wprowadzony przez hellenistycznego filozofa Demokryta w swojej atomistycznej koncepcji, która negowała przypadek, biorąc go po prostu za nieznaną konieczność. Z języka łacińskiego termin determinacja jest tłumaczony jako definicja, obowiązkowa definiowalność wszystkich rzeczy i zjawisk w świecie przez inne rzeczy i zjawiska. Po pierwsze określenie oznaczało określenie przedmiotu poprzez identyfikację i utrwalenie jego cech, które odróżniają ten przedmiot od innych. Przyczynowość była utożsamiana z koniecznością, natomiast przypadkowość została wyłączona z rozważań, uznano ją po prostu za nieistniejącą. Takie rozumienie determinacji implikowało istnienie podmiotu poznającego.

Wraz z pojawieniem się chrześcijaństwa determinizm wyraża się w dwóch nowych koncepcjach - boskiej predestynacji i boskiej łasce, a stara zasada wolnej woli zderza się z nowym, chrześcijańskim determinizmem. Dla ogólnej świadomości kościelnej chrześcijaństwa od samego początku równie ważne było zachowanie nienaruszonych obu twierdzeń: że wszystko bez wyjątku zależy od Boga i że nic nie zależy od człowieka. W V wieku na Zachodzie Pelagiusz w swoich naukach podnosi kwestię determinizmu chrześcijańskiego w aspekcie wolnej woli. Błogosławiony Augustyn wypowiadał się przeciwko pelagiańskiemu indywidualizmowi. W swoich pismach polemicznych, w imię postulatów chrześcijańskiej uniwersalności, często doprowadzał determinizm do błędnych skrajności, nie dających się pogodzić z wolnością moralną. Augustyn rozwija pogląd, że zbawienie osoby zależy całkowicie i wyłącznie od łaski Bożej, która jest udzielana i działa nie według własnych zasług, ale jako dar, zgodnie z wolnym wyborem i przeznaczeniem ze strony Boska.

Determinizm był dalej rozwijany i uzasadniony w naukach przyrodniczych i filozofii materialistycznej czasów nowożytnych (F. Bacon, Galileusz, Kartezjusz, Newton, Łomonosow, Laplace, Spinoza, francuscy materialiści XVIII wieku). Zgodnie z poziomem rozwoju nauk przyrodniczych determinizm tego okresu jest mechanistyczny, abstrakcyjny.

Opierając się na pracach swoich poprzedników oraz na podstawowych ideach nauk przyrodniczych I. Newtona i C. Linneusza, Laplace w swojej pracy „Doświadczenie filozofii teorii prawdopodobieństwa” (1814) przedstawił idee determinizm mechanistyczny do końca logicznego: wychodzi z postulatu, zgodnie z którym ze znajomości przyczyn wyjściowych zawsze można jednoznacznie wydedukować konsekwencje.

Metodologiczna zasada determinizmu jest jednocześnie podstawową zasadą filozoficznej doktryny bytu. Jedną z fundamentalnych idei ontologicznych sformułowanych na gruncie klasycznych nauk przyrodniczych przez jej twórców (G. Galileo, I. Newton, I. Kepler i inni) była koncepcja determinizmu. Koncepcja ta polegała na przyjęciu trzech podstawowych stwierdzeń:

1) przyroda funkcjonuje i rozwija się zgodnie ze swymi wewnętrznymi, „naturalnymi” prawami;

2) prawa przyrody są wyrazem koniecznych (jednoznacznych) związków między zjawiskami i procesami obiektywnego świata;

3) celem nauki, odpowiadającym jej celowi i możliwościom, jest odkrywanie, formułowanie i uzasadnianie praw przyrody.

Wśród różnorodnych form determinacji, odzwierciedlających uniwersalne wzajemne powiązania i interakcje zjawisk w otaczającym świecie, szczególnie wyróżnia się związek przyczynowo-skutkowy, czyli przyczynowy (z łac. causa – przyczyna), którego znajomość jest niezbędna do prawidłowej orientacji w praktyce i działalność naukowa. Dlatego właśnie przyczyna jest najważniejszym elementem systemu czynników determinujących. A jednak zasada determinizmu jest szersza niż zasada przyczynowości: oprócz związków przyczynowo-skutkowych obejmuje inne rodzaje determinacji (powiązania funkcjonalne, połączenie stanów, określenie celu itp.).

determinizm w swoim rozwój historyczny przeszedł przez dwa główne etapy - w swej istocie klasyczny (mechanistyczny) i postklasyczny (dialektyczny).

Nauka Epikura o spontanicznym odchyleniu atomu od linii prostej zawierała współczesne rozumienie determinizmu, ale skoro sama losowość Epikura nie jest zdeterminowana przez nic (bez przyczyny), to bez specjalnych błędów można powiedzieć, że indeterminizm wywodzi się z Epikura.

Indeterminizm to doktryna, według której istnieją stany i zdarzenia, których przyczyna nie istnieje lub nie można jej określić.

W historii filozofii znane są dwa rodzaje indeterminizmu:

· Tak zwany „obiektywny” indeterminizm, który całkowicie odrzuca przyczynowość jako taką, nie tylko jej obiektywną rzeczywistość, ale także możliwość jej subiektywistycznej interpretacji.

· Indeterminizm idealistyczny, który zaprzeczając obiektywnemu charakterowi relacji determinacji, deklaruje przyczynowość, konieczność, prawidłowość jako wytwory podmiotowości, a nie atrybuty samego świata.

Oznacza to (u Hume'a, Kanta i wielu innych filozofów), że przyczyna i skutek, podobnie jak inne kategorie determinacji, są tylko a priori, tj. otrzymane nie z praktyki, formy naszego myślenia. Wielu subiektywnych idealistów deklaruje, że używanie tych kategorii jest „psychologicznym nawykiem” człowieka do obserwowania jednego zjawiska po drugim i deklarowania, że ​​pierwsze zjawisko jest przyczyną, a drugie skutkiem.

Bodźcem do odrodzenia się poglądów indeterministycznych na początku XX wieku był fakt, że wzrosła rola prawidłowości statystycznych w fizyce, których obecność deklarowano jako obalającą przyczynowość. Jednak dialektyczno-materialistyczna interpretacja korelacji przypadku i konieczności, kategorii przyczynowości i prawa, rozwój mechaniki kwantowej, która ujawniła nowe typy obiektywnego związku przyczynowego zjawisk w mikroświecie, wykazała niepowodzenie prób wykorzystania obecność procesów probabilistycznych w fundamencie mikroświata, aby zaprzeczyć determinizmowi.

Historycznie pojęcie determinizmu wiąże się z nazwiskiem P. Laplace'a, choć już wśród jego poprzedników, np. Demokryta i Spinozy, istniała tendencja do utożsamiania „prawa natury”, „przyczynowości” z „koniecznością”, uznać „przypadek” za subiektywny wynik nieznajomości „prawdziwych” przyczyn.

Fizyka klasyczna (zwłaszcza mechanika Newtona) rozwinęła specyficzną ideę prawa naukowego. Przyjęto jako oczywiste, że dla każdego prawa naukowego musi być koniecznie spełniony następujący warunek: jeśli znany jest stan początkowy układu fizycznego (na przykład jego współrzędne i pęd w mechanice Newtona) oraz oddziaływanie określające dynamikę, to w Zgodnie z prawo naukowe jest to możliwe i powinno obliczyć jego stan w dowolnym momencie, zarówno w przyszłości, jak i w przeszłości.

Związek przyczynowo-skutkowy zjawisk wyraża się w tym, że jedno zjawisko (przyczyna) w pewnych warunkach z konieczności wywołuje inne zjawisko (konsekwencję). W związku z tym możliwe jest podanie roboczych definicji przyczyny i skutku. Przyczyna to zjawisko, którego działanie ożywia, warunkuje dalszy rozwój innego zjawiska. Wtedy skutek jest wynikiem działania pewnej przyczyny.

W określaniu zjawisk, w system ich pewności, wraz z przyczyną wchodzą również warunki - te czynniki, bez których obecności przyczyna nie może wywołać skutku. Oznacza to, że sama przyczyna nie działa w każdych warunkach, ale tylko w niektórych.

System określania zjawisk (zwłaszcza społecznych) często zawiera przyczynę - taki lub inny czynnik, który determinuje tylko moment, czas wystąpienia efektu.

Istnieją trzy rodzaje orientacji czasowej relacji przyczynowych:

1) ustalenie przez przeszłość. Taka determinacja jest zasadniczo uniwersalna, ponieważ odzwierciedla obiektywny wzorzec, zgodnie z którym przyczyna w końcu zawsze poprzedza skutek. Prawidłowość tę bardzo subtelnie zauważył Leibniz, który podał następującą definicję przyczyny: „Przyczyną jest to, co powoduje, że coś zaczyna istnieć”;

2) ustalenie przez teraźniejszość. Znając przyrodę, społeczeństwo, własne myślenie, niezmiennie odkrywamy, że wiele rzeczy, zdeterminowanych przez przeszłość, znajduje się również w determinującej interakcji z rzeczami, które współistnieją z nimi jednocześnie. Nieprzypadkowo spotykamy się z ideą równoczesnego określania relacji w różnych dziedzinach wiedzy – fizyce, chemii (przy analizie procesów równowagi), biologii (przy rozważaniu homeostazy) itp.

Determinizm teraźniejszości wiąże się również bezpośrednio z tymi parzystymi kategoriami dialektyki, między którymi istnieje związek przyczynowy. Jak wiadomo, forma każdego zjawiska znajduje się pod determinującym wpływem treści, ale to wcale nie znaczy, że treść w ogóle poprzedza formę i może w swoim pierwotnym punkcie być bezforemna;

3) określenie przyszłości. Taka determinacja, jak podkreślano w wielu opracowaniach, choć zajmuje bardziej ograniczone miejsce wśród czynników determinujących w porównaniu z typami rozważanymi powyżej, odgrywa jednocześnie istotną rolę. Poza tym trzeba wziąć pod uwagę całą względność terminu „określenie przyszłością”: przyszłych wydarzeń wciąż nie ma, o ich rzeczywistości można mówić tylko w tym sensie, że są one koniecznie obecne jako trendy w teraźniejszości (i były obecne w przeszłości). A jednak rola tego typu determinacji jest bardzo znacząca. Przejdźmy do dwóch przykładów związanych z omówionymi już wątkami,

Determinacja przyszłości leży u podstaw wyjaśnienia odkrycia odkrytego przez akademika P.K. Anokhin zaawansowanego odbicia rzeczywistości przez żywe organizmy. Znaczenie takiego postępu, jak podkreślono w rozdziale o świadomości, polega na zdolności żywej istoty do reagowania nie tylko na przedmioty, które teraz bezpośrednio na nią wpływają, ale także na zmiany, które wydają się jej w tej chwili obojętne. , ale w rzeczywistości, które są sygnałami prawdopodobnych przyszłych skutków. Powód tutaj niejako działa z przyszłości.

Nie ma nierozsądnych zjawisk. Nie oznacza to jednak, że wszystkie powiązania między zjawiskami w otaczającym świecie mają charakter przyczynowy.

Determinizm filozoficzny, jako doktryna materialnego regularnego warunkowania zjawisk, nie wyklucza istnienia nieprzyczynowych typów warunkowania. Nieprzyczynowe relacje między zjawiskami można zdefiniować jako te relacje, w których istnieje związek, współzależność, współzależność między nimi, ale nie ma bezpośredniego związku między produktywnością genetyczną a asymetrią czasową.

Najbardziej charakterystycznym przykładem nieprzyczynowego warunkowania lub determinacji jest funkcjonalny związek między indywidualnymi właściwościami lub cechami obiektu.

Związki przyczyn i skutków mogą być nie tylko konieczne, sztywno określone, ale także przypadkowe, probabilistyczne. Znajomość probabilistycznych związków przyczynowych wymagała włączenia do analizy przyczynowej nowych kategorii dialektycznych: przypadku i konieczności, możliwości i rzeczywistości, prawidłowości itp.

Losowość to pojęcie, które jest biegunem konieczności. Losowy jest taki związek przyczynowo-skutkowy, w którym podstawy przyczynowe pozwalają na realizację dowolnej z wielu możliwych alternatywnych konsekwencji. Jednocześnie to, który konkretny wariant komunikacji zostanie zrealizowany, zależy od splotu okoliczności, od warunków niepoddających się dokładnej księgowości i analizie. Tak więc zdarzenie losowe następuje w wyniku działania niektórych z nieskończenie duża liczba różne i dokładnie nieznane przyczyny. Początek losowej konsekwencji zdarzenia jest w zasadzie możliwy, ale nie z góry określony: może wystąpić lub nie.

W historii filozofii szeroko reprezentowany jest punkt widzenia, zgodnie z którym nie ma prawdziwego przypadku, jest on konsekwencją koniecznych przyczyn nieznanych obserwatorowi. Ale, jak Hegel po raz pierwszy wykazał, zdarzenia losowe w zasadzie nie mogą być spowodowane samymi prawami wewnętrznymi, które są niezbędne dla tego czy innego procesu. Zdarzenia losowego, jak pisał Hegel, nie da się wytłumaczyć samo z siebie.

Nieprzewidywalność szans wydaje się przeczyć zasadzie przyczynowości. Ale tak nie jest, ponieważ zdarzenia losowe i związki przyczynowe są konsekwencjami, choć nie z góry i dogłębnie poznanymi, ale wciąż naprawdę istniejącymi i dość pewnymi warunkami i przyczynami. Nie wynikają one przypadkowo i nie z „niczego”: możliwość ich pojawienia się, choć nie sztywno, nie jednoznacznie, ale naturalnie, wiąże się z przyczynami przyczynowymi. Te powiązania i prawa są odkrywane w wyniku badania dużej liczby (przepływu) jednorodnych zdarzeń losowych, opisanych za pomocą aparatu statystyki matematycznej i dlatego nazywane są statystycznymi. Wzorce statystyczne mają charakter obiektywny, ale znacznie różnią się od wzorców pojedynczych zjawisk. Zastosowanie ilościowych metod analizy i obliczania charakterystyk, podporządkowanych statystycznym prawom zjawisk i procesów losowych, uczyniło z nich przedmiot specjalnej gałęzi matematyki - teorii prawdopodobieństwa.

Prawdopodobieństwo jest miarą możliwości wystąpienia zdarzenia losowego. Prawdopodobieństwo niemożliwego zdarzenia wynosi zero, prawdopodobieństwo koniecznego (wiarygodnego) zdarzenia wynosi jedno.

Interpretacja probabilistyczno-statystyczna złożonych związków przyczynowych umożliwiła opracowanie i zastosowanie w badaniach naukowych zasadniczo nowych i bardzo skuteczne metody znajomość struktury i praw rozwoju świata. Współczesne postępy w mechanice kwantowej i chemii, genetyce byłyby niemożliwe bez zrozumienia niejednoznaczności związków między przyczynami i skutkami badanych zjawisk, bez uznania, że ​​kolejne stany rozwijającego się obiektu nie zawsze da się w pełni wydedukować z poprzedniego.

Aby wyjaśnić relację niepewności, zaproponował N. Bohr zasada komplementarności, przeciwstawiając ją zasadzie przyczynowości. Używając przyrządu, który może dokładnie zmierzyć współrzędne cząstek, pęd może być dowolny, a zatem nie ma związku przyczynowego. Korzystając z urządzeń innej klasy, możesz dokładnie zmierzyć pęd, a współrzędne stają się arbitralne. W tym przypadku proces, według N. Bohra, ma mieć miejsce poza przestrzenią i czasem, tj. należy mówić albo o przyczynowości, albo o przestrzeni i czasie, ale nie o obu.

Zasada komplementarności jest zasadą metodologiczną. W formie uogólnionej wymagania zasady komplementarności jako metody badań naukowych można sformułować następująco: aby odtworzyć integralność zjawiska na pewnym pośrednim etapie jego poznania, konieczne jest zastosowanie wzajemnie wykluczających się i ograniczające się nawzajem „dodatkowe” klasy pojęć, które mogą być używane oddzielnie, w zależności od specjalnych warunków, ale tylko razem wyczerpują wszystkie informacje, które można zdefiniować i przekazać.

Tak więc, zgodnie z zasadą komplementarności, uzyskanie eksperymentalnych informacji o niektórych wielkości fizyczne opis mikroobiektu (cząstki elementarnej, atomu, molekuły) nieuchronnie wiąże się z utratą informacji o niektórych innych wielkościach, które są dodatkowe do tych pierwszych. Takie wzajemnie uzupełniające się wielkości można uznać za współrzędną cząstki i jej prędkość (pęd), energię kinetyczną i potencjalną, kierunek i wielkość pędu.

Zasada komplementarności pozwoliła na ujawnienie potrzeby uwzględnienia korpuskularno-falowego charakteru mikrozjawisk. Rzeczywiście, w niektórych eksperymentach mikrocząstki, na przykład elektrony, zachowują się jak typowe ciałka, w innych zachowują się jak struktury falowe.

Z fizycznego punktu widzenia zasadę komplementarności często tłumaczy się wpływem urządzenie pomiarowe o stanie mikroobiektu. Przy dokładnym pomiarze jednej z dodatkowych wielkości, druga wielkość ulega całkowicie niekontrolowanej zmianie w wyniku oddziaływania cząstki z urządzeniem. Choć taką interpretację zasady komplementarności potwierdza analiza najprostszych eksperymentów, z ogólnego punktu widzenia spotyka się ona z zastrzeżeniami natury filozoficznej. Z punktu widzenia współczesnej teorii kwantów rolą przyrządu w pomiarach jest „przygotowanie” pewnego stanu układu. Stany, w których wzajemnie uzupełniające się wielkości miałyby jednocześnie dokładnie określone wartości, są zasadniczo niemożliwe, a jeśli jedna z tych wielkości jest dokładnie określona, ​​to wartości drugiej są całkowicie nieokreślone. Tak więc w rzeczywistości zasada komplementarności odzwierciedla obiektywne właściwości układów kwantowych, które nie są związane z obserwatorem.

        1. Opis mikroobiektów w mechanice kwantowej

Ograniczone zastosowanie mechaniki klasycznej do mikroobiektów, niemożność opisania struktury atomu z klasycznych pozycji oraz eksperymentalne potwierdzenie hipotezy de Broglie o uniwersalności dualizmu falowo-cząsteczkowego doprowadziły do ​​powstania mechaniki kwantowej, która opisuje właściwości mikrocząstek z uwzględnieniem ich cech.

Powstanie i rozwój mechaniki kwantowej obejmuje okres od 1900 r. (sformułowanie hipotezy kwantowej przez Plancka) do końca lat 20. XX wieku i wiąże się przede wszystkim z twórczością austriackiego fizyka E. Schrödingera, fizyków niemieckich M. Born i W. Heisenberg oraz angielski fizyk P. Dirac.

Jak już wspomniano, hipoteza de Broglie została potwierdzona eksperymentami na dyfrakcji elektronów. Spróbujmy zrozumieć, jaka jest falowa natura ruchu elektronu io jakich falach mówimy.

Obraz dyfrakcyjny obserwowany dla mikrocząstek charakteryzuje się nierównym rozkładem strumieni mikrocząstek rozproszonych lub odbitych w różnych kierunkach: w niektórych kierunkach obserwuje się więcej cząstek niż w innych. Obecność maksimum na obrazie dyfrakcyjnym z punktu widzenia teorii fal oznacza, że ​​kierunki te odpowiadają największemu natężeniu fal de Brogliego. Z drugiej strony intensywność fal de Broglie jest większa tam, gdzie jest więcej cząstek. Tak więc intensywność fal de Brogliego w danym punkcie przestrzeni określa liczbę cząstek, które uderzają w ten punkt.

Dyfraktogram dla mikrocząstek jest przejawem statystycznej (probabilistycznej) prawidłowości, zgodnie z którą cząstki opadają w te miejsca, w których intensywność fal de Broglie jest większa. Potrzeba probabilistycznego podejścia do opisu mikrocząstek jest ważnym wyróżnikiem teorii kwantowej. Czy można interpretować fale de Brogliego jako fale prawdopodobieństwa, to znaczy założyć, że prawdopodobieństwo wykrycia mikrocząstek w różnych punktach przestrzeni zmienia się zgodnie z prawem falowym? Taka interpretacja fal de Brogliego jest błędna, choćby dlatego, że wtedy prawdopodobieństwo znalezienia cząstki w niektórych punktach przestrzeni jest ujemne, co nie ma sensu.

Aby wyeliminować te trudności, niemiecki fizyk M. Born (1882–1970) zasugerował w 1926 r., że to nie samo prawdopodobieństwo zmienia się zgodnie z prawem falowym, ale amplituda prawdopodobieństwa, zwana funkcja falowa. Opis stanu mikroobiektu za pomocą funkcji falowej ma charakter statystyczny, probabilistyczny: mianowicie kwadrat modułu funkcji falowej (kwadrat amplitudy fal de Brogliego) określa prawdopodobieństwo wystąpienia znalezienie cząstki w określonym czasie w określonej ograniczonej objętości.

Statystyczna interpretacja fal de Brogliego i relacji niepewności Heisenberga doprowadziła do wniosku, że równanie ruchu w mechanice kwantowej, opisujące ruch mikrocząstek w różnych polach sił, powinno być równaniem, z którego obserwowane eksperymentalnie właściwości falowe cząstek śledzić. Podstawowym równaniem powinno być równanie funkcji falowej, ponieważ jej kwadrat określa prawdopodobieństwo znalezienia cząstki w określonym czasie w określonej objętości. Ponadto pożądane równanie musi uwzględniać właściwości falowe cząstek, to znaczy musi być równaniem falowym.

Podstawowe równanie mechaniki kwantowej zostało sformułowane w 1926 roku przez E. Schrödingera. Równanie Schrödingera, podobnie jak wszystkie podstawowe równania fizyki (na przykład równanie Newtona w mechanice klasycznej i równania Maxwella dla pola elektromagnetycznego) nie jest wyprowadzone, ale postulowane. Poprawność równania Schrödingera potwierdza zgodność z doświadczeniem uzyskanych za jego pomocą wyników, co z kolei nadaje mu charakter praw natury.

Funkcja falowa spełniająca równanie Schrödingera nie ma analogów w fizyce klasycznej. Niemniej jednak przy bardzo krótkich długościach fali de Broglie przejście od równań kwantowych do klasycznych następuje automatycznie, tak jak optyka falowa przechodzi w optykę promieni dla krótkich długości fal. Oba przejścia do granicy są matematycznie wykonywane podobnie.

Odkrycie nowego poziomu strukturalnego struktury materii i kwantowej metody jej opisu położyły podwaliny fizyki ciało stałe. Zrozumieno budowę metali, dielektryków, półprzewodników, ich właściwości termodynamiczne, elektryczne i magnetyczne. Otwarte zostały drogi do celowego poszukiwania nowych materiałów o niezbędnych właściwościach, sposobów tworzenia nowych branż, nowych technologii. Wielkie postępy poczyniono w wyniku zastosowania mechaniki kwantowej do zjawisk jądrowych. Mechanika kwantowa i fizyka jądrowa wyjaśniły, że źródłem kolosalnej energii gwiazdowej są reakcje syntezy jądrowej zachodzące w gwiazdowych temperaturach rzędu dziesiątek i setek milionów stopni.

Zastosowanie mechaniki kwantowej do pola fizyczne. Zbudowano kwantową teorię pola elektromagnetycznego - elektrodynamikę kwantową, która wyjaśniła wiele nowych zjawisk. Foton, cząstka pola elektromagnetycznego, która nie ma masy spoczynkowej, zajął swoje miejsce w szeregu cząstek elementarnych. Synteza mechaniki kwantowej i szczególnej teorii względności, przeprowadzona przez angielskiego fizyka P. Diraca, doprowadziła do przewidywania antycząstek. Okazało się, że każda cząsteczka powinna mieć niejako swojego „podwójnego” - inną cząsteczkę o tej samej masie, ale o przeciwnym ładunku elektrycznym lub innym ładunku. Dirac przewidział istnienie pozytonu i możliwość przekształcenia fotonu w parę elektron-pozyton i odwrotnie. Pozyton, antycząstka elektronu, został eksperymentalnie odkryty w 1934 roku.

W Życie codzienne Istnieją dwa sposoby przesyłania energii w przestrzeni - za pomocą cząstek lub fal. Aby, powiedzmy, zrzucić ze stołu kość domina balansującą na jej krawędzi, możesz dać jej niezbędną energię na dwa sposoby. Najpierw możesz rzucić w nią kolejnym domino (czyli przenieść impuls punktowy za pomocą cząstki). Po drugie, możesz zbudować domino w rzędzie, prowadząc wzdłuż łańcuszka do tej na krawędzi stołu i zrzucić pierwszą na drugą: w tym przypadku impuls będzie przesyłany wzdłuż łańcucha - drugie domino będzie przytłoczyć trzeciego, trzeciego, czwartego i tak dalej. To jest falowa zasada przekazywania energii. W życiu codziennym nie ma widocznych sprzeczności między tymi dwoma mechanizmami przekazywania energii. Tak więc piłka do koszykówki jest cząsteczką, a dźwięk falą i wszystko jest jasne.

Podsumujmy to, co zostało powiedziane. Jeśli fotony lub elektrony są kierowane do takiej komory pojedynczo, zachowują się jak cząstki; jednakże, jeśli zebrane zostaną wystarczające statystyki takich pojedynczych eksperymentów, okaże się, że łącznie te same elektrony lub fotony będą rozłożone na tylnej ścianie komory w taki sposób, że znajomy wzór naprzemiennych pików i zaników będzie na nim obserwowana intensywność, wskazująca na ich falowy charakter. Innymi słowy, w mikrokosmosie obiekty, które jednocześnie zachowują się jak cząsteczki, zdają się „pamiętać” swoją falową naturę i odwrotnie. Ta dziwna właściwość obiektów mikroświata nazywa się dualizm fal kwantowych. Przeprowadzono wiele eksperymentów w celu „ujawnienia prawdziwej natury” cząstek kwantowych: zastosowano różne techniki i instalacje eksperymentalne, w tym takie, które pozwoliłyby w połowie drogi do odbiornika ujawnić właściwości falowe pojedynczej cząstki lub odwrotnie, określić właściwości falowe wiązki światła poprzez charakterystykę poszczególnych kwantów. Wszystko na próżno. Najwyraźniej dualizm fal kwantowych jest obiektywnie nieodłączny od cząstek kwantowych.

Zasada komplementarności jest prostym stwierdzeniem tego faktu. Zgodnie z tą zasadą, jeśli mierzymy właściwości obiektu kwantowego jako cząstki, widzimy, że zachowuje się on jak cząstka. Jeśli zmierzymy jego właściwości falowe, dla nas zachowuje się jak fala. Te dwa poglądy w żadnym wypadku nie są sprzeczne, są… komplement się nawzajem, co znajduje odzwierciedlenie w nazwie zasady.

Jak już wyjaśniłem we wstępie, uważam, że filozofia nauki skorzystała z takiego dualizmu falowo-cząsteczkowego nieporównywalnie więcej, niż byłoby to możliwe w przypadku jego braku i ścisłego rozróżnienia między zjawiskami korpuskularnymi i falowymi. Dziś jest całkiem oczywiste, że obiekty mikrokosmosu zachowują się w fundamentalnie inny sposób niż obiekty makrokosmosu, do których jesteśmy przyzwyczajeni. Ale dlaczego? Na jakich tabletach jest napisane? I tak jak średniowieczni filozofowie przyrody usiłowali ustalić, czy lot strzały był „swobodny”, czy „wymuszony”, tak współcześni filozofowie walczą o rozwiązanie dualizmu fal kwantowych. W rzeczywistości zarówno elektrony, jak i fotony nie są falami ani cząstkami, ale czymś bardzo szczególnym w swojej wewnętrznej naturze - i dlatego nie można go opisać w kategoriach naszego codziennego doświadczenia. Jeśli nadal będziemy próbować wciskać ich zachowanie w ramy znanych nam paradygmatów, coraz więcej paradoksów jest nieuniknionych. Zatem główny wniosek jest taki, że obserwowany przez nas dualizm jest generowany nie przez nieodłączne właściwości obiektów kwantowych, ale przez niedoskonałość kategorii, w których myślimy.

Zasada zgodności

Nowa teoria, która twierdzi, że ma głębszą wiedzę na temat istoty wszechświata, aby więcej Pełny opis a dla szerszego zastosowania jego wyników niż poprzedni, należy uwzględnić poprzedni jako przypadek graniczny. Zatem mechanika klasyczna jest przypadkiem granicznym mechaniki kwantowej i mechaniki teorii względności. Mechanika relatywistyczna ( specjalna teoria teoria względności) w granicy małych prędkości przechodzi do mechaniki klasycznej (newtonowskiej). Taka jest treść metodologicznej zasady korespondencji sformułowanej przez N. Bohra w 1923 roku.

Istota zasady korespondencji jest następująca: każda nowa, bardziej ogólna teoria, będąca rozwinięciem poprzednich teorii klasycznych, których ważność została eksperymentalnie ustalona dla pewnych grup zjawisk, nie odrzuca tych klasycznych teorii, ale je obejmuje. Dotychczasowe teorie zachowują swoje znaczenie dla pewnych grup zjawisk jako forma graniczna i szczególny przypadek nowej teorii. Ta ostatnia wyznacza granice stosowania poprzednich teorii, aw niektórych przypadkach istnieje możliwość przejścia od nowej teorii do starej.

W mechanice kwantowej zasada korespondencji ujawnia fakt, że efekty kwantowe są istotne tylko wtedy, gdy rozważa się wielkości porównywalne ze stałą Plancka (h). Rozważając obiekty makroskopowe, stałą Plancka można uznać za nieistotną (hà0). Prowadzi to do tego, że własności kwantowe rozważanych obiektów okazują się nieistotne; reprezentacje fizyki klasycznej - są sprawiedliwe. Dlatego wartość zasady korespondencji wykracza poza granice mechaniki kwantowej. Stanie się integralną częścią każdej nowej teorii.

Zasada komplementarności jest jedną z najgłębszych idei nowoczesne nauki przyrodnicze. Obiekt kwantowy nie jest falą ani osobno cząsteczką. Eksperymentalne badanie mikroobiektów polega na wykorzystaniu dwóch rodzajów instrumentów: jeden pozwala na badanie właściwości falowych, drugi - korpuskularny. Te właściwości są nie do pogodzenia pod względem ich jednoczesnej manifestacji. Jednak w równym stopniu charakteryzują obiekt kwantowy, a zatem nie są ze sobą sprzeczne, ale wzajemnie się uzupełniają.

Zasada komplementarności została sformułowana przez N. Bohra w 1927 roku, kiedy okazało się, że podczas eksperymentalnych badań mikroobiektów można uzyskać dokładne dane dotyczące ich energii i pędu (wzorzec energia-impuls) lub ich zachowania w przestrzeń i czas (obraz przestrzenno-czasowy). Te wzajemnie wykluczające się obrazy nie mogą być stosowane jednocześnie. Tak więc, jeśli zorganizujemy poszukiwanie cząstki za pomocą precyzyjnych przyrządów fizycznych, które ustalają jej położenie, wówczas cząstka zostanie znaleziona z równym prawdopodobieństwem w dowolnym punkcie przestrzeni. Jednak te właściwości w równym stopniu charakteryzują mikroprzedmiot, co zakłada ich użycie w tym sensie, że zamiast jednego obrazu konieczne jest użycie dwóch: energetyczno-impulsowego i przestrzenno-czasowego.

W szerokim sensie filozoficznym zasada komplementarności N. Bohra przejawia się w: charakterystyka różnych obiektów badawczych w ramach tej samej nauki.