W tekście “Mechanika kwantowa, czyli król nagi i bezczelny. Gryziński – klasyczne piękno atomu. Cz.1” zapowiadałem trochę konkretów w „sprawie atomu” w kolejnej części. Po pewnych zmaganiach z materią postaram się skrótowo przedstawić to, co autor Michał Gryziński zawarł na przeszło 200 stronach książki. Mam nadzieję, że nie ucierpi na tym jasność i poprawność wywodów. Nie jestem fizykiem atomowym, mój tekst jest popularną prezentacją jednego z działów fizyki. Przy okazji chciałbym pokazać otoczkę związaną z odkrywaniem najmniejszych cegiełek materii, problemów jakie wówczas napotkali fizycy i teorii jakie tworzyli.
Plan prezentacji jest następujący:
1. Jak badano atom i co odkryto
2. Światło – cząstka czy fala
3. QM –plaster na brak zrozumienia sensu natury
4. Model atomu Gryzińskiego
1. Pole badań, metoda oraz pierwsze wyniki
Święty Augustyn (354-430) napisał:
„Gdzie nie ma rzeczy nie istnieje czas. Tak samo tylko tam gdzie są rzeczy istnieje przestrzeń”
Można powiedzieć, że jest to współczesna definicja czasoprzestrzeni w której wykonujemy badania i obserwacje. Układ przecinających się trzech płaszczyzn z określonym punktem początkowym i lokalny czas jest jedynym możliwym miejscem weryfikacji teorii. W XX w. do fizycznych teorii wprowadzono n-wymiarową „przestrzeń” i „matematyczny” czas co spowodowało zatarcie granicy pomiędzy matematycznymi aksjomatami a postulatami fizyki.
W „klasycznym” środowisku czasoprzestrzennym, na przełomie XIX w. i XX w., zaczęła się historia badań nad atomem. Wymienię tylko kilku przedstawicieli, którzy zasłużyli się na tym polu – Becquerel, Skłodowska, (odkrycie i badanie naturalnej promieniotwórczości), Roentgen (promienie X), Mendelejew (odkrycie reguł rządzących pierwiastkami), no i dwóch najważniejszych, czyli Thompson (odkrycie elektronu) i Rutherford (odkrycie jądra).
Jak odkrywano obiekty, które są elementarnymi cząstkami materii? W badaniach makroskopowych mamy wielkie zbiory cząstek a światło (luneta) czy strumień elektronów (mikroskop elektronowy) są narzędziem badawczym. Ale jak zaobserwować elektron czy foton, będąc na granicy podzielności materii?
Charakterystyczną cechą atomowego świata jest to, że procesy atomowe są niedostępne bezpośredniej obserwacji, a logiczne rozumowanie bazujące na danych makroskopowych jest jedynym źródłem informacji o wewnętrznej strukturze atomu, czy cząsteczki.
Jest zatem sprawą teorii rozszyfrowanie za pomocą matematycznego formalizmu informacji ukrytych w atomowych eksperymentach i stworzenie, niedostępnego bezpośrednio naszym zmysłom, obrazu mikroskopowego świata.
Kwestia badania tak małych obiektów stała się przedmiotem filozoficznych dysput wśród fizyków. Pojawiła się pokusa aby odejść od klasycznych zasad determinizmu (przyczyna-skutek). Argumentowano, że można obserwować rozproszenie elektronu czy fotonu na innym elektronie, fotonie czy atomie, ale to jakby badać szklany przedmiot przy pomocy młotka. Do tego młotek jest czasami większy od badanego obiektu. I wówczas Heisenberg sformułował słuszną zasadę, że nie można obserwować elektronu nie zakłócając jednocześnie jego toru. Niestety rozciągnął tę zasadę w sposób fałszywy twierdząc, że w obrębie atomu w ogóle nie można operować pojęciem zlokalizowanego elektronu poruszającego się po określonej orbicie z określoną prędkością.
Istotnie nie mamy możliwości obserwowania pojedynczego elektronu poruszającego się w atomie, co nie oznacza, że elektron nie występuje jako cząstka z określoną trajektorią ruchu i prędkością.
Badanie atomu polegające na jego bombardowaniu innymi cząstkami powoduje zniszczenie badanego obiektu i faktycznie przypomina walenie młotkiem w delikatny szklany przedmiot. Ale pomimo pozoru, metoda „młotka” nie jest absurdalna i jest w mikroświecie najlepszą metodą badawczą. Stosując inteligentnie „młotek” i mając dużo próbek można się wiele dowiedzieć o rozbijanych obiektach – czy są duże, małe, ciężkie, lekkie, sprężyste, jaki mają kształt, jaki ładunek elektryczny, jak się zachowują w polu elektromagnetycznym.
Do czego doszli Thompson i Rutherford? Stosując pojęcia klasycznej fizyki, tzn. dynamikę Newtona i prawo Coulomba wykryli, że atom wodoru składa się z centralnie położonego ciężkiego jądra – protonu i z lekkiego elektronu. Na podstawie wielu różnych obserwacji wydedukowano, że elektron (e) i proton (p) posiadają identyczne ale przeciwne ładunki elektryczne oraz masę. Nie wnikano czym są w istocie – sprowadzono je w obliczeniach do matematycznego punktu. Jednak wkrótce zdano sobie sprawę, że taki opis jest bardzo niedoskonały i uproszczony, podobnie jakby całą wiedzę o słońcu wyrazić tylko za pomocą jego masy i ładunku grawitacyjnego.
I rzeczywiście, dosyć szybko okazało się, że operując jedynie punktową masą i punktowym ładunkiem elektrycznym nie można wyjaśnić wielu zjawisk i konieczne jest poszerzenie opisu własności tych cząstek poprzez przypisanie im pewnych dodatkowych cech. Oczywiście opis tych nowych własności dalej nie wyjaśnia czym w istocie są elektron i proton.
W 1928 Goudsmit i Uhlenbeck odkryli, że elektron i proton mają własności namagnesowanego bąka. Okazało się, że zachowują się jak wirująca materia, jak wir wodny, tornado, bąk. Przy opisie takiego obiektu stosuje się pojęcie osi obrotu oraz jakąś wielkość, która nam powie czy mamy do czynienia z małym bączkiem, czy z wielkim bąkiem.
„Rzeczywisty obraz” obiektu można by przedstawić tak
a tak jego matematyczną, punktową reprezentację
gdzie m – masa cząstki, ŝ – wersor określający orientację osi obrotu, h – stała Plancka
Jak wiemy z doświadczeń wykonywanych w dzieciństwie, nie da się postawić na nóżce bąka który jest w spoczynku, zawsze upadnie. Kręcący się bąk ma dwie ciekawe własności – utrzymuje pozycję pionową do której powraca po próbie wytrącenia go z równowagi oraz – jego oś wokół której się kręci zatacza niewielkie okręgi (dokonuje precesji), jeżeli bąk przemieszcza się. To zjawisko Gryziński nazwał translacją precesji*. W przypadku obracającego się koła rowerowego, które też jest formą bąka, można jego inercję, czyli zdolność do zachowania orientacji w przestrzeni, przedstawić prostym wzorem:
H = m• r • v
gdzie m jest masą obręczy z oponami i wszystkimi dodatkami, r jest promieniem koła, a v jest szybkością z jaką poruszają się punkty znajdujące się na jego obręczy.
Wielkość H, reprezentującą inercję orientacyjną wirującego obiektu, fizycy nazwali momentem kinetycznym, a sam wirujący obiekt żyroskopem. Po przeprowadzeniu wielu eksperymentów stwierdzono, że elektron i proton to dwa prawie identyczne żyroskopy mające taki sam moment kinetyczny równy połowie stałej Plancka h. Czym jest to słynne h wyjaśnimy w następnym rozdziale.
Elektron to wirujący obiekt. Jest mały, ale to nie matematyczny punkt.
Czyli mamy już trzy wielkości charakteryzujące e i p – masę, ładunek, moment kinetyczny (kręt, moment pędu). Jest jeszcze bardzo istotny czwarty – moment magnetyczny. Nie wchodząc w szczegóły e i p zachowują się jak miniaturowe igły magnetyczne, co wiąże się z dwoma zjawiskami – cząstki ulegają przyciąganiu/odpychaniu oraz pojawia się moment skręcający – „igły” starają się obrócić tak, aby różne bieguny były najbliżej siebie. Jak wykazały pomiary, siła dążąca do zmiany odległości między igłami maleje z czwartą potęgą odległości, zaś moment skręcający usiłujący zmienić ich orientację maleje z trzecią potęgą odległości. Widać że oddziaływanie magnetyczne w porównaniu do sił elektrostatycznych (które maleją z drugą potęgą odległości) ma bardzo krótki zasięg.
Mówiąc o własnościach magnetycznych elektronu i protonu nie można pominąć siły Lorenza. Ten holenderski uczony wychodząc od odkryć Faradaya i Ampera podał matematyczną formułę opisującą oddziaływanie pomiędzy magnesem a ładunkiem elektrycznym poruszającym się w jego polu. Działanie lamp kineskopowych oparte jest na tym zjawisku – zakrzywieniu toru cząstki obdarzonej ładunkiem elektrycznym w polu magnetycznym.
Tak, więc na elektron poruszający się w polu elektrycznym jądra działają siły Coulomba i Lorentza. Ponieważ siła Lorentza maleje wraz z odległością znacznie szybciej niż siła Coulomba, pole magnetyczne ma istotny wpływ na ruch elektronu dopiero przy odległości rzędu 10-11 cm od jądra.
Podsumowując powyższe rozważania można podać następujące wielkości charakteryzujące elektron i proton (jednostki cgs):
Zanim przejdziemy do prezentowania teorii opisujących jak z tych elementarnych cząstek można zbudować atom, molekuły, czy związki chemiczne, trzeba naświetlić ważny problem, który nurtował fizykę od czasów Newtona – czym jest światło, falą czy cząstką? Przyjęcie błędnej koncepcji określającej naturę światła, sposobu oddziaływania z materią, było jednym ze źródeł problemów z opisem subatomowego świata.
2. Faluje czy oscyluje?
Zacznijmy od zjawiska optycznego związanego z pasiastymi obrazami – czyli Newton kontra Huygens. Obaj obserwowali na ekranie prążki jakie powstawały przy przechodzeniu światła przez soczewkę, czy w pobliżu krawędzi, czy przy przejściu przez szczelinę.
Zjawisko dyfrakcji (ugięcia) – cień nie kończy się ostro, obserwujemy w jego pobliżu prążki.
Intuicja Newtona podpowiadała mu, że okresowa struktura obrazów wynika z oscylacji świetlnych cząstek. Ten pomysł zakwestionował Huygens. Sugerując się analogią do fal na wodzie uważał, że to falowa natura światła odpowiada za prążki na ekranie. To co Huygens twierdził jest typowym zwerbalizowaniem obserwacji bez rozpoznania istoty fizycznej zjawiska, czyli zrozumienia oddziaływania światła z materią. Ładnie to „zjawisko” zilustrowano w książce.
Więc jak to jest – czy światło to pędzące cząstki jak chciał Newton, czy zaburzenie falowe w eterze jak chciał Huygens, czy może coś czego nie jesteśmy w stanie pojąć jak twierdzą twórcy mechaniki kwantowej?
Każdy widział jak białe światło może ulec rozczepieniu na kolory za pomocą kropelek wody (tęcza), pryzmatu, czy siatki dyfrakcyjnej (równomiernie bardzo drobno porysowana płytka). I tu okazało się, że pomiędzy odchyleniem promienia o określonej barwie i odległością pomiędzy rysami na siatce dyfrakcyjnej istnieje ścisła zależność, a barwę światła można wyrażać w jednostkach drogi (na przykład w µm). W tym miejscu zrobiono pozornie mało znaczący krok mający jednak dalekosiężne konsekwencje. Wielkość odcinka, jaki otrzymywano z geometrycznych relacji pomiędzy kątem odchylenia promienia o określonej barwie a odległością pomiędzy rysami na siatce dyfrakcyjnej, nazwano długością fali świetlnej. W nazwie tej tkwiła sugestia, że mknąca wiązka światła to fale rozchodzące się w przestrzeni na podobieństwo rozchodzenia się fal na wodzie czy dźwięku w powietrzu.
Tymczasem, mając na względzie, że każda fala to oscylacje, ale nie każda oscylacja to fala i wiedząc, że światło niezależnie od barwy porusza się zawsze z tą samą prędkością 300 tysięcy kilometrów na sekundę, należało barwę światła wyrazić poprzez częstość oscylacji. Oznacza to, że mamy do czynienia z oscylacjami cząstki przemieszczającej się w przestrzeni. Operując pojęciem fali przesądzamy, że zjawisko dotyczy rozchodzenia się oscylacji w ośrodku ciągłym, kiedy to materia spoczywa a rozchodzą się tylko drgania (jak potrząśnięcie liną uwiązaną jednym końcem, lina nigdzie się nie przemieszcza tylko zaburzenie wędruje po niej).
Współczesna technika eksperymentalna nie pozostawia cienia wątpliwości, że prążkowane obrazy, tak w przypadku światła jak i elektronów (bo strumień elektronów przechodząc przez szczelinę również generuje prążki), powstają z pojedynczych punktów i o żadnym sumowaniu amplitud fal nie może być mowy.
Powstawanie pasiastych obrazów można wyjaśnić analizując oddziaływanie fotonu ze szczeliną (krawędzią). W teorii korpuskularnej krawędź szczeliny to nie kreska na papierze, jak w teorii falowej, tylko rozwarstwienie ładunków elektrycznych w materiale, których pole zmienia kierunek przemieszczających się i oscylujących fotonów. Elektryczny obraz krawędzi/szczeliny:
Foton to cząstka, która porusza się i może przy tym oscylować. Nie znamy jej budowy, ale możemy założyć, że składa się ona z oscylujących pól. I to właśnie te pola, oddziałując z ładunkami atomów szczeliny, powodują (w zależności od fazy drgania) zmiany kierunku ruchu cząstki tak, że pada ona na pewne obszary ekranu a na inne nie, tworząc stopniowo obraz interferencyjny jak na rysunku 20.
W teorii falowej szczelina jest pojęciem czysto formalnym pozbawionym jakiejkolwiek fizyki. Pamiętam jak w liceum nie byłem w stanie pojąć, skąd się wzięło założenie, że każdy punkt szczeliny jest źródłem sferycznej fali. Ten postulat był wzięty z sufitu, bez żadnego odniesienia do fizyki procesu.
W 1900 roku Max Planck przedstawił matematyczną formułę, która z dużą dokładnością opisywała natężenie barw światła wysyłanego przez silnie rozgrzane obiekty.
W formule tej, barwa światła była reprezentowana przez częstość (ν), którą otrzymywano z pomiarów dokonywanych za pomocą siatki dyfrakcyjnej. Aby wyniki otrzymywane w oparciu o formułę Plancka jednoznacznie odpowiadały wynikom pomiarów należało odpowiednio dobrać wartość współczynnika liczbowego występującego w tej formule przy częstości. Współczynnik ten oznaczany literą — h nosi nazwę stałej Plancka. Iloczyn stałej Plancka i częstości to energia, nadzwyczaj mała porcja energii.
E = h ν h – stała definiująca pojęcie fotonu.
I tę małą porcję energii określoną przez częstość, Planck uznał za energię świetlnego pocisku — fotonu. A więc energia świetlna emitowana jest ze świecącego ciała w ściśle określonych porcjach (kwantach) — kapie jak woda z niedokręconego kranu, a nie wypływa z niego w sposób ciągły. Do takiego samego wniosku, że światło to grudki oscylującej materii doszedł Einstein analizując emisję elektronów z oświetlonej powierzchni metalu. Korpuskularna natura fotonów została w sposób niepodważalny udowodniona przez Comptona, który pokazał, że zderzenie fotonu z elektronem zachodzi na podobnych zasadach jak zderzenie dwu kul bilardowych.
A więc wielki Newton miał rację — światło to wibrujące cząstki materii. Fotony to ściśle zlokalizowane w przestrzeni obiekty, których energia kinetyczna (energia ruchu) równa jest iloczynowi stałej Plancka i częstości — w przypadku zwykłych cząstek, elektronów czy protonów, energia kinetyczna wyraża się poprzez iloczyn masy cząstki i kwadratu prędkości.
E = ½mv2 m – stała definiująca pojęcie cząstki.
Wydawałoby się, że wobec przedstawionych faktów uznanie światła jako roju cząstek-fotonów było oczywiste. Jednak sformułowana przez Huygensa, a stojąca w ewidentnej sprzeczności z pojęciem fotonu, falowa interpretacja światła funkcjonuje do dziś na równych prawach z teorią korpuskularną.
Sytuacja się dodatkowo skomplikowała kiedy podobne prążkowane obrazy uzyskano przeprowadzając analogiczne eksperymenty (dyfrakcja, interferencja) z elektronami, co do których nikt nie miał wątpliwości, że to cząstki. De Broglie** pokazał, że interferencyjne obrazy, jakie dawały elektrony przechodząc przez szczelinę, można było objaśnić stosując falową formułę Bragga. Ale przecież elektron jak i foton nie może być jednocześnie i cząstką, i falą! Tak narodził się dylemat korpuskularno-falowy.
3. Co poszło nie tak i jak sobie poradzono, czyli rozsądek w odwrocie – niech żyje mechanika kwantowa
Korpuskularno-falowy dylemat nie był jedynym problemem na jaki napotkali fizycy atomowi.
– Inny powód zmartwień to fakt, że z rozgrzanego ciała energia uchodzi ściśle określonymi porcjami – kwantami. Zaczęto się zastanawiać, dlaczego energia jest ziarnista skoro we wszelkich zjawiskach makroskopowych zawsze ma charakter ciągły.
– Kolejny problem, to że w modelu atomu wodoru Bohra elektron może zajmować tylko ściśle określone orbity.
– Frustracja fizyków sięgnęła szczytu, kiedy stwierdzono, że według teorii Maxwella elektron krążący wokół jądra powinien promieniować i w końcu na nie spaść — a ten, wbrew teorii, krążył i na jądro nie spadał.
W tym momencie nic bacząc na to, że teoria Maxwella została sformułowana na bazie eksperymentów makroskopowych i nikt nie pokazał, że można ją również stosować do opisu zjawisk mikroświata podjęto zaskakującą decyzję:
zamiast zakwestionować stosowalność na poziomie atomu teorii Maxwella zakwestionowano stosowalność dynamiki Newtona — innymi słowy kowal zawinił, cygana powiesili!
Wyglądało, że fizycy znaleźli się w ślepej uliczce. Nie mając koncepcji wyjaśnienia ww. problemów grupa fizyków: Bohr, Heisenberg, Born, Pauli i Dirac oznajmili, że dotarliśmy do granic deterministycznego poznania i pomimo wyraźnych obiekcji takich fizyków jak Lorentz, Planck, de Broglie, Einstein zaczęli konstruować teoretyczny opis mikroświata na bazie matematycznego równania stosowanego do opisu drgań struny, czy membrany bębna, czyli sławnego równania Schrödingera.
Równanie (dla jednego wymiaru) ładnie się prezentuje, więc ze względów estetycznych zamieszczę:
-(ħ2/2m)(∂2Ψ/∂x2) = iħ ∂Ψ/∂t
Jest to równanie różniczkowe, którego rozwiązaniem jest funkcja falowa Ψ. Po jednej stronie mamy pochodną po współrzędnej przestrzennej (∂x2), a po drugiej pochodną po czasie (∂t). I tu jest problem z interpretacją tego równania i jego rozwiązania. Skoro cząstki nigdy nie są falami, to co przedstawia równanie wiążące zmiany “czegoś” w czasie ze zmianami w przestrzeni?
Niestety fizycy nie mogli uzgodnić, co właściwie ma drgać. I tu na scenę wkroczył Max Born (1882-1970). Arbitralnie stwierdził, że w atomie nic nie drga, a funkcja falowa nie dotyczy materialnego ośrodka, tylko odzwierciedla matematyczne prawdopodobieństwo położenia elektronu w atomie. Na taką interpretację funkcji falowej równania Schrödingera nie chciał przystać sam Schrödinger.
Natomiast Born gwałcąc jedną z fundamentalnych zasad fizyki, jaką jest zasada zachowania energii sformułował zespół reguł manipulowania równaniem Schrödingera pozwalający stwarzać pozory wyjaśnienia zjawiska.
I na tej to podstawie zaczęto formułować matematyczny formalizm całkowicie oderwany od fizycznej rzeczywistości zwany mechaniką kwantową. Tak to biedny elektron utracił swą osobowość i istnieje dziś jedynie w postaci bliżej niezdefiniowanego obłoku funkcji Ψ.
4. Model atomu Gryzińskiego
W 1913r. Bohr zaproponował model atomu z jądrem w środku i przemieszczającym się wokół niego elektronem. Miał do wyboru dwa tory ruchu elektronu – jak planeta po okręgu lub po promieniu w kierunku jądra. Wybrał ruch po obwodzie z obawy przed anihilacją spadającego elektronu na jądro. W momencie formułowania modelu można było mieć takie obawy, ale jak już wiemy w 1928 odkryto, że elektron i proton mają cechy namagnesowanego bąka i problem spadnięcia i anihilacji na jądrze przestaje istnieć – siły magnetyczne odchylą tor „spadania” i elektron mija jądro.
Niestety wówczas nikt nie podjął się stworzenia nowego modelu uwzględniającego fizykę ruchu cząstek o nowo odkrytych własnościach. Dopiero po przeszło pół wieku Michał Gryziński mając na uwadze odkryte własności elektronu i protonu i zakładając, że są one cząstkami zachowującymi się zgodnie z klasycznymi prawami fizyki, przedstawił następujący model atomu wodoru.
Ten model, jak pisze Gryziński, powstał z konfrontacji wielu obliczeń z wieloma eksperymentami. Nie jest efektem wydumania, czy jakiejś koncepcji zrodzonej w proroczym śnie.
Zgodnie z tym, co powiedzieliśmy powyżej, w obecności pola magnetycznego, na poruszający się w kierunku jądra elektron działa skierowana prostopadle do jego prędkości siła Lorentza. Zmienia ona kierunek ruchu tak, że ten w odległości rzędu 10-11 centymetra mija jądro. Zdecydowanie większa część trajektorii elektronu określona jest poprzez siłę Coulomba, to w kluczowym miejscu tej trajektorii znajduje się magnetyczna zwrotnica kierująca w obrębie atomu jego ruchem. W ten to sposób, pozornie odgrywający niewielką rolę kręt elektronu urósł do rangi czynnika decydującego o budowie przestrzennej atomu. W szczególnej sytuacji, kiedy oś elektronu jest prostopadła do radialnie poruszającego się elektronu tor jest płaski, a elektron odbija się od jądra dokładnie pod kątem 120° – i to niezależnie od ładunku jądra. Po trzykrotnym odbiciu elektronu od jądra trajektoria zamyka się.
Teoria Gryzińskiego potrafi w prosty i logiczny sposób objaśnić wiele zjawisk wobec których mechanika kwantowa jest bezradna lub tłumaczy je w sposób pokrętny, oderwany od istoty zjawiska fizycznego. W następnym tekście postaram się bardziej szczegółowo przedstawić, co na ten temat pisał autor.
Teraz jeszcze kilka wyjaśnień odnośnie klasycznej interpretacji dylematów, które w sposób przewrotny tłumaczy mechanika kwantowa.
Fizycy lat trzydziestych przyjęli, że w poruszającym się elektronie jego oś obrotu pozostaje sztywno zorientowana w przestrzeni. I to był błąd o dalekosiężnych konsekwencjach. W ten sposób zamknięto sobie drogę do przezwyciężenia falowo-korpuskularnego dylematu powstałego na tle odkrycia de Broglie’a, mówiącego o falowych własnościach elektronu.
W spoczynku elektron kręci się stabilnie jak bąk. W ruchu – jak to ładnie przedstawił Gryziński – elektron tańczy walca. Ci co tańczyli ten klasyczny taniec wiedzą, że jest on złożeniem trzech ruchów – posuwistego po parkiecie, obrotowego i ruchu polegającego na wychylaniu się partnerów w czasie przemieszczania.
Na poniższym rysunku ten ruch, który prezentuje niebieska elipsa i wektor prędkości kątowej ω osi obrotu ŝ, nazywany jest precesją.
Co z tego wynika?
Mechanika kwantowa postulowała stabilne orbity elektronu które mieszczą całkowitą wielokrotność fal de Broglie’a. Założenie, że przemieszczanie się elektronu zawsze związane jest z jego precesją pozwoliło rozszyfrować sens fizyczny fali de Broglie’a. Pole falowe elektronu poszukiwane przez de Broglie’a to pole elektromagnetyczne obracającego się magnesu. Na odcinku długości fali de Broglie’a oś spinowa cząstki dokonuje pełnego obrotu.
W nowej interpretacji, funkcja falowa pokazuje po prostu zmiany kąta precesji spinu, w zależności od pokonanej odległości. Ale nadal mamy do czynienia z cząstką.
Również stała Plancka h to wielkość definiująca pojęcie dobrze znanego na gruncie fizyki klasycznej żyroskopu. Wmówienie adeptom studiującym fizykę, że h to pojęcie czysto kwantowe nie mające swojego odpowiednika w fizyce klasycznej było jednym z głównych czynników utrwalającym przekonanie o niezwykłości mechaniki kwantowej. Zgodnie z intuicją Descartesa, który cały świat postrzegał jako zbiorowisko wirów, stała Plancka ujawnia wirową naturę mikroskopowego świata.
W książce „Sprawa atomu” w części przeznaczonej dla profesjonalistów Gryziński przedstawia jak prosto i logicznie można wyjaśnić jakościowo i ilościowo takie zjawiska jak:
– ekranowanie powłok wewnętrznych atomu
– efekt Starka
– efekt Ramsauera
– siły Van der Wallsa
– atomowy diamagnetyzm
– budowę krystaliczną i mechanizm wiązań chemicznych
– przewodnictwo cieplne i elektronowe
– nadprzewodnictwo
– rozszczepienie linii spektralnych
– efekt tunelowy
i inne z którymi mechanika kwantowa sobie nie radzi.
Do wyjaśnienia tych efektów w zasadzie wystarcza poniższy zestaw praw i równań matematycznych.
Na końcu książki tak autor podsumowuje swoją działalność naukową.
Czym się zajmowałem:
FIZYKA TEORETYCZNA: zderzenia atomowe, teoria budowy atomu, astrofizyka.
FIZYKA EKSPERYMENTALNA: fizyka plazmy i kontrolowana synteza termojądrowa.
Co mi się udało zrobić:
Zaczęło się od opracowania niezwykle skutecznej teorii zderzeń atomowych, noszącej nazwę przybliżenia zderzeń binarnych (Phys.Rev. 1957, 1959, 1965), która była dowodem na to, że elektrony w atomie poruszają się zgodnie z prawami fizyki klasycznej.
Punktem zwrotnym w moich rozważaniach nad budową atomu było odkrycie błędu popełnionego przez Bohra – okazało się, że elektrony w atomie poruszają się nie po okręgu, a radialnie w kierunku jądra (INR report 1965, Phys.Rev. 1965).
Jakościowo nowym elementem w badaniach zawiłych zjawisk mikroświata było wyjaśnienie zagadki falowo-korpuskularnego dualizmu (raport IBJ 1965, 1-st IAPC, N.J. 1968, Int.J. of Theor. Phys. 1987) – podważone zostały podstawy filozoficzne całej mechaniki kwantowej.
Najnowszy rezultat śledztwa w sprawie budowy atomu, to rozszyfrowanie elektronowej budowy atomu helu (www.ipj.gov.p1/—Gryziński – 1999).
Odkrycie błędu w Bohrowskim modelu atomu pozwoliło mi rozszyfrować kluczowe elementy wiązania chemicznego (Chem. Phys. Lett. 1994), a w szczególności określić tor elektronu w zjonizowanej cząsteczce wodoru (rozdz. 4 tej książki).
W zakresie fizyki eksperymentalnej główne moje osiągnięcia to: sformułowanie koncepcji izolacji magnetycznej (1959) i w oparciu o tą koncepcję skonstruowanie JONOTRONU – urządzenia generującego strumienie jonów o natężeniu milionów amperów; byłem również inicjatorem nowego kierunku badań w zakresie kontrolowanej syntezy jądrowej opartego na zasadach optyki jonowej – jego angielska nazwa to: ion beam fusion (raporty IBJ 711-715, 1965, II-E. Conf. PPCNF, Stockholm 1967).
Rysunki i niektóre fragmenty tekstu pochodzą z książki Michała Gryzińskiego “Sprawa atomu”.
Mirosław Dakowski.
Byłem i jestem fizykiem. W Instytucie Badań Jądrowych przed 50, 60 laty zajmowałem się – skutecznie – fizyką rozszczepienia. Michała Gryzińskiego znałem dobrze i lubiłem. Kilka razy dyskutowałem z nim o jego modelu. Teoretycy, po paru próbach, zrezygnowali z dyskusji z nim.
Mój doktorant, Andrzej Kordyasz, zrobił doktorat z analizy zachowania się cząstek lekkich w rozszczepieniu przy pomocy rozwiązania równania Schroedingera zależnego od czasu. Chodzi o czasy rzędu 10^-18 sekundy. W tamtych latach było to niezwykle trudne informatycznie, bo czasem zajmowało całe noce największego w Europie Wschodniej komputera o nazwie Cyber. Wyniki tych obliczeń były zgodne z tym, co policzyliśmy metodą klasyczną. Michał był tym zachwycony.
Jednak jego teoria opisywała, czy opisuje, niezwykle małą ilość faktów czy zdarzeń znanych w fizyce współczesnej. Poza tą bardzo małą ilość faktów nigdy nie wyszedł. Nie miał również kontynuatorów swojego pomysłu.
To, co pan pisze o skonstruowanie JONOTRONU, jest zadziwiające, ale chyba nieprawdziwe. Takie urządzenie bardzo by się nam przydało później, bowiem z 10 lat spędziłem przy akceleratorach ciężkich jonów, przyspieszających jony aż do ołowiu i uranu łącznie. Gdyby taki jonotron istniał, to moglibyśmy zbudować silnik jonowy do podróży w obrębie co najmniej naszego układu planetarnego.
Fizycy to ludek ciekawski. W tamtych czasach nie uganialiśmy się za grantami, nie szukali tematów sponsorowanych. Gdyby więc szkic teorii, którą prezentował Michał Gryziński okazał się płodny, to by miał następców, bo ludzie szukali wtedy ciekawych, fascynujących tematów. Tak się jednak nie stało.
Witam
Moja mama pracowała na Żeraniu w IBJ. Obroniła tam doktorat. Bywała w Świerku. Być może znaliście się. Znała prof. Sołtana. Prof. Minczewski mieszkał pietro niżej.
Co do jonotronu to jutro napiszę co się z nim stało.
Przed zamieszczeniem tego tekstu próbowałem się skontaktować z rodziną p. Michała by uzyskać zgodę na publikację. Kontakt się urwał, wyglądało że czegoś się obawiają. Może błędnie to zinterpretowałem.
Panie profesorze
zacytuję fragment z książki “Sprawa atomu” odnośnie jonotronu. Najchętniej przesłałbym cały tekst Gryzińskiego z tym, że przerobiony z obrazków stron w jpg przeze mnie plik ma 46 MB więc trzeba by wysłać wetranfserem.
————
“Rys.6. Zdjęcie Jonotronu SW-30 i mikro¬fotografia zastygłej fali, rozchodzącej się w cienkiej powierzchniowej warstwie krzemu roztopionej krótkim i niezwykle silnym strumieniem jonów. Fala została wywołana uderzeniem mikrocząstki w momencie, kiedy powierzchnia krzemu była w stanie płynnym. Aby w milionowych częściach sekundy móc doprowadzić do stanu płynnego powierzchnię krzemu, trzeba dysponować strumieniami jonów o chwilowej mocy takiej, jaką dysponuje wielka elektrownia. Takie właśnie strumienie o chwilowej mocy wielu tysięcy megawatów, uzyskuje się za pomocą wymyślonego i zbudowanego w laboratoriach IW w Świerku, Jonotronu”.
Co się stało z jonotronem.
“Nieoczekiwany koniec. Po pomyślnym zakończeniu pierwszego etapu badań, pod koniec lat siedemdziesiątych przystąpiłem do realizacji programu SOWA-4000, którego założeniem było osiągnięcie, mówiąc żargonem fizyków, warunków zapłonu reakcji termojądrowej. Zmodernizowaliśmy eksperyment SOWA-150, powiększając energię zespołu kondensatorów zasilających do 400 kJ (stąd nazwa zmodernizowanego eksperymentu SOWA-400), które stało się urządzeniem pilotującym dla eksperymentu SOWA-4000.
Niestety nie dane mi było doprowadzić do końca, nie mającego odpowiednika w całym Świecie, programu badawczego, którego pierwszy etap, wbrew przewidywaniom wielu uczonych sceptyków, zakończył się sukcesem.
„Niewidzialna ręka” zniszczyła to, co przez wiele dziesiątków lat udało mi się
wraz z moimi kolegami zbudować i co mogło, o czym w dalszym ciągu jestem przekonany, doprowadzić do rozwiązania problemu wyzwalania energii jądrowej w procesie syntezy lekkich pierwiastków. Dziś, po dziesięciu latach „reformowania” Państwa, stworzony przeze mnie zespół, który na froncie największych wyzwań naukowo-technicznych współczesnej nauki był w stanie konkurować z największymi potęgami, nie istnieje. Nie istnieje zespół, który potrafił zrealizować jeden z największych w historii polskiej nauki kontraktów. Zbudowane przez Zakład Badań Termojądrowych IBJ stanowisko badawcze z zakresu kontrolowanej syntezy termojądrowej zostało sprzedane za granicę w okresie, kiedy dolar był w cenie, za 1 milion 200 tysięcy dolarów (ekwiwalent wyeksportowania 30 tysięcy ton węgla). Dziś nasi naukowcy żebrzą w Brukseli o kilkanaście tysięcy Euro u bezmyślnych realizatorów globalnej strategii”.
Wysłałem mail. Plik jest dostępny na dysku google.