Pole magnetyczne Ziemi

Wyjaśnienie ziemskiego magnetyzmu to jedna z najbardziej pasjonujących zagadek nauki. Albert Einstein uznał ten problem za jeden z najważniejszych, przed którymi stanęła fizyka.

Magnetyzm jest zjawiskiem zwyczajnym, przyjmowanym przez większość ludzi jako coś zupełnie naturalnego. Każdy na pewno widział kiedyś kompas z igłą magnetyczną albo też używał go dla określenia kierunku, ale na pewno nikt z nas nie zastanawiał się, w jaki sposób kompas działa i co powoduje, że igła pokazuje akurat kierunek północny a nie na przykład zachodni.
Otóż dzieje się tak, dlatego, że igła kompasu ustawia się wzdłuż linii pola magnetycznego wytwarzanego przez Ziemię. Ta siła przyciągająca ładunki dodatnie do ujemnych lub północny biegun magnesu do bieguna południowego umożliwia na przykład działanie silnika elektrycznego lub generatora prądu. Bez przyciągania elektromagnetycznego nie byłoby możliwe istnienie atomów, gdyż ujemnie naładowane elektrony krążące po powłokach elektronowych wokół dodatnio naładowanego jądra atomu są utrzymywane właśnie dzięki owej sile. Bez atomów natomiast nie istniałby świat, ani Słońce, ani też ludzie. Kula ziemska wykazuje znaczny magnetyzm, czego dowodem może być zachowanie się igły kompasu. Ustawia się ona wzdłuż linii sil pola magnetycznego. Prawdą jest, ze igła pokazuje bieguny Ziemi – na półkuli północnej biegun północny, na półkuli południowej odwrotnie. Jednak są to bieguny magnetyczne Ziemi, czyli punkty, w których znajdują się końce jak gdyby ogromnego magnesu przeciągniętego przez środek planety. Bieguny magnetyczne są odchylone o około 11 stopni od biegunów geograficznych, czyli punktów, przez które przechodzi oś obrotu planety. Pomiędzy biegunami magnetycznymi przebiegają niewidzialne linie sił pola magnetycznego ułożone w uporządkowaną siatkę, która przypomina układ współrzędnych geograficznych, rozciągającą się nad całą powierzchnią Ziemi. Ten układ linii pola magnetycznego nazywany jest magnetosferą.
Magnetosfera Ziemi rozpościera się w przestrzeni kosmicznej na odległość wielokrotnie większą, niż wynosi promień naszej planety. Nie jest to pole symetryczne. Zupełnie nie przypomina pola wytwarzanego przez pojedynczy magnes sztabkowy, ponieważ zostaje silnie zniekształcone wskutek działania wiatru słonecznego. W wyniku tego procesu powstaje pole magnetyczne o wydłużonym kształcie przypominającym krople wody. Granice wpływów magnetycznych Ziemi nazywa się magnetopalzą. Według naukowców pole magnetyczne jest wykorzystywane przez wiele żywych stworzeń. Zdolność do utrzymywania określonego kierunku przez ryby, ptaki, a być może także ludzi po części przypisuje się właśnie wyczuwaniu kierunku ziemskiego pola magnetycznego. Nieznany jest mechanizm powodujący powstawanie tak silnego pola magnetycznego. Istnieją jedynie hipotezy, ze powstaje ono wskutek ruchów bogatej w żelazo mieszaniny metali w jądrze Ziemi, spowodowanych przez energię cieplną. Magnetyzm Ziemi jest zjawiskiem dynamicznym i zmiennym podobnie jak klimat czy krajobraz. Podlega ono nieustannym zmianom. Jego kierunek
i natężenie zmieniają się w różnych latach i tysiącleciach.
Pole magnetyczne jest także prawdopodobnie odpowiedzialne za powstawanie zjawiska zorzy polarnej. Należy ona do najwspanialszych zjawisk w przyrodzie dających się zaobserwować gołym okiem. Gdy się pojawia, na nocnym niebie można obserwować wstęgi fioletu, błękitu, bieli, pasma zieleni z czerwonymi końcówkami, mieniące się i bezustannie zmieniające kształt. Zorze polarne – północna i południowa – pojawiają się zazwyczaj w dwóch pasach otaczających odpowiednio Biegun Północny i Południowy, w tak zwanych strefach zorzowych. Rozciągają się z zachodu na wschód, prostopadle do wskazania igły kompasu, co może dowodzić ich związku z ziemskim polem magnetycznym. Wiele kwestii dotyczących powstawania zorzy polarnej pozostaje do dzisiaj niewyjaśnionych. Można tu wymienić jako przykład powstawanie pól elektrycznych, które indukują prądy na powierzchni Ziemi. Prądy te zakłócają prace telefonów i powodują błędne odczyty aparatury pomiarowej. Wiele jest jeszcze niezbadanych dobrodziejstw pola magnetycznego, ale jedno z nich jest szczególne. Może ono pomóc nam- ludziom. Jest to terapia polem magnetycznym. BEMER 3000 jest aparatem do łagodnej terapii pulsującym polem magnetycznym o niskim natężeniu.
Terapia ta wzmacnia w sposób naturalny energię w ludzkim organizmie, wyrównuje deficyt energetyczny, który wynika z wielu przyczyn, takich jak: niewłaściwe odżywianie, stres, wyniszczający tryb życia, wpływy cywilizacji, i wiele innych.

Wyrównanie deficytu energetycznego pozwala na uruchomienie naturalnych procesów regeneracyjnych organizmu. Terapia nadaje się idealnie do wspomagania leczenia rozmaitych chorób oraz utrzymania zdrowia i witalności. Sukcesy zastosowania pulsujących pól magnetycznych w terapii potwierdzone są
w przypadkach: zwyrodnienia i zmiany w układzie kostnym; osteoporoza; reumatyzm; kontuzje sportowe; gojenie ran; cukrzyca i jej powikłania; ogólna regeneracja, zakłócenia i choroby układu krążenia; kłopoty z ciśnieniem; zakłócenia snu, dziecięce porażenie mózgowe, stwardnienie rozsiane, astma, migrena, alergie, zakłócenia potencji, zakłócenia w przemianie materii, regulacja przemiany tkanki tłuszczowej, stres i wiele innych.

Przekonajmy się do magnetoterapii – wyjątkowo skutecznej metody leczenia pulsującym polem magnetycznym niskiej częstotliwości. Ten rodzaj terapii – polem magnetycznym – jest powszechnie stosowany w Niemczech, Austrii i Szwajcarii. Ostatnio również w Polsce wzrasta zainteresowanie tą metodą. Jej prekursorem był James Maxwell, który ponad sto lat temu uzyskał patent na lecznicze z wykorzystywaniem impulsowego pola magnetycznego. Magnetoterapia znalazła już zastosowanie w kilkunastu działach medycyny, m.in. w ortopedii, reumatologii, chorobach wewnętrznych, uzyskując wysokie uznanie specjalistów. Skuteczność tej metody jest dużo większa w porównaniu z obecnie stosowanymi. W przeciwieństwie do metod konwencjonalnych fizykoterapii, umożliwia ona głębokie, a nie wyłącznie powierzchniowe oddziaływanie na organizm. Co więcej, jest to praktycznie jedyna metoda wskazana i zalecana do stosowania przy stanach zapalnych. Terapia polem magnetycznym jest bezpieczna i może stanowić samodzielną metodą lub mieć istotne znaczenie w procesie kompleksowego leczenia. W USA terapia polem magnetycznym stosowana jest w ponad 1000 szpitali, klinik i ośrodków zdrowia w celu usuwania głębokiego bólu, skurczy mięsni, artretyzmu i innych dolegliwości. Japoński lekarz Kyoichi Nakagawa, ordynator kliniki w Tokio, przeprowadził badania ponad 11 000 chorych cierpiących na sztywność ramion i karku, lumbago, neuralgie, bóle mięśniowe i reumatyzm. Aż 95% spośród pacjentów uznało magnetoterapię za metodę bardzo skuteczną.

Odkryto, ze magnetyzm jest niezbędnym czynnikiem ludzkiego zdrowia; już pierwsi kosmonauci przekonali się, że pozostając przez pewien czas w przestrzeni pozaziemskiej, cierpieli na skurcze mięsni i utratę wapnia kostnego. Biomagnetyzm stosowany jest np. przez lekarzy ortopedów w celu przyspieszenia leczenia oraz zrastania się powikłanych złamań. Co dziesiąty obywatel Japonii stosuje magnetyczny podkład do spania a produkcja przyrządów magnetycznych jest 20-tym co do wielkości, przemysłem Japonii.

W mojej pracy chciałem ogólnie przedstawić Pole Magnetyczne Ziemi. Oczywiście wiąże się z tym wiele innych pobocznych tematów jak magnetoterapia czy powstawanie zorzy polarnej. Myślę, że można się z niej dowiedzieć paru ciekawostek jak i pożytecznych rzeczy.

Posted in Uncategorized | Leave a comment

Fale dźwiękowe

Dźwięk to drgania powietrza rozchodzące się w przestrzeni nazywane także falami. Ruch fal odbywa się dzięki kolejnemu rozrzedzaniu i zagęszczaniu powietrza. Fale dźwiękowe rozchodzą się z prędkością ok.1200 km/h, (czyli ok. 330 m/s). Prędkość dźwięku w powietrzu jest zależna od jego gęstości i może się wahać. Fale dźwiękowe stanowią jednak małą część szerokiego widma fal, sięgającego do wielu milionów drgań na sekundę.
Zakres słyszalny, (czyli zakres dźwięków, które są słyszalne przez człowieka) wynosi od około 20 Hz do 20 kHz. Taki zakres może wydawać się niewielki, ale jest znacznie szerszy od zakresu, jaki wytwarza jakikolwiek instrument muzyczny. Tak np. pianino ma zakres od 30 Hz do 4 kHz, picollo od 1,5 kHz do 15 kHz. Fale dźwiękowe są wytwarzane na ogół przez drgające struny lub powierzchnie, czy też przez drgania powietrza w rurach lub wnękach. Fale dźwiękowe są wytwarzane przez poruszający się przedmiot (np. w wyniku przesuwania się smyczka po strunach skrzypiec czy uderzenia młoteczka w strunę pianina). Gdy już cząsteczki zaczną się poruszać, pojawia się reakcja łańcuchowa z cząstkami sąsiednimi. Tak właśnie w wyniku rozrzedzania i zagęszczania powietrza odbywa się przesyłanie ruchu powietrza we wszystkich kierunkach. Zjawisko to jest nazywane podłużnym przemieszczaniem się drgań, polega, więc na naprzemiennym rozrzedzaniu i zagęszczaniu powietrza.
Fale dźwiękowe są podłużnymi falami mechanicznymi. Mogą one rozchodzić się w ciałach stałych, cieczach i gazach. Zakres częstotliwości, jakie mogą mieć podłużne fale mechaniczne jest bardzo szeroki, przy czym falami dźwiękowymi nazywamy fale o takich częstotliwościach, które w działaniu na ludzkie ucho i mózg wywołują wrażenie słyszenia. Zakres tych częstotliwości rozciągający się od około 20Hz do około 20 000Hz, jest nazywany zakresem słyszalnym. Podłużne fale mechaniczne o częstotliwościach mniejszych od częstotliwości słyszalnych są nazywane infradźwiękami, a fale o częstotliwościach większych niż słyszalne – falami ultradźwiękowymi. W powietrzu atmosferycznym fale dźwiękowe rozchodzą się z prędkością około 330 m/s. Ucho ludzkie rejestruje, więc fale o długości od około 1,65 cm aż do 16,5 m.
Ze względu na zakres częstotliwości można rozróżnić trzy rodzaje tych fal:
Infradźwięki – poniżej 20 Hz –niesłyszalne dla człowieka,
Dźwięki słyszalne 20Hz – 20kHz –słyszy je większość ludzi,
Ultradźwięki – powyżej 20 kHz –także niesłyszalne dla człowieka.
Infradźwięki, to fale dźwiękowe, których częstotliwość jest zbyt mała, aby mógł usłyszeć je człowiek. Jest to zakres częstotliwości poniżej ok. 20Hz. Infradźwięki maja bardzo dużą długość fali – powyżej 16 m. Dzięki temu mogą omijać przeszkody i przenosić się na ogromne odległości. Infradźwięki są wykorzystywane przez niektóre zwierzęta, np.: słonie używają ich do komunikacji na dalekie odległości.
Ultradźwięki to fale dźwiękowe, o częstotliwości większej niż 20khz, więc niesłyszalne dla człowieka. Istnieją zwierzęta, które mogą emitować i słyszeć ultradźwięki, np. pies, szczur, delfin, wieloryb czy nietoperz.
Ultradźwięki dzięki małej długości fali (poniżej 1,65 cm) pozwalają na uzyskanie dokładnych obrazów przedmiotów. Urządzenie, które umożliwia obserwację głębin morskich to sonar. Służy on do lokalizacji obiektów zanurzonych w wodzie. Ultradźwięki mają także zastosowanie w medycynie. Za pomocą urządzenia generującego i rejestrującego odbicie fal ultradźwiękowych (ultrasonograf) można uzyskać obraz narządów wewnętrznych. Ultradźwięki pozwalają też na pomiar odległości przy pomocy dalmierza ultradźwiękowego, w zakresie od 1 do 10 m. Jeżeli wykorzysta się naprawdę silne źródło ultradźwięków, to mogą one niszczyć materiał, co pozwala na obróbkę powierzchniową wytwarzanych przedmiotów.

Posted in Uncategorized | Leave a comment

Zmiany stanu skupienia ciał w przyrodzie , technice i życiu codziennym

Zamarzanie jest procesem przechodzenia substancji ze stanu ciekłego w stan stały.
Podobnym procesem jest proces krzepnięcia, który niekoniecznie odbywa się przy niskiej temperaturze.
Ciekłe żelazo krzepnie w temp. Około 1535 stopni celsjusza , dlatego można powiedziec,ze w temp. tej metal ten „zamarza” jednak w tym przypadku „zamarznięty niekoniecznie oznacza to samo co „zimny”. Temp. zamarzania i wrzenia substacji zależy od ciśnienia. Dlatego nawet w przypadku wody , pojęcia „zamarzania” i „wrzenia” nie muszą odnosić się do potocznie przypisywanych im znaczeń. Woda, np. , można wrzeć w temp. pokojowej, jeżeli ciśnienie środowiska w jakim się znajduje zostanie znacznie zmniejszone, a wiec „wrzący” nie oznacza w tym przypadku to samo co „gorący”. Nawet przy zwykłym ciśnieniu wiele substancji wrze w bardzo niskiej temp. Należą do nich substancje, o których zwykle myślimy jako o gazach. Tlen i azot, np., stanowią podstawowe składniki powietrza. Przyczyną dla której zwykle występują w formie gazu jest to, że temp. ich wrzenia jest dużo niższa od zera ok. –196 stopni celsjusza w przypadku azotu i –183 stopnie celsjusza w przypadku tlenu .Nawet w najzimniejszych rejonach na zmieni temp. jest wyższa od temp. ich wrzenia i dlatego powszechnie występują one w formie gazów. Większość substancji po przejściu do stanu stałego przybiera formę krystaliczną. Na przykład, chlorek sodu (sól kuchenna) tworzy kryształy o sześciennym kształcie.
Ciała stałe mogą powrócić do stanu ciekłego w wyniku podgrzewania, które zwiększa prędkość cząsteczek. Kiedy podgrzewamy ciało stałe w celu jego zamiany w płyn substancja pochłania przekazywane jej ciepło , a jej temp. zaczyna rosnąć. Jednak w memencie topnienia temp. nie podnosi się pomimo ,że substancja ciągle absorbuje ciepło. Ciepło potrzebne do stopnienia ciała o jednostkowej masie (bez zmiany temp. ) nazywa się ciepłem topnienia ciała. Dopiero kiedy całe ciało zostanie zamienione w ciecz, temp. ponownie zaczyna rosnąć.
Jeżeli ciekła substancja będzie dalej podgrzewana jej temp. osiągnie poziom wrzenia. Następnie ustali się i pozostanie niezmienna do momentu, kiedy cala substancja zamieni się w gaz. Ciepło konieczne ,aby w danej temperaturze i pod określonym ciśnieniem zamienić jednostkową masę cieczy w parę nazywa się ciepłem parowania. Po zamianie w gaz temp. subst. Ponownie zaczyna rosnąc jeżeli dostarczane jest do niej ciepło. Jeżeli gaz będzie pozbawiony ciepła, jego temp. początkowo spadnie.
Następnie , kiedy osiągnie ona poziom wrzenia, gaz odda swoje ciepło parowania i zamieni się w ciecz o tej samej temp. Gdy już cały gaz przejdzie w ciekły stan skupienia , temperatura substancji zacznie spadać proporcjonalnie do ilości oddanego ciepła. Dalsze oziębianie spowoduje stopniowe obniżanie się temp. która w końcu osiągnie poziom zamarzania . Wtedy ciecz zacznie oddawać swoje ciepło topnienia i w tej samej temp. przejdzie w stan stały. Potem gdy już cały płyn zakrzepnie temp. substancji ponownie zacznie się obniżać. Większość substancji rozszerza się w momencie podgrzewania, natomiast kurczy podczas oziębiania . np. rtęć znajdującą się w termometrze, zwiększając swoja obj. Podnosi się, wskazując w ten sposób wzrost temp. jako, ze rtęć zamarza w temp. – 39 stopni celsjusza, nie nadaje się ona do termometrów używanych do pomiaru bardzo niskich temp. Zasadniczo woda także zwiększa swoją obj. W momencie podgrzewania a zmniejsza w chwilach ochładzania. Jednak kiedy zostaje ona ochłodzona z temp. 4 stopnie celsjusza do temp. 0 stopni Celsjusza jej obj. zwiększa się. Dlatego rury wodociągowe czasami w zimie pękają jako że znajdująca się z w nich woda rozszerza się pod wpływem spadającej temp. Jako, że woda zwiększa swoją obj. W czasie zamarzania, lód – będący stałą formą wody – charakteryzuje się mniejszą gęstością niż woda w stanie ciekłym. Innymi słowy , lód waży mniej niż ciekła woda tej samej obj. Z tego powodu w zimie powierzchnia stawu i jezior pokrywa się wypieraną do góry warstwa lodu. W okolicach koła podbiegunowego zamarznięta woda tworzy góry lodowe, niektóre z nich osiągają bardzo duże rozmiary.
Parowanie jest to proces fizyczny polegający na przechodzeniu cieczy z gaz .Energia dostarczana do cieczy pokonuje siły przyciągania miedzy cząsteczkami . Podczas ogrzewania cieczy jej drobiny – w miarę jak wzrasta ich średnia energia – poruszają się coraz szybciej i oddalają się od siebie. W każdej temperaturze część drobin cieczy ma wystarczająca energie, by pokonać siły przyciągania i oderwać się od powierzchni, tworząc gaz – mówimy wtedy, ze ciecz paruje.
Wielkość parowania wyrażona w mm grubości wody, która wyparowuje w jednostce czasu, zależy od: temperatury otoczenia i ciała parującego, wilgotności powietrza, prędkości jego ruchu i ciśnienia atmosferycznego.
Wzrost temperatury i prędkości wiatru wzmaga parowanie, natomiast wilgotne otoczenie i wysokie ciśnienie osłabiają je.
Szybkość parowania osiąga wartość maksymalną w próżni. Parowanie w całej objętości cieczy określane jest jako wrzenie. Do pomiaru parowania wykorzystuje się ewaporometry. Procesem przeciwnym do parowania jest kondensacja.
Parowanie jest jednym z elementów cyklu hydrologicznego. Np. kiedy zostawimy miskę pełną wody na stole na kilka godzin lub dni zobaczymy ,ze po tym upływie czasu nie znajdziemy już w niej żadnej substancji, co będzie świadczyło o wyparowaniu wody.
Szybkość parowania cieczy z jednostki powierzchni wyrażana jest wzorem :

v=(2πmkT)-1/2⋅(p0-p),

gdzie: m – masa molowa cieczy, k – stała Boltzmanna , T – temperatura

Z parowaniem spotykamy się w życiu codziennym , warto wiedzieć np. że przeciętna ilość wody, jaką wyparowuje drzewo podczas letniego dnia wynosi od 100 do 450 litrów. Duży klon srebrzysty może stracić nawet 300 litrów wody w ciągu jednej godziny w słoneczne, gorące popołudnie. Jeśli ta ilość wody nie zostanie uzupełniona poprzez system korzeniowy, liście drzewa zaczną więdnąć.
Kolejną ciekawostką również na drodze tego zjawiska był słynny model parowania czarnych dziur. Klasyczna czarna dziura (czyli bez uwzględniania efektów kwantowych) powstaje wówczas, gdy proces zapadania się obiektu (na przykład masywnej gwiazdy) doprowadza do odizolowania się tego obiektu od “reszty świata” i powstania “horyzontu”, tzn. do takiej sytuacji, w której nawet promień światła wysłany na zewnątrz zostaje z powrotem zawrócony przez pole grawitacyjne kolapsującego obiektu. Dalszy los tego, co dzieje się pod horyzontem, pozostaje nieznany dla zewnętrznego obserwatora. Hawking udowodnił, że jeżeli uwzględnić efekty kwantowe, to istnieje skończone prawdopodobieństwo, iż jakaś cząstka może znaleźć się na zewnątrz horyzontu. Czarna dziura traci więc masę. Obrazowo mówi się, że czarna dziura paruje.
Gwiazda IRC+10216 odparowuje wodę z obiegających ją lodowych ciał. To co dzieje się wokół niej, w przyszłości może wydarzyć się w Układzie Słonecznym.
Taką obserwację przeprowadzili uczeni badający dane z satelity SWAS (Submillimeter Wave Astronomy Satellite). Satelita dostarczył dowodów na istnienie w innych układach gwiazdowych molekuł wody, niezbędnego składnika dla jakiejkolwiek znanej formy życia. Satelita od dwóch lat obserwował molekuły wody. Jednak ostatnie odkrycie jest szczególnie ciekawe, gdyż znaleziono obłok zawierający wodę wokół gwiazdy. Gwiazda ta, oznaczona jako IRC+10216, jest wiekowym olbrzymem znajdującym się 500 lat świetlnych od nas w gwiazdozbiorze Lwa. Wyjaśnienie powstania wokół gwiazdy takiego obłoku zakłada, że woda ta została odparowana z lodowych, zamrożonych ciał krążących wokół gwiazdy. W naszym układzie planetarnym również spotykamy takie zamrożone obiekty. Są nimi komety.
Proces odwrotny do opisywanego wcześniej to skraplanie. Czyli przechodzenie gazu w stan ciekły. Ochłodzony gaz oddaje energię, zmniejsza się prędkość cząsteczek ,siły przyciągania zbliżają cząsteczki. Proces skraplania pary wodnej może zachodzić przez jej sprężanie izotermiczne, chłodzenie pod stałym ciśnieniem, rozprężanie. Aby para mogła się skroplić, muszą w niej występować ośrodki kondensacji w postaci jonów, zawiesin lub pyłków, które pomagają jej utrzymać cząsteczki cieczy w pierwszej fazie ich powstawania. W przypadku braku ośrodków kondensacji powstaje para przesycona. Skraplanie gazu może zachodzić jedynie w temperaturze niższej od jego temperatury krytycznej. Jeśli temperatura gazu jest wyższa od krytycznej, to należy go po sprężeniu ochłodzić. W technice skraplania gazów przeprowadza się w układach z dławieniem, z rozprężarką wykonującą pracę zewnętrzną, oraz w układach mieszanych. Po raz pierwszy skraplania gazu (SO ) dokonali ok. 1780r Francuzi Jean Clouet i G. Monge, natomiast pełnego skroplenia tlenu i azotu dokonali w 1883r w Krakowie Z. Wróblewski i K. Olszewski. Na skalę techniczną powietrze skroplił jako pierwszy C. Linde (1895) wykorzystując układ z dławieniem. G. Claude i P. Heylandt ulepszyli w 1902 roku ten system włączając w obieg rozprężarkę. W 1920 Heylandt uprościł urządzenie stosując powietrze o ciśnieniu 150-100 lat i temperaturze otoczenia. W 1939 P.L. Kapica zrealizował system, w którym zastosował do sprężania i rozprężania gazów układy wirnikowe. Przykłady to : Para wodna na szybach pod wpływem ciepła zamienia się w krople wody . Szron na liściach zamienia się w rosę.
Skroplenie tzw. gazów trwałych, m.in. tlenu – było przed laty prawdziwym wyzwaniem technicznym oraz sensacją. Dokonano tego żmudną metodą kaskadową. Chłodząc sprężone pary łatwo skraplającego się gazu, a następnie gwałtownie odparowując otrzymaną ciecz – uzyskiwano spadek temperatury aż o kilkadziesiąt stopni. W tych warunkach skraplano kolejny, trudniej skraplający się czynnik gazowy. Po wielu takich żmudnych operacjach osiągnięto temperaturę w której zaczynał skraplać się najmniej lotny składnik powietrza – tlen. Tak postąpili w 1883 roku Olszewski i Wróblewski.
Dziś stosowana jest niemal wyłącznie metoda rozprężania wykorzystująca tzw. efekt Joula-Thomsona. Oczyszczone suche powietrze spręża się do wysokiego ciśnienia i otrzymany bardzo gorący, silnie sprężony gaz – chłodzi wodą. Powietrze jest następnie rozprężane przez zawór dławiący; towarzyszy temu znaczne obniżenie temperatury. Oziębiony rozprężony gaz przechodzi przez wymiennik ciepła ochładzając dopływający stale do zaworu dławiącego gaz pod wysokim ciśnieniem. W wyniku kolejnych wymian ciepła temperatura rozprężanego powietrza ciągle spada, aż rozpoczyna się jego skraplanie… W praktyce produkcja azotu i tlenu odbywa się w sposób ciągły, poprzez odbieranie odpowiednich frakcji z kolumny rektyfikacyjnej znajdującej się za strefą rozprężania. Koszty produkcji obejmują jedynie cenę energii elektrycznej sprężarki oraz eksploatacji urządzeń i koszta administracyjne.
Skraplanie wodoru np. do instalacji zasilającej kosmiczne urządzenia startowe jest bardziej kłopotliwe, gdyż wodór w zwykłej temp. ma odwrotny znak współczynnika Joula –Thomsona (podczas rozprężania wodór się ogrzewa a nie oziębia ) .Przed poddaniem wodoru rozprężaniu, należy go wstępnie silnie ochłodzić w tradycyjny sposób . To nie koniec kłopotów. Swieżo skroplony wodór jest bardzo niestabilny w powodu dość szybkiej przemiany ortowodoru w parawodór. Co prawda ciepło tego egzotermicznego procesu jest niewielkie, ale równie małe jest ciepło parowania ciekłego wodoru. W rezulatcie , nawet przy idealnej izolacji w ciągu kilkunastu godzin samorzutnie i bez dopływu ciepła z zewnątrz, odparowuje w wyniku tego prawie połowa skroplonej cieczy. Podczas skraplania wodoru stosuje się paramagnetyczny katalizator przyspieszający opisana przemianę . W ten sposób co prawda wydajność skraplania jest znacznie niższa , ale otrzymany ciekły wodór znajduje się w stanie równowagi i jest znacznie bardziej stabilny. Jeszcze inna ciekawostka kosmiczna dotyczy oszczędności zbiorników paliwa rakiety (w przypadku Space Shuttle jest to największy element zastawu startowego). Buduje się go z bardzo cienkiej blachy – tak cienkiej, że załamałaby się podczas przeciążeń startowych. Zbiornik jest stale otwarty , gdyż skroplony wodór stale w nim wrze. Kilkanaście sekund przed startem zamyka się jednak zawór wylotowy, rosnące ciśnienie wewnątrz usztywnia konstrukcje podobnie jak zamkniętą puszkę z piwem
Kolejne zjawisko to proces przejścia substancji ze stanu stałego w stan gazowy z pominięciem fazy ciekłej. Sublimacja jest rodzajem parowania i może zachodzić w całym zakresie temperatur i ciśnień w których dana substancja może współistnieć w stanie stałym i gazowym (zazwyczaj jest to temperatura i ciśnienie niższe od punktu potrójnego, a w temperaturze niższej od temperatury topnienia i temperatury punktu potrójnego przy dowolnym ciśnieniu). ). Zjawisko takie można zaobserwować zimą, gdy po opadach śniegu następuje kilka dni ładnej i mroźnej pogody. Wyraźnie widać wówczas postępujące z każdym dniem ubywanie cienkich warstw śniegu i lodu. Znane są substancje, które sublimują znacznie chętniej niż lód, np. jod, suchy lód (stały dwutlenek węgla) lub naftalen (naftalina – kulki przeciw molom).
Na szybkość sublimacji wpływa temperatura oraz różnica ciśnienia pary nasyconej i pary w otoczeniu fazy stałej. Szybkość sublimacji jest zazwyczaj niewielka ze względu na niską temperaturę i małą prężność pary nasyconej dla wielu substancji, dodatkowo szybkość
sublimacji ograniczają zanieczyszczenia powierzchni fazy stałej.
Specjalne efekty sceniczne osiąga się
za pomocą sublimacji stałego dwutlenku węgla.
Sublimacja wody (lodu) występuje w przyrodzie gdy zimne (o temperaturze niższej od 0ºC) i suche powietrze przepływając nad wodą w stanie stałym (lodem, śniegiem, szronem) powoduje przechodzenie wody w stan gazowy.
Dwutlenek węgla ma ciśnienie punktu potrójnego większe od ciśnienia atmosferycznego, dlatego pozostawienie zestalonego dwutlenku węgla (suchy lód) na powietrzu powoduje jego sublimację (lód zanika a nie topi się).
Kamfora jest substancją, która ma dużą szybkość sublimacji w temperaturze pokojowej dlatego powstało powiedzenie „Znikł jak kamfora”.
Sublimację stosuje się w technice szeroko do oczyszczania substancji stałych, lub otrzymywania substancji w postaci drobnych kryształków (np. siarka sublimowana zwana kwiatem siarczanowym).
Procesem odwrotnym do opisywanego powyżej jest resublimacja, czyli bezpośrednie przechodzenie substancji ze stanu gazowego w stały z pominięciem stanu ciekłego.
Towarzyszy jej wydzielanie ciepła. Zachodzi z całym przedziale temp. i ciśnienia, w którym współistnieją faza ciekła i gazowa danej substancji. Następuje w wyniku oziębiania pary substancji.
Resublimacja, w połączeniu z sublimacją lub parowaniem, jest wykorzystywana do oczyszczania lub rozdzielania substancji, do otrzymywania substancji w postaci drobnych kryształków.

Posted in Uncategorized | Leave a comment

Skutki działania prądu elektrycznego na organizm człowieka

Skutki działania prądu elektrycznego na organizm człowieka można rozpatrywać jako fizyczne (np. cieplne), chemiczne (np. zmiany elektrolityczne) lub biologiczne (np. zaburzenia czynności). Prąd stały działa na człowieka inaczej niż prąd zmienny. Prądy przemienne o dużej częstotliwości nie wywołują zaburzeń przewodnictwa w nerwach, skurczów mięśni i zaburzeń w czynnościach mięśnia sercowego, mogą jednak doprowadzić do uszkodzeń wskutek wytwarzania ciepła na drodze przepływu przez ciało. Prądy o bardzo dużych częstotliwościach (kilka tysięcy Hz) mają stosunkowo małą zdolność do przenikania w głąb tkanek. Im częstotliwości są większe, tym działanie jest bardziej powierzchniowe.
W praktyce najbardziej niebezpieczne dla człowieka są prądy przemienne o częstotliwości 50, 60Hz, a więc częstotliwości przemysłowej. Progowe wartości odczucia przepływu prądu przez elektrodę trzymaną w ręku wynoszą:

Prąd / Płeć Mężczyźni Kobiety
Stały 5,0 mA 3,5 mA
Zmienny (50..60Hz) 1,1 mA 0,7 mA

Prąd przemienny przepływając przez mięśnie, powoduje ich silne skurcze. Człowiek obejmujące ręką przewód doznaje skurczu mięśni zginających palce, co powoduje powstanie zjawiska zwanego przymarzaniem (nie udaje się oderwać ręki od przewodu). Górna granica wartości prądu oderwania (samo uwolnienia) wynosi 10…12 mA przy częstotliwości prądu 50…60Hz.
Skutki przepływu prądu przez ciało zależą od jego wartości, drogi i czasu przepływu oraz stanu zdrowotnego poparzonego. Decydujący wpływ, gdy chodzi o niebezpieczeństwo porażeń ma wartość prądu i czas przepływu. Prąd przepływający przez ciało człowieka wpływa na wartość rezystancji wewnętrznej ciała oraz na wartość niewielkiej, lecz najbardziej niebezpiecznej składowej prądu przepływającego przez serce.

Przepływ krwi w naczyniach krwionośnych jest wywołany pracą serca. Mimo, że przez serce przepływa niewielka wartość prądu, może ona spowodować śmiertelne skutki – najczęściej występuje migotanie komór sercowych. Stan ten należy do najtrudniej odwracalnych. Istotnym czynnikiem decydującym o wystąpieniu tego zjawiska jest czas przepływu prądu, a w przypadku krótkich przepływów, moment na który on przypadł. Jeśli przypada na początek rozkurczów (przerwa w pracy serca), to prawdopodobieństwo wystąpienia migotania jest bardzo duże. Przy czasie przepływu krótszym od 0,2s wystąpienie migotania komór jest rzadkie.
W czasie rażenia występują również zaburzenia oddychania. Przepływ prądu przez mózg może spowodować zahamowanie czynności ośrodka oddechowego sterującego czynnością oddychania. Doprowadza to w krótkim czasie do ustawania oddychania, krążenia krwi (z powodu braku tlenu) i śmierć. Podczas przepływu prądu przez klatkę piersiową dochodzi więc do skurczu mięśni oddechowych, co w konsekwencji prowadzi do uduszenia.

Podczas przepływu prądu elektrycznego przez organizm ludzki następuje pobudzenie, a następnie porażenie układu nerwowego. Skutkiem tego jest utrata przytomności. Może ona być spowodowana:

· Zatrzymaniem krążenia wywołanym niedostateczną pracą serca, migotaniem komór lub zatrzymaniem serca.
· Przepływem prądu bezpośrednio przez czaszkę i mózg

Wytwarzanie się dużej ilości ciepła przy przepływie prądów o wysokim napięciu może w ciągu kilku sekund wywołać nieodwracalne uszkodzenie lub zniszczenie mózgu.

Przepływ prądu przez ciało powoduje wytwarzanie ciepła na drodze tego przepływu. Wzrost temperatury może prowadzić do nieodwracalnych uszkodzeń organizmu człowieka. Najczęściej spotyka się uszkodzenia skóry. W miejscu wejścia prądu powstają oparzenia; od zaczerwienienia skóry, powstawania pęcherzy oparzeniowych, po martwicę skóry i zwęglenie. Produkty rozpadu oparzonych tkanek mogą spowodować śmierć przepływu prądu przy dobrej styczności z przewodnikiem.
Przepływ prądu elektrycznego może spowodować również uszkodzenia mięśni. W wyniku gwałtownych skurczów może nastąpić przerwanie włókien mięśnia. Mogą wystąpić również zmiany w strukturze włókien mięśniowych, a także uszkodzenia kości.

Często spotyka się uszkodzenia ciała spowodowane pośrednim działaniem prądu elektrycznego, gdy nie przepływa on przez ciało. Dzieje się tak w przypadkach powstania łuku elektrycznego, w wyniku zwarcia w urządzeniach elektrycznych.
Łuk elektryczny może spowodować mechaniczne uszkodzenia skóry, mające wygląd ran ciętych, kłutych lub postrzałowych. Towarzyszą temu często poważne oparzenia skóry powstałe również w wyniku zapalenia się odzieży. Łuk elektryczny może wywołać również uszkodzenie cieplne i świetlne narządu wzroku.
Do urazów wywołanych pośrednio przez prąd należy zaliczyć także złamania i inne obrażenia wynikłe wskutek upadku z wysokości wskutek odruchowej reakcji na porażenie.

Pierwsza pomoc w wypadku porażenia prądem

Porażenia elektryczne doprowadzają do rozmaitych uszkodzeń organizmu – od bardzo lekkich do najcięższych, w których opóźnienie udzielania właściwej pierwszej pomocy może doprowadzić do śmierci.
Ratownik powinien podjąć akcję ratunkową jak najszybciej i prowadzić ja aż do przybycia lekarza. Przede wszystkim należy:

· Uwolnić człowieka porażonego spod napięcia.
· Rozpoznać stan zagrożenia porażonego
· Zastosować najlepszą metodę ratownictwa.

Przy uwalnianiu spod napięcia ratownik jest zobowiązany dbać nie tylko o bezpieczeństwo porażonego, ale także o swoje. Należy pamiętać, że niebezpieczne dla ratownika są:

· bezpośrednie zetknięcia gołych rąk ratownika z ciałem porażonego;
· równoczesne używanie obu rąk przy odciąganiu spod napięcia;
· mokre podłoże;
· bliskie sąsiedztwo urządzeń pod wysokim napięciem;
· brak równowagi.

Wyłączenie porażonego spod napięcia jest nieodzownym warunkiem podjęcia akcji ratunkowej.
Rozpoznanie stanu zagrożenia jest również ważne, ponieważ od tego zależy wybór sposobu ratowania. W celu ułatwienia oceny stanu porażonego należy przyswoić sobie schemat postępowania rozpoznawczego. Jest on oparty na kilku podstawowych pytaniach, na które ratownik musi znaleźć odpowiedź.
Po pierwsze należy stwierdzić czy porażony jest przytomny.
Z człowiekiem przytomnym można nawiązać kontakt słowny, ma niewątpliwe utrzymane krążenie krwi i oddychanie. Ratownik powinien zając się uszkodzeniami ciała, takimi jak oparzenia, złamania itp. Oraz przygotowaniem do transportu.
Jeżeli człowiek jest nieprzytomny, to należy sprawdzić czy:

· oddycha prawidłowo;
· nie oddycha lub oddycha bardzo słabo, ale krążenie krwi jest utrzymane;
· nie oddycha i brak krążenia krwi.

Pierwsza pomoc składa się z dwóch zasadniczych elementów:

· Zabiegów ożywiających.
· Opatrzeniu obrażeń.

Zabiegi ożywiające dotyczą porażonych, u których uległy zaburzeniu funkcje układów decydujących bezpośrednio o życiu, tj. układu oddechowego, krążenia krwi i odśrodkowego układu nerwowego. Na zabiegi te składają się:

· Przywracanie i podtrzymywanie drożności oddechowej;
· Sztuczne oddychanie;
· Sztuczne krążenie z równoczesnym oddychaniem.

Opatrzenie obrażeń polega na zabezpieczeniu oparzeń skóry, złamań, zwichnięć, zranień i krwotoków, stłuczeń itd. do chwili podjęcia właściwego leczenia przez lekarza.

Pod wpływem doprowadzonego napięcia cząsteczki te przemieszczają się , co prowadzi do zmian stężenia jonów w komórkach i przestrzeniach międzykomórkowych. Im dłuższy jest czas przepływu prądu w tym samym kierunku, tym większych przemieszczeń jonów należy oczekiwać. Od właściwych stężeń

Działanie prądu elektrycznego na krążenie krwi i oddychania

Przepływ krwi w naczyniach krwionośnych jest wywołany pracą serca. Mimo że przez serce przepływa niewielka część prądu rażenia, może ona spowodować śmiertelne skutki. Przy porażeniu prądem przemiennym o częstotliwości 50¸60 Hz najczęściej występuje migotanie komórek serca. Stan ten należy do naj trudniej odwracalnych. Istotnym czynnikiem decydującym o wystąpieniu migotania komórek jest czas przepływu prądu, a w wypadku krótko trwałych przepływów, moment, na jaki przypadł przepływ prądu. Jeśli przypada on na początek rozkurczów (przerwa w pracy serca), to prawdopodobieństwo wystąpienia migotania jest duże. Przy czasie przepływu krótszym niż 0,2 s, wystąpienie migotania komórek jest rzadkie.
Podczas rażenia występują również zaburzenia oddychania. Przepływ prądu przez mózg może spowodować zahamowanie czynności ośrodka oddechowego sterującego czynnością oddychania, po krótkim czasie może nastąpić ustanie oddychania, krążenie krwi (z powodu z braku tlenu) i śmierć. Podczas przepływu prądu przez klatkę piersiową dochodzi więc do skurczu mięśni oddechowych i zaniku ruchów oddechowych, co w konsekwencji prowadzi do uduszenia.

Działanie prądu elektrycznego na układ nerwowy

Podczas przepływu prądu elektrycznego przez organizm ludzki następuje pobudzenie, a następnie porażenie układu nerwowego. Skutkiem tego jest utrata przytomności. Może ona być spowodowana:
·Zatrzymaniem krążenia wywołaniem niedostateczną pracą serca, migotaniem komór lub zatrzymanie serca
·Przepływem prądu bezpośrednio przez czaszkę i mózg. Wytwarzanie się dużej ilości ciepła przy przepływie prądów o wysokim napięciu może w ciągu kilka sekund wywołać nieodwracalne uszkodzenia lub zniszczenie mózgu

Uszkodzenie skóry, mięśni i kości

Przepływ prądu przez ciało powoduje wytwarzanie ciepła na drodze tego przepływu. Wzrost temperatury może prowadzić do nieodwracalnych uszkodzeń organizmu ciała.
Najczęściej spotyka się uszkodzenia skóry. W miejscu „wejścia” prądu powstaje oparzenia: od zaczerwienienia skóry, powstania pęcherzy oparzeniowych, po martwice skóry i zwęglenie. Produkty rozpadu oparzonych tkanek mogą spowodować śmierć porażonego nawet w kilka dni po wypadku.
Innym rodzajem uszkodzeń skóry są tzw. znamiona prądowe, które występują w czasie przepływu prądu, przy dobrej styczności z przewodnikiem.
Przepływ prądu elektrycznego może spowodować również uszkodzenia mięśni. W wyniku gwałtownych skurczów może nastąpić przerwanie włókien mięśni a więc mechaniczne zerwanie mięśni. Mogą wystąpić również zmiany w strukturze włókien mięśniowych, a także uszkodzeń kości.

Działanie pośrednie prądu elektrycznego

Często spotyka się uszkodzenia ciała wywołane pośrednim działaniem prądu elektrycznego, gdy nie przepływa on przez ciało. Dzieje się to podczas powstania łuku elektrycznego, w wyniku zwarcia w urządzeniach elektrycznych..
Łuk elektryczny może spowodować mechaniczne uszkodzenie skóry, mające wygląd ran ciętych, kłutych lub postrzałowych. Towarzyszom temu często oparzenia skóry powstałe w wyniku zapalenia się odzieży. Łuk elektryczny może wywołać również uszkodzenie cieplne i świetlne narządu wzroku. Do urazów wywołanych pośrednio przez prąd należy zaliczyć także złamania inne obrażenia wynikłe wskutek upadku z wysokości przy odruchowej reakcji na porażenie.

Przyczyny porażeń prądem elektrycznym

Przyczyny wypadków podczas eksploatacji urządzeń elektrycznych są różne. Przeważnie są to: nieostrożność, lekceważenie przepisów, roztargnienie, omyłki, brak odpowiedniej konserwacji lub kontroli urządzeń zabezpieczających, zła organizacja pracy, brak nadzoru, złe zrozumienie polecenia, niedbałe wykonanie pracy, nieumiejętność lub nieznajomość instalacji oraz nieszczęśliwy zbieg okoliczności. Następstwem tych przyczyn jest najczęściej dotknięcie części znajdujących się normalnie lub przypadkowo pod napięciem względem ziemi. Jeżeli dotykający stoi na ziemi, na przewodzącej podłodze konstrukcji stalowej, to pod działaniem napięcia dotykowego nastąpi przepływ prądu przez jego ciało.
Napięcie dotykowe jest to napięcie występujące między dwoma punktami, nie należącymi do obwodu elektrycznego z którymi mogą się zetknąć jednocześnie ręce lub ręka i stopy człowieka.
Podczas przepływu prądu w ziemi miedzy dwoma miejscami na powierzchni gruntu oddalonymi o długość kroku może pojawić się napięcie zwane napięciem krokowym.

Ochrona przed porażeniem

Zgodnie z przepisami dotyczącymi ochrony przeciwporażeniowej należy stosować, w zależności od zagrożenia, następujące środki:
1) ochronę podstawową
2) ochronę dodatkową
Ochrona podstawowa ma zapobiegać:
·zetknięciu się człowieka z przewodzącymi częściami obwodów elektrycznych, znajdujących się pod napięciem
·udzielaniu się napięcia przedmiotom lub częściom przewodzącym, które normalnie nie powinny znajdować się pod napięciem
·szkodliwemu działaniu na otoczenie łuku elektrycznego, który mógłby wystąpić podczas pracy urządzeń.
Ochrona podstawowa polega więc przede wszystkim na umieszczeniu elementów znajdujących się pod napięciem poza zasięgiem ręki człowieka, a więc stosowanie przegród, siatek lub poręczy z materiału izolacyjnego.
Ochrona dodatkowa ma zapobiegać utrzymywaniu się niebezpiecznego napięcia dotykowego. Polega ona na zastosowaniu, oprócz ochrony podstawowej, jeden z następujących ośrodków:
·uziemienia ochronnego
·zerowania
·sieci ochronnej
·wyłącznika przeciw pożarowego
·obniżenia napięcia roboczego
·separacji
·izolacji ochronnej
·izolowania stanowisk
Uziemienia ochronne stanowią najbardziej rozpowszechniony rodzaj ochrony dodatkowej, stosowany w maszynach i urządzeniach elektrycznych. Celem stosowania uziemienia ochronnego jest zrównanie potencjału uziemionych przedmiotów z potencjałem ziemi.
Zerowanie może być stosowane w przystosowanych do zerowania sieciach trójfazowych o napięciu mniejszym niż 500V. Polega ono na połączeniu dostępnych części metalowych urządzeń z uziemionym przewodem zerowym.
Sieć przewodów ochronnych wolno stosować w urządzeniach przemiennoprądowych i stałoprądowych niezależnie od rodzaju i wartości napięcia. Wszystkie dostępne części metalowe nie znajdują się pod napięciem oraz dostępne metalowe konstrukcje wsporcze i osłony powinny być połączone z przewodem ochronnym.
Włączniki przeciwporażeniowe wolno stosować w urządzeniach na napięcie nie przekraczające 500 V. Powinny być one przystosowane do rodzaju prądu, napięcia i obciążenia, oraz spełnić wymagania dotyczące wyłączników nadmiarowo-prądowych zawarte w odpowiednich normach.
Ochronne obniżenie napięcia roboczego wolno stosować w stosunku do urządzeń stałych i ruchomych w instalacjach przemiennoprądowych na napięcie znamionowe nie przekraczające 500V, a w stało prądowych – 750V. Do obniżenia napięcia roboczego stosuje się transformatory ochronne lub przetwornice ochronne. Obniżone napięcie ochronne nie może być większe niż 42 V dla obwodów przemiennoprądowych i 80 V dla stałoprądowych.
Transformatory separacyjne wolno stosować w sieciach na napięcia przemienne do 500 V wówczas, gdy :
1. w obwodzie odseparowanym znajduje się tylko jeden odbiornik
2. napięci znamionowe odseparowanego obwodu nie przekracza 400 V, a prąd znamieniowy – 16A.
Obwodu odseparowanego niewolo uziemić ani zerować i łączyć z jakimkolwiek innym obwodem.
Izolację ochronną wolno stosować do fabrycznie produkowanych urządzeń przemiennoprądowych i stało prądowych, niezależnie od wartości napięcia zmiennego.
Izolowanie stanowiska polega na odizolowaniu go od ziemi i wyrównaniu potencjałów dostępnych z tego stanowiska przedmiotów przewodzących, nie należących do obwodu elektrycznego. Może ono być stosowane do urządzeń przemiennoprądowych i stałoprądowych zainstalowanych na stałe pomieszczeniach suchych.

Pierwsza pomoc w wypadku porażenia prądem

Porażenia elektryczne doprowadzają do rozmaitych uszkodzeń organizmu – od bardzo lekkich do najcięższych, w których opóźnienie udzielania właściwej pierwszej pomocy może doprowadzić do śmierci.
Ratownik powinien podjąć akcję ratunkową jak najszybciej i prowadzić ja aż do przybycia lekarza. Przede wszystkim należy:
· Uwolnić człowieka porażonego spod napięcia.
· Rozpoznać stan zagrożenia porażonego
· Zastosować najlepszą metodę ratownictwa.
Przy uwalnianiu spod napięcia ratownik jest zobowiązany dbać nie tylko o bezpieczeństwo porażonego, ale także o swoje. Należy pamiętać, że niebezpieczne dla ratownika są:
· bezpośrednie zetknięcia gołych rąk ratownika z ciałem porażonego;
· równoczesne używanie obu rąk przy odciąganiu spod napięcia;
· mokre podłoże;
· bliskie sąsiedztwo urządzeń pod wysokim napięciem;
· brak równowagi.
Wyłączenie porażonego spod napięcia jest nieodzownym warunkiem podjęcia akcji ratunkowej.
Rozpoznanie stanu zagrożenia jest również ważne, ponieważ od tego zależy wybór sposobu ratowania. W celu ułatwienia oceny stanu porażonego należy przyswoić sobie schemat postępowania rozpoznawczego. Jest on oparty na kilku podstawowych pytaniach, na które ratownik musi znaleźć odpowiedź.
Po pierwsze należy stwierdzić czy porażony jest przytomny.
Z człowiekiem przytomnym można nawiązać kontakt słowny, ma niewątpliwe utrzymane krążenie krwi i oddychanie. Ratownik powinien zając się uszkodzeniami ciała, takimi jak oparzenia, złamania itp. Oraz przygotowaniem do transportu.
Jeżeli człowiek jest nieprzytomny, to należy sprawdzić czy:
· oddycha prawidłowo;
· nie oddycha lub oddycha bardzo słabo, ale krążenie krwi jest utrzymane;
· nie oddycha i brak krążenia krwi.
Pierwsza pomoc składa się z dwóch zasadniczych elementów:
· Zabiegów ożywiających.
· Opatrzeniu obrażeń.
Zabiegi ożywiające dotyczą porażonych, u których uległy zaburzeniu funkcje układów decydujących bezpośrednio o życiu, tj. układu oddechowego, krążenia krwi i odśrodkowego układu nerwowego. Na zabiegi te składają się:
· Przywracanie i podtrzymywanie drożności oddechowej;
· Sztuczne oddychanie;
· Sztuczne krążenie z równoczesnym oddychaniem.
Opatrzenie obrażeń polega na zabezpieczeniu oparzeń skóry, złamań, zwichnięć, zranień i krwotoków, stłuczeń itd. do chwili podjęcia właściwego leczenia przez lekarza.
Reakcje organizmów na przepływający przezeń prąd są różne i w dużej mierze zależne od indywidualnych cech osób porażonych. Skutki przepływu prądu potęgują się u dzieci, kobiet, osób starszych, osób otyłych i chorych (zwłaszcza na choroby serca).
Na podstawie wielu badań, stwierdzono ścisłą zależność skutków rażenia od natężenia prądu rażeniowego; wyniki tych badań zestawione są w tabeli (są to wartości uśrednione dla mężczyzn).

Natężenie prądu w mAObjawy – skutki przepływu prądu o częst. 50¸60 Hz.
0.5Brak widocznych reakcji.
1 ~ 1.5Początek odczuwania
1 ~ 3Odczuwanie bezbolesne.
3 ~ 6Początek skurczów mięśni i odczucie bólu.
10 ~ 15Silne skurcze mięśni, trudności z oderwaniem rąk od przewodu, silne bóle w palcach, ramionach i plecach.
15 ~ 25Bardzo silne skurcze i bóle, samodzielne oderwanie się jest niemożliwe, trudności z oddychaniem.
30Początek paraliżu dróg oddechowych, możliwość utraty przytomności.
75Początek migotania komór sercowych
250Migotanie komór sercowych w czasie pow. 0.4 s
4000Paraliż i zatrzymanie akcji serca.
> 5000Zwęglenie się tkanek

Natężenie Prądu w mAObjawy -skutki przepływu prądu stałego
5 ~ 8Początek odczuwania przepływu prądu
10 ~ 15Uczucie ciepła
20 ~ 25Powstawanie skurczów mięśni, znaczne odczuwanie ciepła
1200Powoduje śmierć

Postęp techniczny spowodował coraz częstsze posługiwanie się urzšdzeniami energetycznymi o napędzie elektrycznym. W wyniku tego ginie u nas w cišgu roku około 300 porażonych prądem. Przypadków uratowanych nie można ustalić, ponieważ nie zawsze są one rejestrowane. W razie porażenia prądem człowiek znajduje się w obwodzie elektrycznym. Siłę działania prądu, uzależnioną przede wszystkim od napięcia i oporu elektrycznego. Mokra skóra jest dobrym przewodnikiem prądu elektrycznego i dlatego szczególne zagrożenie panuje w obiektach, do których dochodzi woda i wilgoć. Prąd przenika przez ciało tam, gdzie trafia na mniejszy opór. Może powodować uszkodzenia narządów nie leżących bezpośrednio na drodze jego przepływu. Przy powszechnym stosowaniu urządzeń elektrycznych częstą przyczyną obrażeń jest tzw. napięcie robocze, powstałe na skutek dotknięcia odsłoniętej części urządzenia znajdującego się pod napięciem. Jeszcze częściej mamy do czynienia z tzw. napięciem dotykowym – w razie kontaktu z instalacją uszkodzoną lub niewłaściwie połączoną. Może również dochodzić do uszkodzenia przez napięcie zwane krokowym – przy wejściu na podłoże, w którym działają różne potencjały elektryczne. Działanie prądu elektrycznego na ustrój ludzki Intensywność porażenia wzmagają: podeszły wiek, płeć żeńska, ogólny stan zdrowia, pobudzenie emocjonalne, spożycie alkoholu. Nieobojętne, w sensie negatywnym, są: zwiększona wilgotność otoczenia, mokre podłoże i spocone ręce. Rozmaita jest również odporność poszczególnych tkanek. Uszkodzenie prądem elektrycznym jest przede wszystkim porażeniem cieplnym, wywołanym łukiem elektrycznym, którego temperatura może dochodzić do 2500°C. Uszkodzenia wewnętrzne są zwykle znacznie większe niż zewnętrzne. Do dodatkowych objawów należą: obrażenia układu mięśniowego i kostno-stawowego wskutek skurczów tężcowych; złamania kości w następstwie skurczu mięśni i złamania po upadku z dużych wysokości, np. ze słupów telefonicznych; niewydolność nerek; uszkodzenia narządów brzusznych w wyniku napięcia tężcowego mięśni powłok, zaćma oczna po upływie kilku miesięcy od porażenia; nadmierna pobudliwość; stany depresyjne; zaburzenia pamięci i uszkodzenie nerwów obwodowych. Obrażenia wywołane prądem o niskim napięciu Należy tu mieć na uwadze napięcie do 1000 woltów. Mamy z nim do czynienia w urządzeniach gospodarstwa domowego, w przemyśle i w rzemiośle. Sieć elektryczna jest zwykle uziemiona i dotknięcie przewodu pod napięciem przez osobę stojącą na ziemi powoduje przepływ prądu przez ciało. Proces ten można łatwo przerwać za pomocą wyłącznika lub przez wyjęcie bezpiecznika. Przebieg prądu niskiego napięcia przez ciało powoduje pobudzenie układu nerwowego i mięśni. W mięśniach mogą wystąpić skurcze, które nie pozwalają na oderwanie się od metalowego przewodu elektrycznego. Skurcze mięśni są często przyczyną upadku i uszkodzeń mechanicznych ciała. Działanie prądu na serce może prowadzić do zaburzeń rytmu, a nawet zatrzymania akcji serca. Szkodliwy wpływ na mózg i układ nerwowy może powodować utratę przytomności i bezdech. Na skórze, w miejscu wejścia i wyjścia prądu na zewnątrz, występują głębokie rany oparzeniowe. Pierwsza pomoc polega na przerwaniu obwodu elektrycznego, najczęściej przez wyciągnięcie wtyczki z gniazdka lub wykręcenie bezpiecznika. Gdy to nie jest możliwe, ratownik oddziela porażonego od obwodu elektrycznego przez odciągnięcie za odzież. Sam izoluje się od podłoża przy pomocy suchej deski lub suchej tkaniny, względnie innego materiału izolacyjnego. Gdy oderwanie za odzież nie jest możliwe, dokonuje się oddzielenia porażonego za pomocą suchej listwy drewnianej lub kija itp. Ratownik musi być zawsze dokładnie izolowany. Nie wolno chwytać ratowanego przedmiotem przewodzącym elektryczność lub gołymi rękami za ciało. Po usunięciu porażonego z niebezpiecznego miejsca kontroluje się u niego oddech i tętno. W przypadku utraty przytomności i zachowanym oddechu stosuje się tzw. bezpieczne ułożenie na boku i przytrzymuje go, aby wskutek bezładnych ruchów nie doszło do opadnięcia języka i zatkania wejścia do krtani. W razie zatrzymania oddechu stosuje się sztuczne oddychanie, najlepiej metoda usta-usta, za pomocą maski ustno-gardłowej, zgodnie z zasadami obowiązującymi przy prowadzeniu reanimacji. W razie zatrzymania akcji serca należy wykonać natychmiast zewnętrzny masaż serca. Czynności te powinny wykonywać osoby odpowiednio przeszkolone, gdyż wtedy przywracanie podstawowych czynności życiowych ma szansę powodzenia. Niewłaściwe przeprowadzenie zabiegów ratowniczych może być przyczyną katastrofy. W wypadku rozwijania się wstrząsu (szoku) rozpoczyna się postępowanie przeciwwstrząsowe. Sprawdza się tętno na tętnicy szyjnej, stosuje się ułożenie zapewniające tzw. autotransfuzję krwi przez uniesienie kończyn ku górze, powodujące przemieszczenie krwi w kierunku serca i mózgu. Równocześnie chroni się chorego przed utratą ciepła, uspokaja pobudzonego emocjonalnie. Zabrania się palenia i picia alkoholu. Niewskazane jest również posługiwanie się do ewakuacji przygodnym transportem, który może wywołać dodatkowe urazy. Nad stanem ogólnym czuwa się stosując kilkakrotne mierzenie częstości i miarowości tętna. Tętno namacalne jest dobrym objawem. Świadczy również o utrzymywaniu się ciśnienia tętniczego w granicach zbliżonych do normalnego. Tymczasem należy wezwać karetkę pogotowia ratunkowego i powiadomić, z jakim rodzajem porażenia ma się do czynienia. Nie wolno dotykać osoby porażonej bez zastosowania środków izolujących. Porażenie prądem elektrycznym o wysokim napięciu Wchodzi tu w grę napięcie powyżej 1000 woltów. Mamy z nim do czynienia w razie uszkodzenia przewodów telefonicznych, stacji transformatorowych i elektrowni. Zwykle są one oznaczone tablicami ostrzegawczymi. Niebezpieczne jest samo zbliżanie się do uszkodzonych przewodów będących pod napięciem. Może bowiem powstać łuk elektryczny przez normalnie izolującą warstwę powietrza. Prąd przepływa wtedy przez całe ciało. Dochodzi wówczas do powstania wysokiej temperatury i rozległych oparzeń. Mogą również wystąpić wszystkie zaburzenia zachodzące przy porażeniach prądem niskiego napięcia. Łuk elektryczny może nawet przekroczyć odległość kilku metrów. Ratownik powinien w takich przypadkach znajdować się 5 metrów od źródła zagrożenia. Należy wówczas zastosować tzw. przerzutkę z drutu. Czynność tę powinien wykonywać wezwany personel techniczny, powiadomiony o faktycznym stanie zagrożenia. Pierwsza pomoc po odłączeniu od źródła prądu powinna polegać na wezwaniu karetki pogotowia, a najlepiej karetki reanimacyjnej ze specjalistą anestezjologiem. Następnie sprawdza się, czy ratowany oddycha; jeśli nie, natychmiast rozpoczyna się sztuczne oddychanie. Jeżeli chory nie oddycha i nie ma wyczuwalnego tętna, rozpoczyna się reanimacja. Najniebezpieczniejsze są urazy kręgosłupa. Rozpoznaje się je na podstawie zaburzeń oddychania, niedowładu kończyn, zaburzeń czucia oraz utraty przytomności. Chorego należy stale obserwować. Jeżeli opóźnia się przyjazd karetki pogotowia, trzeba znaleźć osoby, które pomogą przenieść porażonego w bezpieczne miejsce. Urazy kręgosłupa mogą być przyczyną trwałego kalectwa, a nawet śmierci. W czasie rażenia piorunem prąd stały osiąga natężenie kilku tysięcy amperów w czasie tysięcznych części sekundy. Skutki są podobne do porażeń prądem o wysokim napięciu. Niebezpieczeństwo rażenia piorunem jest większe w pobliżu szczytów górskich, pojedynczych drzew, wież i samotnych domów. Prawdopodobieństwo rażenia piorunem jest mniejsze po położeniu się w rowie lub na ziemi. W górach porażonym grozi ponadto oziębienie.

Posted in Uncategorized | Leave a comment

Pomiary światła

Aby poprawnie naświetlić materiał fotograficzny należy prawidłowo określić parametry ekspozycji. Kiedyś było to nie lada problemem – dziś nawet najprostsze aparaty dysponują precyzyjnymi światłomierzami, a jeśli nie, to za nieduże pieniądze możemy dokupić osobny światłomierz. No dobrze… mamy super aparat z wieloma trybami pomiaru światła i co dalej? Którego użyć? Może zapytać kogoś bardziej doświadczonego? Okaże się jednak, że co fotograf to inna odpowiedź… A ja uważam, że najlepszy jest ten pomiar, który da poprawny wynik ;-)
Pomiar integralny
Pomiar integralny jest najstarszym pomiarem – polega na uśrednieniu całej sceny. Każdy fragment kadru jest traktowany tak samo…
Pomiar punktowy

Pierwszym sposobem pomiaru światła jest pomiar punktowy – charakteryzuje się tym, że mierzymy tylko niewielki fragment kadru, a więc możemy założyć że mierzymy małą jednolitą powierzchnię bez uśredniania. Oczywiście wielkość tej powierzchni zależy od pola pomiaru punktowego oraz założonego obiektywu (dla pomiaru TTL).Im mniejsza tym lepiej – zazwyczaj ma ona od 1% do 3% kadru (powyżej 5% jest to raczej pomiar częściowy niż prawdziwy spot).Pomiar ten pozwala nam dokładnie określić naświetlenie dla interesującego nas fragmentu obrazu gdy jest on mocno niejednorody a nam zależy wyłącznie na poprawnym naświetleniu niewielkiego fragmentu. W połączeniu z korektą ekspozycji daje nam to bardzo dobre narzędzie do określenia prawidłowej ekspozycji.
Innym zastosowaniem pomiaru punktowego (szczególnie łatwym w aparatach wyposażonych w drabinkę ekspozycji) jest określenie kontrastów fotografowanej sceny – pozwoli to wstępnie ocenić wygląd końcowego zdjęcia (odbitki, slajdu).
Pomiaru tego nie można używać tam gdzie liczy się szybkość, gdyż pomiar wymaga przesunięcia pola pomiarowego na wybrany motyw, zapamiętania ekspozycji a następnie przekadrowania przed zrobieniem zdjęcia (chyba że motyw ma być w centrum).Ważną rzeczą często pomijaną przez początkujących fotografów jest to że wraz z pomiarem punktowym należy stosować korekcję ekspozycji aby w pełni wykorzystać jego efektywność.

Temat do pomiaru spotem 1
W tym przypadku wybór był prosty – niewielki motyw na czarnym tle nie pozwolił na zastosowanie innego typu pomiaru – próba wyciągnięcia jakichkolwiek szczegółów z tła skończyłaby się przepaleniem głównego motywu.

Temat do pomiaru spotem 2
W tym przypadku również głowny motyw stanowi niewielką powierzchnię kadru. Ze względu na wielkość spota pomierzone zostały dwie powierzchnie kwiatu (pół na pół – co dało uśredniony pomiar głównego motywu)

Pomiar centralnie-ważony (CW)

Pomiar ten możemy stosowac w przypadku dużych powierzchni z których chcemy uzyskać uśredniony pomiar. Wprawdzie obejmuje on na ogół prawie cały kadr, ale najważniejszy jest środek kadru więc możemy przyjąć że tylko ta część jest mierzona. Jest to chętnie stosowany pomiar swiatła w lustrzankach manualnych ze względu na przewidywalność – wiadomo jaka powierzchnia jest mierzona i można dość łatwo określić jaki jest stopień jej jasności i jaką należy zastosować korekcję.
Wiele lustrzanek posiadało tylko ten sposób pomiaru i niekórzy uważają że pozwala on w 99% przypadków uzyskać poprawne zdjęcia. Przybliżenie do obiektu lub założenie na czas pomiaru teleobiektywu pozwala na zmniejszenie powierzchni mierzonej (zbliżając pomiar do punktowego).

Temat do pomiaru CW 1
Na tym zdjęciu głowny motyw stanowi dość dużą powierzchnię aby moć zastosować pomiar CW. Ponieważ średnia motywu jest szara nie było potrzeby korygowania pomiaru.

Temat do pomiaru CW 2
W tej “pocztówce” przy dość małych kontrastach również dobrze sprawdził się pomiar CW – jaśniejsza powierzchnia nieba i ciemniejsza wody się zrównoważyły dając odcienie równomiernie oddalone od szarości (równoważąc to zdjęcie przy jego centralnej kompozycji).

Pomiar matrycowy

Pomiar matrycowy polega na pomierzeniu światła matrycą czujników (na ogół o różnym kształcie pokrywających cały kadr) a następnie analizie rozkładu jasności i określeniu prawidłowej ekspozycji. Jest to na ogół bardzo tajemniczy pomiar gdyż konstruktorzy aparatów niechętni są do zdradzenia algorytmu. A możliwości jest kilka:
- pomiar z odrzuceniem skrajnych wartości i uśrednieniem pozostałych
- pomiar powiązany z określonym punktem (na przykład z punktem ustawiania ostrości)
- zastosowanie sieci neuronowych (nauczenie algorytmu jak powinno być naświetlone zdjecie w różnych przypadkach) – pozwala to na bardzo elastyczną pracę matrycy (np. ignorowanie jasnych powierzchni w górnej części kadru i ignorowanie ich w pozostałych)
- porównianie rozkładu światła z bazą danych wzorcowych zdjęć (czyli jak ktoś inny naświetlił zdjęcie o podobnym rozkładzie)
Jeśli jeszcze do damy do tego różne wagi dla pól ważniejszych i mniej ważnych to mamy coś czego pracę trudno przewidzieć – nic więc dziwnego, że wielu zaawansowanych fotografów traktuje pomiar matrycowy niemalże z obrzydzeniem. Dla wielu jednak ten pomiar jest wybawieniem i ułatwieniem fotografowania – a że czasami zawiedzie… z negatywu jakoś się wyciągnie poprawną odbitkę, a jak nie… amator może sobie na to pozwolić
Przykład… właściwie tkażdy przykład jest dobry bo matryca powinna się sprawdzać w każdych warunkach.

Temat do pomiaru matrycowego
Ponieważ w tym przypadku cały kadr był dosyć niejednolicie oświetlony można było zdać się na pomiar matrycowy który zadbał o oddanie szczegółów zarówno w światłach jak i w cieniach
Pomiar światła padającego
Pomiar światła padającego jest lubiany przez wielu zawodowych fotografów ze względu na łatwość określenia prawidłowej ekspozycji niezależnie od fotografowanego obiektu (odpada problem precyzyjnego dobrania korekcji ekspozycji). Wymaga on jednak posiadania zewnętrznego światłomierza.
Alternatywą dla tego pomiaru i zewnętrznego światłomierza są specjalne nasadki (choć niektórzy twierdzą że wystarczy zwykła biała kartka) nakładane na obiektyw. Pełnią one wtedy identyczną rolę jak kopułka światłomierza
Pomiar na szarą kartę
Pomiar na szarą kartę jest substytutem pomiaru światła padającego – pozwala zbliżyć się do tego sposobu pomiaru bez potrzeby kupowania zewnętrznego światłomierza. Pomiar ten wykorzystuje zasadę że naświetlenie “zerowe” odpowiada fotografowaniu sceny o średniej szarości. Dzięki temu fotografując szary obiekt (kartę) oświetloną takim samym światłem jak fotografowany obiekt otrzymujemy średnie naświetlenie uniezależniając pomiar od właściwości obiektu (jego odcienia, koloru, refleksyjności).
Jaki pomiar wybrać?
Taki który da odbitkę naświetloną tak jak chcemy.
To przyklad jednego z tych zdań które więcej komplikują niż prostują ;-) Po pierwsze należy pamiętać że fotografując na negatywie czeka nas jeszcze daleka droga do odbitki i korygując naświetlenie dla negatywu musimy uwzględnić też korekcję przy robieniu odbitki – tą korekcję którą robimy w jednym rzucie dla slajdu musimy ją niejako rozłożyć na dwa etapy przy fotografowaniu na negatywie. Ci którzy stosują System Strefowy muszą rozłożyć to na trzy etapy (dodatkowo sposób wywołania negatywu). Po drugie dobrze naświetlona fotografia to fotografia naświetlona tak jak my tego chcemy. Dopiero na drugim miejscu są ogólne zasady oceny zdjęć (nie wypalone światła, szczegóły w czerniach, itp.) Dopiero wtedy gdy wiemy co chcemy osiągnąć wybieramy odpowiedni sposób pomiaru światła. I nie należy się sugerować tym co mówią inni (“spot dla fachowców, matryca dla laików, światło padające dla profi…”) – każdy z tych sposobów może dać odpowiedni wynik jeśli tylko wiemy jak działa i co nim osiągniemy. I nie musimy się trzymać tylko jednego z nich – możemy je dobierać do warunków. Na przykład spota możemy używać zawsze – ale fotografując na negatywie w przeciętnych warunkach o wiele wygodniejszy będzie pomiar matrycowy – nie da nam takiej precyzji ale bez wysiłku pozwoli zmieścić na negatywie jak najwięcej szczegółów fotografowanej sceny (tak działa większość algorytmów matryc).
Korekcja ekspozycji
Światłomierze fotograficzne są wyskalowane wg powierzchni odbijającej 18% procent światła (choć bywa że i 13%). Jeżeli więc sfotografujemy jakąś powierzchnię wg wskazania “0″ światłomierza to na filmie otrzymamy średnie naświetlenie tego obszaru. Więc aby czarny kot był czarny, a bałwan biały musimy skorygować pomiar.
Korekcja ekspozycji jest szczególnie ważna podczas naświetlania slajdów gdyż po nąswietleniu nie ma już szansy na zmianę końcowego obrazu. Naświetlenie negatywów można skorygować w procesie naświetlania odbitki i dla nich ważniejsze jest aby na filmie zostało zarejestrowanych jak najwięcej szczegółów – punkt “szarości” określamy dopiero na etapie wykonywania odbitki (lub skanowania). Między innymi dlatego nie jest ważne aby nasze odbitki z labu miały na odwrocie nadruki NNN (co tak naprawdę nie świadczy o braku korekcji naświetlenia odbitek)

Skala szarości przydatna przy wyborze korekcji – dla slajdu

Kolejne naświetlenia od -2EV do +2EV (pomiar spotem na twarz) – prawidłowe naświetlenie dla +1EV

Pomiar prędkości światła
Od czasu gdy astronom duński Olaf Roemer – badając zaćmienia księżyców Jowisza odkrył, że prędkość światła jest skończona zaczęła się długa historia eksperymentów mających na celu zmierzenie tej prędkości. Sam Roemer nie zmierzył nigdy tej prędkości – sam fakt, że może ona być skończona był dla niego tak szokujący, iż konkretna wartość była nieistotna… .
Później przeprowadzano wiele różnych doświadczeń, spośród których na wspomnienie zasługują pomiary przeprowadzane przez Alberta Michelsona. Używano tam dość skomplikowanej maszynerii, wirującego, ośmiokątnego zwierciadła, a samo laboratorium było dość rozległe bo promień świetlny przebywał drogę między dwoma wierzchołkami górskimi.
Długo po tym, znaczenie prędkości światła wzrosło jeszcze bardziej, gdy okazało się, że fale elektromagnetyczne, opisywane przez równania Jamesa Clerka Maxwella podróżują właśnie z tą prędkością. Był to duży krok w kierunku zrozumienia prawdziwej natury światła.
Postulat stałości prędkości światła niezależnie od układu współrzędnych naprowadził na początku XX wieku pewnego urzędnika szwajcarskiego biura patentowego na trop mechaniki relatywistycznej i zapewnił mu nieśmiertelność, jako jednemu z największych uczonych wszechczasów. W transformacji Lorentza, która leży u podstaw szczególnej teorii względności występuje jedna arbitralna stała, która jest właśnie prędkością światła. Gdyby miała ona inną wartość cały obserwowany świat byłby inny. Nasza intuicja – uformowana w innych warunkach też byłaby inna i moglibyśmy spotykać codziennie takie fenomeny z jakimi miał do czynienia jak dotąd tylko pan Tompkins w krainie czarów.
Po tym przydługim wstępie przechodzimy do sedna to znaczy do opisu samego eksperymentu pomiaru prędkości światła, w tej postaci w jakiej został on wykonany przez Ongrysa w 1996 roku. Nie wymaga on żadnego specjalistycznego osprzętu a uzyskana dokładność jest zupełnie zadawalająca z punktu widzenia Wymiany Ciepła (tj. jest taka jaką uzyskujemy rozwiązując przeciętne zadanie na Wymianie Ciepła) to znaczy zgadza się znak otrzymanej wartości, a także istnieje taki pozycyjny system liczenia, w którym zgadza się rząd wielkości.

Do wykonania pomiaru użyto latarki na baterie (4 baterie R14) o dość lekko chodzącym wyłączniku (celem zmniejszenia błędu wyniki otrzymane w przypadku zacięcia się włącznika nie były brane pod uwagę), a także stopera marki CASIO.
Latarka, skierowana wprost na ścianę, trzymana była w lewym ręku, a stoper w prawej. Następnie jednocześnie włączono latarkę i stoper. Po odczekaniu, aż światło latarki będzie widoczne na ścianie, wyłączono stoper. Czas wskazywany przez stoper jest zatem czasem, w ciągu którego światło pokonało drogę do ściany i z powrotem. Pomiar powtórzono pięć razu po czym wyniki uśredniono.
Pomiar tego typu może być obarczony pewnym błędem, który jest przy tak prostym sprzęcie nieunikniony. Otóż nie ma nigdy pewności co do tego czy latarka była trzymana prostopadle do ściany. Pewna odchyłka od kąta prostego mogła się pojawić i spowodować wydłużenie drogi pokonywanej przez światło. Błąd spowodowany nie uwzględnieniem odległości między żarnikiem żarówki a zwierciadłem latarki został wyeliminowany w ten sposób, że stoper wyłączono już po tym jak na ścianie pojawił się obraz żarnika a nie – chwilę potem – gdy widać było snop światła odbity od lustra. Jak można obliczyć na podstawie wyników eksperymentu chwila ta trwała około 1.6 milisekundy.
Wyniki pomiarów
Odległość od ściany – zmierzona centymetrem krawieckim – wyniosła dwa i pół metra. Zmierzony średni czas pokonania przez światło tej drogi dwa razy wyniósł 0.16 sekundy. Wyliczona prędkość światła to zatem 31.25 m/s .
Porównanie sposobów pomiaru światła.

Tryb pomiaruPunktowy(spot) / CzęściowyCentralnie ważonyWielostrefowy / Matrycowy
Przedstawienie graficzne

Technicznie:Ten tryb zawęża pole pomiaru światła do centralnej partii wizjera. Pole pomiaru pokrywa od 1 do 3,5 % wizjera (przeważnie 3,5 %). Pomiar częściowy pokrywa ok.9,5 %.Pomiar jest uśredniony z całego pola z akcentem położonym na środek wizjera (typowo 75 % światła – środek czarny i ciemno szary na obrazku powyżej, 25 % – obrzeże).Czas i przysłona są kalkulowane na podstawie danych z matrycy/elementów mierzących światło (3 do 16 lub więcej, przeważnie 6), biorąc pod uwagę takie dane jak: użyty punkt AF, wielkość obiektu, pozycja, ogólny poziom światła, światło obiektu i tła oraz kolor.
Użyj tego trybu……kiedy kontrast między jasnością głównego obiektu zdjęcia a tłem jest bardzo duży, albo obiekt wymaga precyzyjnego pomiaru, jak np. makrofotografia…. kiedy w scenie istnieją pola zacienione, albo w ekstremalnych sytuacjach jaz zachód lub wschód słońca…. we wszystkich innych sytuacjach bez mocno zacienionych lub rozjaśnionych pól.
Zalety:Precyzyjny pomiar pod kontrolą.Pomiar światła dla wielu scen z łatwą korektą z ręki.Komfortowy z dużą wiarygodnością.
Wady:Duże różnice w pomiarze świateł i cieni. Braketing jest jedynym rozwiązaniem w wielu trudnych sytuacjach.Bez korekty duże prawdopodobieństwo prześwietlenia sceny w której większą powierzchnię zajmuje niebo.Brak możliwości ręcznej korekty – po prostu nie wiesz jakie czynniki wziął pod uwagę aparat mierząc światło i dobierając takie właśnie parametry.
Podstawy czyli 18% szarości.
Systemy pomiaru swiatła zostały wykalibrowane w ten sam sposób, aby zapewnić stałą i niezmienną dokładność naświetlenia: 18% szarości jest ogólnie przyjętą wartością (jest to ten sam kolor jaki posiada okno twojej przeglądarki). Ma to praktyczne zastosowanie kiedy próbujesz zrobić zdjęcie bardzo jasnej sceny bez kompensacji mierząc światło pomiarem punktowym lub centralnie ważonym, otrzymasz zdjęcie zaciemnione do 18% szarości. Z drugiej strony bardzo ciemne zdjęcia zostaną rozjaśnione do szarości. Pomiar wielostrefowy lub matrycowy mogą mieć ograniczoną zdolność do rozpoznania sytuacji i skompensować automatycznie.
Typowymi sytuacjami stwarzającymi ryzyko niedoświetlenia zdjęcia (bez korekcji) są:
•plaża
•śnieg
•zachmurzone niebo (niebieskie niebo jest mierzone i naświetlane w sposób właściwy)
Przykłady z ryzykiem prześwietlenia (bez korekty):
•ciemny las
•ciemnoniebieskie jeziora/morze
•zmierzch lub świt
W zależności od sytuacji będzie trzeba wprowadzić korektę do 2 EV skracając lub wydłużając czas naświetlenia (przy stałej przysłonie) lub zmniejszyć czy zwiększyć przysłonę (przy stałym czasie migawki). Zmiana parametrów naświetlania w programie (P) czy programie przesuwalnym (Ps) czyli shift nie zmienia ilości światła docierającego do filmu.

Nikon F60/N60

Metody pomiaru światła
System pomiaru światła w aparacie Nikon F60 ustawiony jest normalnie na pomiar matrycowy. Pomiar światła automatycznie przełącza się na skoncentrowany (centralnie-ważony) po przejściu na tryb ręczny M lub podczas używania pamięci pomiaru AE-Lock.
Pomiar matrycowy/Pomiar matrycowy przestrzenny

Pomiar matrycowy światła realizowany jest przy pomocy zespołu czujników (matrycy), które dokonują pomiaru integralnego w przydzielonych im obszarach. Odpowiedni algorytm analizuje poziom światła w poszczególnych strefach klatki (obrazu) oraz kontrast i dobiera odpowiednie parametry ekspozycji. Nikon F60 posiada sześciopolową matrycę (rysunek powyżej).
Jeśli do korpusu F60 założony jest obiektyw typu Nikkor D, algorytm wykorzystuje do pomiaru światła dodatkową informację z układu AF na temat odległości od głównego obiektu, zapewniając precyzyjniejszy dobór parametrów ekspozycji.
Pomiar matrycowy/matrycowy przestrzenny wykorzystywany jest we wszystkich trybach naświetlania z wyjątkiem M i podczas używania pamięci pomiaru AE-Lock.

Pomiar skoncentrowany (centralnie ważony)

W pomiarze centralnie ważonym większy nacisk położony jest na obszar o średnicy 12 mm położony pośrodku kadru. Algorytm przykłada większą wagę do wyniku pomiaru światła w tym okręgu niż na całym pozostałym obszarze. 75 % światła, które jest brane pod uwagę przy pomiarze pochodzi właśnie z tego okręgu, pozostałe 25 % z reszty powierzchni klatki. Pomiar centralnie ważony nie jest zbyt wyrafinowany, jednak pozwala użytkownikowi w dość wysokim stopniu wpływać na dobór ekspozycji. Użytkownik może przy jego pomocy określić kontrast sceny i wybrać według którego obszaru ma być ustawiana ekspozycja.
Pomiar centralnie ważony włącza się automatycznie po przełączeniu w ręczny tryb naświetlania M lub podczas używania pamięci pomiaru AE-Lock.
Pamięć pomiaru AE-Lock
Pamięc pomiaru przydaje się wówczas gdy sytuacja świetlna w scenie jest na tyle skomplikowana, że istnieje duże prawdopodobieństwo, że pomiar matrycowy zawiedzie. Wówczas trzeba skorzystać z pomiaru centralnie ważonego aby oprzeć pomiar światła o jasność najbardziej istotnego dla użytkownika obszaru.
•umieść główny obiekt zdjęcia w środku kadru tak by wypełniał (w miarę możliwości) on okrąg uwypuklenia pomiaru centralnie-ważonego,
•trzymająć lekko wciśnięty spust migawki, naciśnij przycisk pamięci pomiaru AE-Lock,
•trzymając wciśnięty przycisk AE-Lock, zmień kompozycję kadru (położenie obiektu, ogniskowa) i ponownie nastaw ostrość,
•zrób zdjęcie.

Korekcja naświetlenia
Światłomierze współczesnych aparatów fotograficznych są tak skalibrowane, że uznają iż cały świat wokół nich ma średni poziom jasności 18 %. Odpowiada to mniej więcej ciemnej szarości.. W większości wypadków rzeczywiście tak jest, średnia jasność przeciętnego kadru to ok. 18%. W pewnych jednak przypadkach średnia jasność sceny może być znacznie wyższa lub znacznie wyższa. Następuje to w przypadku gdu fotografujemy obszary bardzo białe np. śnieg, prześcieradła lub bardzo ciemne np. mroczny las, kupa węgla lub czarny kot. Ufając światłomierzowi otrzymamy zamiast śnieżnobiałego lodowca – szary popiół, a zamiast czarnego kota – szarego. Dlatego też konieczne jest wówczas wprowadzenie korekcji.
•korekcję in plus czyli prześwietlenie wprowdzamy wówczas gdy obiekt jest jasny, aby prześwietlić go i co zatym idzie uzyskać lepsze odwzorowanie ciemniejszych obiektów,
•korekcję in minus czyli niedoświetlenie stosujemy wówczas gdy jakiś obiekt na zdjęciu jest zbyt ciemny, aby niedoświetlić go i jednocześnie uzyskać lepsze naświetlenie obiektów jaśniejszych.
Inne sytuacje w których stosujemy korekcję ekspozycji:
•Fotografowanie na slajdach. Slajdy posiadają bardzo niewielką tolerancję błędów ekspozycji, dlatego przy bardziej skomplikowanych sytuacjach świetlnych konieczne jest stosowanie bracketingu czyli naświetlania tej samej klatki kilka razy z różnymi korekcjami (in plus i in minus).
•Fotografowanie na slajdach cd. Większość barwnych slajdów lubi być lekko niedoświetlona, wówczas barwy stają się bardziej nasycone.
•Forsowanie. Forsowanie polega na naświetleniu negatywu lub pozytywu jakby miał wyższą lub niższą czułość, a następnie wywołanie z czułością jaka była założona przy naświetlaniu np. film ISO 100 można naświetlać jak ISO 200 lub ISO 400, a potem wywołać tak jakby to był rzeczywiście film ISO 200 lub 400. Zazwyczaj traci się wówczas nieco na jakości lub kontraście w stosunku do nominalnego naświetlenia. Ponieważ F60 nie ma możliwości zmiany ustawionej kodem DX czułości filmu, korekcja ekspozycji na stałe pozwala na forsowanie np. przy filmie ISO 100, korekcja -1.EV oznacza, że film naświetalny jest jakby miał ISO 200.
Korekcję ekspozycji uzyskuje się przez wciśnięcie przycisku korekcji ekspozycji (powyżej spustu – oznaczony symbolem: ) i pokręcenie w prawo lub lewo pokrętłem sterującym. Wartość korekcji ekspozycji pokazuje się tylko podczas naciskania przycisku korekcji. Na wyświetlaczu zewnętrznym LCD pokazywana jest w miejscu licznika klatek, a w wizjerze przy pomocy elektronicznego wskaźnika analogowego: drabinki. Jeśli korekcja ekspozycji została wprowadzona, syganlizowana jest przy pomocy symbolu w wizjerze i na zewnętrznym wyświetlaczu LCD.
Aby wyłączyć korekcję ekspozycji, należy nacisnąć przycisk korekcji i pokręcić pokrętłem sterującym do ukazania się wartości 0.0. Można równierz

Posted in Uncategorized | Leave a comment

Metody Spektralne

Spektroskopia, dział fizyki atomowej i jądrowej oraz chemii atomowej badający struktury energetyczne cząsteczek, atomów, jąder atomowych i cząstek elementarnych (w historycznym znaczeniu nazwy) poprzez obserwację i analizę rozkładu energii (widm) promieniowania emitowanego, pochłanianego lub rozpraszanego przez dany obiekt fizyczny.
Spektroskopia dzieli się wg rodzaju badanego promieniowania na: radiospektroskopię, spektroskopię optyczną (z podpodziałem na spektroskopię promieniowania podczerwonego, spektroskopię światła widzialnego i spektroskopię promieniowania ultrafioletowego), spektroskopię rentgenowską, spektroskopię promieniowania gamma, spektroskopię promieniowania beta, spektroskopię promieniowania alfa, spektroskopię neutronową.
Istnieją też rodzaje spektroskopii wyodrębnione ze względu na badany obiekt, np. spektroskopia: kryształów, molekularna (z dalszym podziałem – np. spektroskopia elektronowa związków aromatycznych, spektroskopia elektronowa związków kompleksowych, itp.), atomowa, jądrowa, subjądrowa.
Termin spektroskopii można odnosić również do badania poszczególnych zjawisk (np. spektroskopia zjawiska Mössbauera, spektroskopia zjawiska Ramana, spektroskopia emisyjna, spektroskopia absorpcyjna itp.) lub innych rozkładów (np. spektroskopia masowa – badanie rozkładu mas atomów, inaczej widma masowego).
Podstawowym narzędziem spektroskopii jest odpowiedni dla danego rodzaju promieniowania spektroskop (ewentualnie spektrometr lub spektrograf). Jeśli badane widma są przedmiotem pomiarów, to w każdym znaczeniu termin spektroskopii można zastąpić terminem spektrometria.

Spektroskopia świetlna to zespół technik spektroskopowych, w których wykorzystuje się promieniowanie elektromagnetyczne w zakresie od głębokiego ultrafioletu po daleką podczerwień.
Najpowszechniej stosowaną techniką jest absorbcyjna spektroskopia IR czyli widma w podczerwieni. Światło z zakresu IR ma długość zbliżoną do długości wiązań chemicznych. Przechodząc przez próbkę badanej substancji promieniowanie to jest selektywnie pochłaniane na skutek wzbudzania drgań wiązań chemicznych o długości odpowiadającej długości pochłanianej fali. Dzięki temu w widmie występuje szereg ostrych sygnałów odpowiadających drganiom określonych wiązań. Dzięki temu, że wartości te są stablicowane, widmo IR umożliwia ustalenie jakie wiązania występują w analizowanej próbce. Oprócz wzbudzania drgań pojedynczych wiązań, promieniowanie to w zakresie od 200 do 450 cm-1 wzbudza skoordynowane drgania nożycowe sąsiadujących ze sobą wiązań. Powoduje to, że widma IR w tym zakresie są bardzo złożone i niezwykle rzadko zdarza się aby dwa różne związki chemiczne miały w tym zakresie identyczne widma, co przydaje się do jednoznacznego ich identyfikowania. Niegdyś widma IR wykonywało się przemiatając próbkę monochromatyczną (o jednej długości fali) wiązką promieniowania, zmieniając krokowo długość tej fali w trakcie pomiaru. Obecnie stosuje się szybszą metodę polegającą na przemiataniu próbki wiązką promieniowania, w której występują wszystkie długości fali z zakresu IR na raz, po przejściu tej wiązki przez próbkę interferuje się ją z wiązką z tego samego źródła, która jednak nie przeszła przez próbkę, a widmo “ekstrahuje się” stosując przekształcenie Fouriera zarejestrowanego widma interferencyjnego. Wymaga to stosowania droższej aparatury z komputerem, ale metoda jest błyskawiczna i dokładna. Technikę tę określa się skrótem FTIR.
Inną, często stosowaną techniką jest absorbcyjna spektroskopia UV-VIS a więc w zakresie od głębokiego ultrafioletu do widzialnej czerwieni. Promieniowanie w tym zakresie jest absorbowane na skutek wzbudzania drgań większych fragmentów cząsteczek, takich jak np. grup fenylowych. Spektroskopia ta nie dostarcza zbyt wielu informacji o strukturze cząsteczek, ale przydaje się do analizy ich potencjalnych własności elektrooptycznych.
Dużo rzadziej wykorzystuje się odbiciową spektroskopię świetlną. Przydaje się ona jednak do ustalania składu chemicznego i własności elektrooptycznych powierzchni różnych substancji.
Laserowa spektroskopia rozproszeniowa polegająca na przepuszczaniu wiązki światła z lasera przez roztwór lub zawiesinę, jest metodą pozwalającą na dokładny pomiar rozmiarów drobin w zawiesinie, lub w przypadku roztworów dużych cząsteczek, takich jak białka i polimery, ich średniej masy cząsteczkowej. Metoda ta opiera się na fakcie, że wiązka światła laserowego ulega w zawiesinach rozproszeniu na szereg pojedynczych wiązek, które wychodzą z zawiesiny pod różnymi kątami w stosunku do pierwotnej wiązki. Zależność intensywności wychodzącego światła od kąta jego skręcenia w zawiesinie jest liniowa, a współczynnik nachylenia linii tej zależności jest proporcjonalny do rozmiarów drobin.

Spektroskopia w podczerwieni (IR – infra red spectroscopy)
Metoda analityczna wykorzystująca absorpcję lub emisję promieniowania ze środkowego zakresu podczerwieni (o długości fali 2.5-50 µm), związaną z wzbudzeniami drgań cząsteczek wchodzących w skład próbki. Wszystkie cząsteczki wykazują pewne drgania charakterystyczne (tzw. drgania normalne), które można przypisać do określonych wiązań lub grup funkcyjnych. Spektroskopia IR jest wykorzystywana do zarówno do identyfikacji substancji (zwłaszcza związków organicznych), jak i do oznaczania ich zawartości.

Nowoczesne fourierowskie spektrometry podczerwieni umożliwiają wyznaczenie widma próbki poprzez analizę jej oddziaływania z tzw. interferogramem, uzyskanym w wyniku interferencji wiązki promieniowania źródła. Sygnał detektora, reprezentujący interferogram próbki, jest przetwarzany w jej widmo (czyli zależność absorbancji od długości fali) na drodze komputerowych obliczeń numerycznych (z zastosowaniem tzw. transformaty Fouriera). Jako źródła promieniowania wykorzystuje się lampy wolframowe lub żarniki emitujące ciągłe promieniowanie o rozkładzie zbliżonym do widma promieniowania ciała doskonale czarnego. Do detekcji promieniowania podczerwonego stosuje się detektory piroelektryczne i fotoprzewodzące.

Spektroskopia w podczerwieni umożliwia dostosowanie techniki pomiarowej do stanu skupienia i rodzaju próbki. Najbardziej rozpowszechniona jest technika transmisyjna, ponadto wykorzystuje się techniki tłumionego wewnętrznego odbicia (ATR), odbicia rozproszonego (DR) oraz odbicia zwierciadlanego (SR/RA).

Spektroskop
Spektroskop, uproszczony spektromet, który umożliwia wyłącznie ogląd widma danego rodzaju promieniowania.
Widmo, rozkład natężenia promieniowania w zależności od jego energii, częstotliwości lub długości fali. Wyróżnia się widma: akustyczne, świetlne, radiowe, mikrofalowe, podczerwone, ultrafioletowe, rentgenowskie, promieniowania gamma, alfa i beta, promieniowania korpuskularnego, neutronów, neutrin itd.
Widmo dostarcza wielu informacji o źródle danego promieniowania (tzw. Widmo emisyjne), a często i o ośrodku, przez który ono przenikało (tzw. Widmo absorpcyjne) Badanie widm różnego rodzaju nosi ogólną nazwę spektroskpopii (lub spektrometrii).

Spektrometr optyczny, przyrząd służący do otrzymywania i analizowania widm promieniowania świetlnego (od podczerwieni do ultrafioletu). Najczęściej stosuje się spektrometry optyczne, które tworzą widma w ten sposób, że światło o różnych długościach fali kierowane jest pod różnym kątem (załamanie światła, pryzmat), albo dzięki wykorzystaniu różnicy długości dróg optycznych ugiętych i interferujących ze sobą promieni (siatka dyfrakcyjna).
Istnieją ponadto spektrometry optyczne fourierowskie oraz filtracyjne. Typowy spektrometr optyczny tworzą: kolimator, obiektyw element dyspersyjny (tj. pryzmat, siatka dyfrakcyjna itp.), obiektyw kamery rejestrującej i element rejestracji widma, którym w spektrometrze jest fotometr.
Opis: Zasada działania spektrometru optycznego. A – światło o dłuższej fali, B – światło o krótszej fali. Autor: Mietelski Jerzy Wojciech.

Widmo emisyjne, widmo wybranego typu promieniowania wysyłanego przez dany obiekt. W przypadku fal elektromagnetycznych (od mikrofal po promieniowanie rentgenowskie i gamma) emitowanych przez pojedyncze atomy (lub jądra) widmo emisyjne ma linie widmowe o ściśle określonych energiach.
Jest to rezultatem istnienia skwantowanych poziomów energetycznych – emitowane promieniowanie może mieć tylko pewne dopuszczalne energie, równe różnicy energii dwóch stanów kwantowych układu (świecenie ciał). Powstające widmo, tzw. widmo liniowe, niesie informacje o składzie chemicznym, także izotopowym (w przypadku widma emisyjnego promieniowania gamma lub alfa), źródła, co jest wykorzystywane do wykonywania analiz jego składu chemicznego (i izotopowego).
W pewnych obszarach widma emisyjnego, przy gęstej strukturze linii, obserwuje sie tzw. widma pasmowe – struktura pasm dostarcza informacji o budowie cząstek (np. widmo emisyjne podczerwone cząsteczek organicznnych). Przy zlaniu się poziomów energetycznych w szerokie pasma (jak w przypadku promieniowania cieplnego ciał stałych lub gazu w wysokiej temperaturze i pod wysokim ciśnieniem), obserwuje się widma ciągłe (np. widmo emisyjne światła żarówki lub Słońca).
Widmo absorpcyjne, widmo powstające przy przenikaniu promieniowania przez materię dla niego przezroczystą. W przypadku fal elektromagnetycznych atomy ośrodka pochłaniają rezonansowo promieniowanie o energii odpowiadającej swojej strukturze energetycznej i natychmiast potem spontanicznie emitują światło, przy czym emisja owa zachodzi izotropowo.
W kierunku rozchodzenia się padającej fali elektromagnetycznej w widmie absorpcyjnym obserwuje się bardzo silne zaniki natężenia dla energii właściwych danej substancji. Umożliwia to badanie składu chemicznego absorbenta.

Spektrometr alfa, przyrząd służący do otrzymywania i analizowania widma promieniowania alfa danej substancji (alfa cząstka).
Wyróżnia się spektometry alfa: magnetyczne (o konstrukcji i zasadzie działania analogicznej do spektrometrów beta), jonizacyjne (wykorzystujące komorę jonizacyjną), spektrometry ciekłoscyntylacyjne, półprzewodnikowe i scyntylacyjne (o konstrukcji i zasadzie działania analogicznej do spektrometrów gamma, wykorzystujące półprzewodnikowe detektory krzemowe lub scyntylacyjne detektory ZnS).
Mała przenikliwość promieniowania alfa powoduje konieczność stosowania urządzeń próżniowych oraz uzyskiwania metodami radiochemicznymi cienkich źródeł promieniotwórczych.
Spektrometr beta, przyrząd służący do rejestrowania widma promieniowania beta danej substancji (beta cząstka). Typowym spektometrem beta jest spektrometr magnetyczny złożony z komory próżniowej, silnego elektromagnesu, źródła elektronów, detektora oraz elektronicznego układu sterowania i rejestrowania.
Elektrony z rozpadów cząstek beta, zachodzących w źródle, po przeniknięciu przez szczelinę poruszają się po zakrzywionym torze dzięki prostopadłemu do kierunku ruchu elektronów jednorodnemu polu magnetycznemu. Przy danej wartości indukcji tego pola, do detektora docierają elektrony o określonej energii.
Zmieniając położenie detektora lub wartość indukcji pola magnetycznego można rejestrować wielkość strumienia elektronów o różnych energiach, czyli otrzymać widmo promieniowania beta danej substancji. W spektrometrii promieniowania beta stosuje się również spektrometry ciekłoscyntylacyjne.
Spektrometr ciekłoscyntylacyjny, spektrometr LSC, rodzaj spektrometru scyntylacyjnego służącego do pomiarów promieniowania beta lub alfa (rzadziej gamma) – wykorzystuje się w nim próbkę zawierającą radioizotop zmieszaną z ciekłym scyntylatorem. Widmo promieniowania próbki rejestrowane tu jest analogicznie jak w spektrometrze gamma.
W zaawansowanych spektrometrach ciekłoscyntylacyjnych wyspecjalizowany układ elektroniczny rozróżnia sygnały pochodzące od cząstek alfa i cząstek beta, dzięki czemu możliwa jest równoczesna rejestracja widm alfa i beta danej próbki.
Spektrometr ciekłoscyntylacyjny pozwala też wykonywać pomiary z wykorzystaniem efektu Czerenkowa wywoływanego przez wysokoenergetyczne elektrony pochodzące z niektórych rozpadów beta – w technice tej nie stosuje się ciekłych scyntylatorów, lecz jedynie roztwory wodne danej próbki.
Spektrometr gamma, przyrząd służący do otrzymywania i analizowania widm promieniowania gamma. Zbudowany jest z: analizatora wielokanałowego amplitudy (analizator amplitudy), konwertera analogowo-cyfrowego, elektronicznego przedwzmacniacza i wzmacniacza, zasilacza wysokiego napięcia oraz detektora promieniowania gamma: licznika scyntylacyjnego (np. ze scyntylatorem NaI) lub detektora półprzewodnikowego (germanowego).
Kwant promieniowania gamma przenikający przez detektor wytwarza w nim sygnał proporcjonalny do energii pozostawianej w detektorze, sygnał w postaci impulsu prądu elektrycznego jest wzmacniany, a jego amplituda analizowana i rejestrowana. Powstaje w ten sposób widmo promieniowania gamma będące rejestrem ilości kwantów gamma o energiach należących do kolejnych, względnie małych przedziałów energii przenikających detektor w określonym czasie.
Istnieją ponadto magnetyczne spektrometry gamma będące rodzajem spektrometrów beta (spektrometr par) oraz spektrometry krystaliczne promieniowania gamma, działające na takiej zasadzie jak dyspersyjne spektrometry rentgenowskie.

Spektrometr, przyrząd służący do otrzymywania i analizy widma danego rodzaju promieniowania. Można wyróżnić następujące rodzaje spektrometrów:
- spektrometr alfa,
- spektrometr beta,
- spektrometr ciekłoscyntylacyjny,
- spektrometr gamma,
- spektrometr masowy,
- spektrometr neutronów,
- spektrometr optyczny,
– spektrometr par,
- spektrometr rentgenowski,
– spektrometr rezonansu magnetycznego.

Opis: Zasada działania spektrometru optycznego. A – światło o dłuższej fali, B – światło o krótszej fali.

Spektrometr alfa, przyrząd służący do otrzymywania i analizowania widma promieniowania alfa danej substancji (alfa cząstka).
Wyróżnia się spektometry alfa: magnetyczne (o konstrukcji i zasadzie działania analogicznej do spektrometrów beta), jonizacyjne (wykorzystujące komorę jonizacyjną), spektrometry ciekłoscyntylacyjne, półprzewodnikowe i scyntylacyjne (o konstrukcji i zasadzie działania analogicznej do spektrometrów gamma, wykorzystujące półprzewodnikowe detektory krzemowe lub scyntylacyjne detektory ZnS).
Mała przenikliwość promieniowania alfa powoduje konieczność stosowania urządzeń próżniowych oraz uzyskiwania metodami radiochemicznymi cienkich źródeł promieniotwórczych.

Opis: Alfa cząstka: A) jądro, B) jądro z pomniejszoną o dwa liczbą protonów i neutronów, C) cząsteczka alfa.

Spektrometr beta, przyrząd służący do rejestrowania widma promieniowania beta danej substancji (beta cząstka). Typowym spektometrem beta jest spektrometr magnetyczny złożony z komory próżniowej, silnego elektromagnesu, źródła elektronów, detektora oraz elektronicznego układu sterowania i rejestrowania.
Elektrony z rozpadów cząstek beta, zachodzących w źródle, po przeniknięciu przez szczelinę poruszają się po zakrzywionym torze dzięki prostopadłemu do kierunku ruchu elektronów jednorodnemu polu magnetycznemu. Przy danej wartości indukcji tego pola, do detektora docierają elektrony o określonej energii.
Zmieniając położenie detektora lub wartość indukcji pola magnetycznego można rejestrować wielkość strumienia elektronów o różnych energiach, czyli otrzymać widmo promieniowania beta danej substancji. W spektrometrii promieniowania beta stosuje się również spektrometry ciekłoscyntylacyjne.

Opis: Zasada działania spektrometru beta. Autor: Mietelski Jerzy Wojciech.

Spektrograf, rodzaj prostego spektrometru (dowolnego rodzaju promieniowania) rejestrującego powstające widmo w postaci zdjęcia, zapisu rejestratora lub innego rodzaju trwałego zapisu wizualnego

CIEKAWOSTKI :

SPECJALISTYCZNE LABORATORIUM
SPEKTROSKOPII ELEKTRONOWYCH

SPEKTROSKOPIA FOTOELEKTRONÓW

Szybki rozwój nauki o powierzchniach (surface science) wymaga nowoczesnych narzędzi badawczych. Największe znaczenie mają obecnie spektroskopie elektronowe, czyli techniki analityczne, w których nośnikami informacji o obszarze powierzchniowym są emitowane elektrony o energii poniżej 2000 eV. Najbardziej efektywną w tej chwili metodą analizy obszaru powierzchniowego jest technika spektroskopii fotoelektronów (Electron Spectroscopy for Chemical Analysis – ESCA).

Aparatura.

W ramach Laboratorium Spektroskopii Elektronowych dysponujemy spektrometrem ESCALAB-210 firmy Fisons Instruments, VG Scientific. Jest to spektrometr fotoelektronów ESCA – XPS (X-ray Photoelectron Spectroscopy) o znacznej automatyzacji sterowania i pomiaru. Przyrząd jest wyposażony w komorę preparatywną umożliwiająca przygotowanie próbki, w kontrolowanej atmosferze, temperaturze (-160o C do 800o C) i ciśnieniu (do 1 atm); śluzę umożliwiającą szybkie wprowadzanie próbek do komory pomiarowej; podstawowy układ pomiarowy, w tym Ÿródło promieni rentgenowskich z podwójną anodą Mg i Al (alternatywnie); układ pomp umożliwiających uzyskanie ultrawysokiej próżni; elektronikę i konsole sterujące oraz komputer wraz z oprogramowaniem do sterowania pomiarem, obróbką i analizą danych. W aparaturze można usunąć warstwę powierzchniową badanego materiału bezpośrednio w komorze analizatora, przy użyciu jonów Ar+ (działo argonowe AG21).

Przygotowanie próbek do analizy powierzchni.

Próbki do analizy powierzchni mogą być dostarczone w postaci litego kawałka materiału (płytka o rozmiarach od 4 x 4 mm do 20 x 20 mm, grubość do ok. 5 mm), lub w postaci próbek krystalicznych czy proszkowych; istnieje możliwość sprasowania takich próbek w tabletkę lub przyklejenia do taśmy przewodzącej. Wymagana jest stabilność próbek w warunkach wysokiej próżni (prężność rozkładowa nie niższa niż l0-10 mbara). Do każdej próbki powinna być dołączona historia jej pochodzenia i obróbki, oraz poszukiwana informacja (skład jakościowy i ilościowy, stan chemiczny, obecność określonych pierwiastków i związków chemicznych).

Ograniczenia.

Analiza próbek zawierających w znacznych ilościach takie pierwiastki jak Hg, Te, Cs, K, Na, As, J, Zn, Se, P, S itp. lub ich związki nie będzie wykonywana ze względu na możliwość uszkodzenia analizatora. Próbki, które w wyniku rozkładu w warunkach ultrawysokiej próżni oraz działania promieniowania rentgenowskiego powodują wydzielanie się lotnych związków jak np.: H20, HCl, H2S itp. nie mogą być również analizowane.

Opracowanie wyników.

Standardowo wyniki opracowywane są przy wykorzystaniu programów pakietu ECLIPSE. Obejmują one analizę jakościową, tj identyfikację pierwiastków obecnych na powierzchni oraz ich form stopnia utlenienia obecnych na powierzchni, a także w niektórych przypadkach – analizę ilościową. Istnieje również możliwość wykonania analizy ilościowej w oparciu o opracowany w naszym Zakładzie pakiet programowy realizujący metodę “multiline” [A. Jablonski, B. Lesiak, L. Zommer, M.F. Ebel, H. Ebel, Y. Fukuda, Y. Suzuki, S. Tougaard, Surface and Interface Analysis, vol. 21, 724-30 (1994)]. Wyniki przekazywane są w postaci raportu zawierającego widma badanych próbek w formie graficznej lub (na życzenie) w formie cyfrowej na dyskietkach, zapisane w kodzie ASCII.
SPEKTROSKOPIA ELEKTRONÓW AUGERA (AES)
I SPEKTROSKOPIA PIKU ELASTYCZNEGO (EPES)

Aparatura.

W ramach Laboratorium Spektroskopii Elektronowych dysponujemy spektrometrem elektronów Augera (AES) częściowo skonstruowanym w Instytucie Chemii Fizycznej PAN, wyposażonym w anlizator z podwójnym przejściem (DCMA) wyprodukowanym przez firmę Physical Electronics, USA, o rozdzielczości energetycznej – 0.6 %. Działo elektronowe umieszczone jest na osi analizatora. Maksymalna energia wiązki elektronów wynosi 2500 eV. Ponadto, spektrometr elektronów Augera wyposażony jest w działo jonowe DJ-2, wykonane w OBREP, Warszawa, Polska oraz w manipulator produkcji Vacuum Generators, UK. Działo jonowe DJ-2 umożliwia trawienie powierzchni próbek do energii jonów Ar+ 2000 eV. Komora oraz układ pompowy (próżni wstępnej i końcowej), rodzimej produkcji, pozwalają na osiągnięcie próźżni końcowej od 10-10 do 10-9 Torr. Układ posiada system automatycznego gromadzenia i przetwarzania danych SKANP (Politechnika Warszawska, Polska) podłączony do komputera.

Przygotowanie próbek do analizy powierzchni.

Próbki do analizy powinny być w postaci litego kawałka materiału o minimalnych wymiarach od 4 mm x 4 mm do 20 mm x 20 mm i o grubości nie przekraczającej 5 mm. Istnieje możliwość badania próbek proszkowych, po uprzednim sprasowaniu ich w postać tabletki. Ograniczeniem badanego preparatu jest jego przewodnictwo. Z reguły spektroskopia elektronów Augera jest przystosowana do badania próbek przewodzących. Istniej też możliwość badania próbek półprzewodnikowych.

Opracowanie wyników.

Spektrometr jest wykorzystywany do gromadzenia widm elektronów Augera (spektroskopia AES) oraz widm elektronów elastycznie rozproszonych na powierzchni ciała stałego (spektroskopia piku elastycznego – EPES).
Spektroskopia AES pozwala na oszacowanie powierzchniowych zanieczyszczeń oraz na analizę ilościową powierzchni. Przykład takiej analizy został niedawno opublikowany [M. Krawczyk, B. Lesiak, L. Zommer and A. Jablonski, Surf. Interface Anal. 25, 356 (1997)].
Spektroskopia elektronów Augera (AES) pozwala na analizę pierwiastkową jakościową składu powierzchni ciał stałych w oparciu o położenie obserwowanych pików. Ponadto, istnieje możliwość analizy stanu chemicznego atomów w oparciu o kształt widm AES. Analiza taka opiera się na standardach widm elektronów Augera rejestrowanych na obiektach o dobrze sprecyzowanym stanie chemicznym. W Zakładzie Fizykochemii Powierzchni ICHF po raz pierwszy zastosowano metodę rozpoznawania obrazów (metoda “k” najbliższych sąsiadów) do analizy kształtu widm elektronów Augera. Metoda ta została wykorzystana do analizy stanu chemicznego atomów na powierzchni ciał stałych m. in. w węglach, polimerach, tlenkach krzemu i wybranych półprzewodnikach [B. Lesiak, P. Mrozek, A Jablonski and A. Jozwik, Surf. Interface Anal. 6, 121 ( 1986); B. Lesiak, M. Zagórska, A. Jablonski and A. Jozwik, Surf Interface Anal. 12, 461 ( 1988); J. Zemek, T. Vystrcil, B. Lesiak and A. Jablonski, Appl. Surf. Sci. 70/71, 299 (1993); J. Zemek, B. Lesiak and A. Jablonski, J. Electr. Spectrosc. Rel. Phenomen. 60, 13 (1992)].
Spektroskopia piku elastycznego (ang. Elastic Peak Electron Spectroscopy – EPES) pozwala na wyznaczanie bardzo istotnego parametru analizy ilościowej, średniej nieelastycznej drogi swobodnej (ang. Inelastic Mean Free Path – IMFP) metodą doświadczalną. Metoda ta została opracowana w ICHF PAN. Dotychczas opublikowano bardzo dużo wartości średniej nieelastycznej drogi swobodnej dla różnych obiektów [B. Lesiak, A Jablonski, Z. Prussak and P. Mrozek, Surf Sci. 223, 213 (1989); B. Lesiak, A Jablonski and G. Gergely, Vacuum 40, 363 (1989)].

Posted in Uncategorized | Leave a comment

Wszechświat

Powstanie Wszechświata

Gdy astronomowie patrzą w kosmos, daleko poza naszą Galaktykę, w każdym kierunku widzą wiele innych galaktyk. Wszystkie te odległe galaktyki sprawiają wrażenie, jakby oddalały się od nas i od siebie wzajem, a te najdalsze poruszają się najszybciej. Tak więc wszystko wskazuje na to, że jesteśmy w rozszerzającym się Wszechświecie. Co jednak spowodowało tę ucieczkę?
Astronomowie sądzą, że około 20 miliardów lat temu cała materia Wszechświata rozpierzchła się na wszystkie strony. Nie mogą wyjaśnić, jak ani dlaczego tak się stało, lecz porównują to z potężną eksplozją i nazywają ją Wielkim Wybuchem (Big Bang). Początkowo Wszechświat był bardzo, bardzo gorący, ale w miarę rozszerzania się stygł, aż stał się Wszechświatem, jaki obecnie mamy.
Odległe galaktyki są tak daleko, że ich światło potrzebuje wiele czasu na dotarcie do nas. Astronomowie potrafią dostrzec ledwo widoczne galaktyki oddalone o 10 miliardów lat świetlnych. Oznacza to, że światło tych galaktyk wędrowało do nas 10 miliardów lat. Widzimy je więc takimi, jakimi były 10 miliardów lat temu i nie wiemy jak naprawdę te galaktyki teraz wyglądają. Gdy zaglądasz w kosmos, zaglądasz również w czas miniony, a więc w przeszłość. Moim zdaniem jest to dziwne, abstrakcyjne, niewiarygodne, ale jednak logicznie myśląc, prawdziwe i bardzo interesujące …

Wielki wybuch

Wszystko, co istnieje we wszechświecie – mnóstwo galaktyk i miliardy gwiazd w każdej z nich, niemożliwa do oszacowania liczba planet, w tym Ziemia i każdy najmniejszy kwant, było kiedyś skupione w obiekcie o wymiarach znacznie mniejszych od ziarenka piasku. To tylko obrazowe porównanie. Trudno sobie wyobrazić ten obiekt o nieskończenie małych rozmiarach, jednak bardzo poważni naukowcy stworzyli taką właśnie teorię powstania wszechświata, która została nazwana teorią Wielkiego Wybuchu.
Zgodnie z tą teorią wszechświat nie istniał od zawsze (jak uważali starożytni greccy filozofowie), lecz powstał w pewnym momencie w przeszłości i nie jest statyczny ani nieskończony. Uważano tę teorię tak niezwykłą, że nawet po uzyskaniu poważnych dowodów na jej potwierdzenie świadomie naginano fakty do powszechnego przekonania (które miała ogromna większość naukowców jeszcze sto lat temu), że jest inaczej. Dopiero odkrycia z początku XX wieku sprawiły, że teorie o pełnym ruchu we wszechświecie zaczęły przybierać realne kształty.

Doświadczenie
’’Rozszerzający się Wszechświat’’

Jeśli pokryjesz cały balon kropkami, a następnie zaczniesz go nadmuchiwać, zobaczysz, jak się Wszechświat rozszerza. Wyobraź sobie, że każdy punkt to galaktyka. Gdy nadmuchasz balon, każda kropka, czyli każda galaktyka odsuwa się coraz dalej od innych. Nie ma znaczenia, w której galaktyce się znajdujesz, wszystkie inne oddalają się od Ciebie, a te najdalsze poruszają się najszybciej.

Komety

Małe (mniej więcej kilkukilometrowe) ciało niebieskie obiegające Słońce zwykle po mocno spłaszczonej orbicie eliptycznej (kometa okresowa) lub orbicie bardzo zbliżonej do paraboli (kometa jednopojawieniowa), charakterystyczne ze względu na swój niecodzienny wygląd i szybki ruch po niebie. Kometa staje się widoczna dopiero wtedy, gdy zbliży się do Ziemi i Słońca na odległość ok. kilku jednostek astronomicznych, początkowo – jako słaby rozmyty obłoczek, z coraz bardziej jaśniejącym jądrem w środku. Wzrost jasności komety jest spowodowany coraz silniejszym jej ogrzewaniem przez Słońce, bowiem złożona głównie z lodu kometa zaczyna parować i tworzy się mglista otoczka. W miarę zbliżania się do Słońca kometa staje się coraz jaśniejszym ciałem niebieskim, rozwijając coraz dłuższy i jaśniejszy warkocz kometarny (niekiedy niepoprawnie nazywany ogonem), skierowany zwykle od Słońca. Warkocze komet osiągają czasem długości nawet setek milionów kilometrów. I właśnie z racji tych niezwykłych warkoczy komety przykuły uwagę ludzi od najdawniejszych czasów. Komety były widoczne na niebie nawet w dzień. W średniowieczu nagłe pojawienie się komety powodowało panikę, gdyż uważano, że zwiastuje ona wojnę, zarazę lub inne katastrofalne wydarzenia. Wzmianki o pojawieniach się komet istnieją w najstarszych kronikach chińskich, dzięki czemu prześledzono np. historię najlepiej poznanej komety Halleya, będącej kometą okresową, do Słońca co ok. 76 lat. Obecnie jest znanych ponad 900 komet, w tym ok. 170 okresowych, co roku odkrywa się kilka nowych. Warto podkreślić, że często komety są odkrywane przez miłośników astronomii. Kometa podczas każdego przelotu w pobliżu Słońca systematycznie traci nieco ze swojej masy, co ostatecznie może nawet doprowadzić do całkowitego rozpadu komety. Te utracone okruchy zwykle grupują się w roje, obserwowane na Ziemi każdorazowo, gdy Ziemia w czasie swego rocznego ruchu wokół Słońca przetnie orbitę danej komety (np. takim rojem są Perseidy). Niedawno zaobserwowano niezwykłe wydarzenie: w lipcu 1994 roku kometa Shoemaker-Levy 9 uderzyła w powierzchnię Jowisza. Wiosną 1997 roku była doskonale widoczna gołym okiem kometa Hale’a-Boppa. Pochodzenie komet nie jest do końca zbadane, najprawdopodobniej są one pozostałościami pierwotnej materii, z której utworzył się Układ Słoneczny.

Wybrane komety okresowe:

KometyŚrednia odległość od Słońca, w AUOkres obiegu, w latachOdległość peryhelium, w AUOstatnia data peryhelium
Encke2,21 3,28 0,331 IX.2000
Grigg – Skjellerup 2,96 5,09 0,995 X.1997
d’Arrest 3,49 6,39 1,353 X.1995
Giacobini – Zinner 3,52 6,59 1,034 XI.1998
Tempel – Tuttle 10,4 32,9 0,982 III.1998
Halley 17,9 76,0 0,587 II.1986
Swift – Tuttle 26,3 135 1,052 XII.1992

Komety pochodzą z najbardziej odległych rejonów Układu Słonecznego i nie zmieniły się od czasu swego powstania. Najbardziej znaną kometą jest kometa Halleya, która była badana w 1910r., a później w czasie powrotu w roku 1986. Kometa ta była znana już w starożytności. Najstarsza wzmianka na jej temat pochodzi z 240r. p.n.e. Kometa Halleya zawdzięcza swą nazwę angielskiemu astronomowi Edmundowi Halley`owi, który w 1682r.pierwszy wyjaśnił naukowo pojawienie się komety, stosując przy tym teorię grawitacji Newtona. Dzięki tym obliczeniom przewidział on kolejny powrót komety na początek 1759 roku. Podczas kolejnych powrotów kometa była badana przez następnych astronomów. W 1986 roku zorganizowano kilka misji kosmicznych by zbadać właściwości chemiczne i fizyczne komety. Były to sonda “Giotto” wysłana przez ASE, która przeleciała 600km od jądra komety, oraz radzieckie sondy “Vega 1″ i “Vega 2″, które przeleciały w odległości 5000 i 10000km od komety.
Orbita komety Halleya ma formę bardzo wydłużonej elipsy nachylonej do płaszczyzny ekliptyki pod kątem 18*. Peryhelium komety jest odległe o 0,59 jednostki astronomicznej od Słońca, natomiast aphelium jest porównywalne do odległości Neptuna i wynosi 35,33 jednostki astronomicznej. Orbity wszystkich znanych nam komet są wydłużonymi elipsami bądź parabolami lub jeszcze rzadziej hiperbolami. Wszystkie te komety krążą wokół Słońca po mocno wydłużonych elipsach. Dzięki temu znajdują się one raz blisko a raz daleko od Słońca przelatując przy tym przez różne części Układu Słonecznego. Kometa lecąc po orbicie znacznie zmienia swój wygląd, gdy zbliża się do Słońca rozwija swój długi ogon, który pojawia się na skutek odparowywania materii jądra pod wpływem promieniowania słonecznego. Długość takiego ogona może wynosić nawet kilkadziesiąt milionów kilometrów. W skład ogona komety wchodzą dwa składniki: niebieskawa plazma i drobny pył. W czasie, kiedy kometa jest daleko od Słońca zmniejsza się do ciemnej kuli o średnicy 10km. Gdy kometa jest w pobliżu Słońca można zauważyć jej centralną część, która świeci i jest zwana głową. Niebieski kolor plazmy pochodzi od dodatniego jonu CO. Ogony komet zwrócone są przeważnie w stronę przeciwną do Słońca. Ich powstawanie jest skutkiem dwóch procesów, część materii z jądra paruje lub sublimuje tworząc gaz lub pył. Proces ten jest aktywowany w wyniku podgrzewania, podczas gdy kometa zbliża się do Słońca. Słońce produkuje również zjonizowany gaz zwany wiatrem słonecznym, który zderza się z kometą i koncentruje się za jądrem w kierunku przeciwnym do Słońca. Po kilkuset przelotach dookoła Słońca komety wyparowują całkowicie gdyż parowanie nie może trwać wiecznie. Zaobserwowano już takie zniknięcie komety- Westa, która rozpadła się na kawałki. Sondy “Giotto” i “Venera” potwierdziły, że komety posiadają porowatą strukturę, a więc składają się z twardego jądra (głównie z krzemianów i lodu) z licznymi lukami wypełnionymi gazem uwalniającym się w miarę sublimacji lodu.
Komety pochodzą z pogranicza Układu Słonecznego. Jest to najprawdopodobniej ogromny obszar, któremu nadano nazwę Obłoku Oorta. Obszar ten jest ogromny, ponieważ ma formę pierścienia sięgającego od 15 jednostek kosmicznych od Słońca aż do 50000 tychże jednostek. Siłą, która wyrywa je z obłoku są perturbacje grawitacyjne wywołane ruchem ciał sąsiadujących ze Słońcem.

Czarne dziury

John Archibald Wheeler zasłynął jako ten, który nadał czarnym dziurą ich nazwę.

Jak powstają czarne dziury.

Na pewnym etapie życia rzadko spotykanych dużych masywnych gwiazd żelazne jądro zaczyna się gwałtownie zapadać. W ciągu sekundy ulega ściśnięciu do gęstości 1014 g/cm3. Tak ściśnięta Ziemia miałaby średnicę mniejszą niż pół kilometra! W takiej gęstości elektrony i protony łączą się ze sobą wytwarzając neutrony i neutrina. W miarą jak trwa zapadanie, ta olbrzymia kula neutronów osiąga stan maksymalnej gęstości, a następnie zaczyna się odwrót. To odbicie wywołuje nadzwyczaj silną falę uderzeniową przebiegającą przez zapadającą się gwiazdę i morze całkowicie rozsadzić jej zewnętrzne warstwy.

Opisany proces nazywamy supernową.

Obiekty pogwiazdowe, zwane gwiazdami neutronowymi – czyli pozostałości po wybuchach supernowych, o ogromnej gęstości – których masy zawarte są pomiędzy dwiema a trzema masami Słońca, nieuchronnie ulegają dalszej zapaści i przekształcają się w czarne dziury.

Inna droga prowadząca do powstania czarnej dziury, to przybieranie na masie gwiazd neutronowych i białych karłów spowodowane bliskim sąsiedztwem często spotykanych gwiazd towarzyszących w układach podwójnych. Te przeciążone resztki wcześniejszych gwiazd, nie chronione przez ciśnienie degeneracji także muszą się zapaść i wytworzyć czarne dziury.

Rozmiary czarnych dziur.

üŚrednice czarnych dziur zależą od ich mas.
üNp. Słońce stałoby się czarną dziurą po ściśnięciu do kuli o średnicy około 1,5 km.
üCzarna dziura o wielkości piłki do koszykówki ma masę pięć razy większą od masy Ziemi.
üZiemia ściśnięta do stanu czarnej dziury, miałaby wielkość małej piłeczki.

Losy czarnych dziur.

Czarne dziury w rzeczywistości nie są całkiem „czarne”. Zachowują się jak ciało doskonale czarne o temperaturze 1023/M K, gdzie M jest masą czarnej dziury wyrażoną w kilogramach. Czarne dziury emitują energię na skutek efektu kwantowo mechanicznego (zasada nieoznaczoności Heisenberga) w formie neutrin, elektronów i fotonów w zależności od temperatury otoczenia. Czarna dziura o masie trzech Słońc będzie emitowała energię w temperaturze 3 x 10-9 K. Obecnie temperatura wszechświata wynosi 2,7 K.
W czterdziestej dekadzie (1040 lat) istnienia Wszechświata rozpadną się protony i jedynymi obiektami dostarczającymi światła, ciepła i energii będą czarne dziury.
üW dekadach 65 – 67 wyparują gwiazdowe czarne dziury
ü98 dekada – znikną supermasywne czarne dziury
ü141 dekada – wyparują czarne dziury o masach na skalę obecnego horyzontu.

Właściwości.

Grawitacja (prędkość ucieczki)
üZiemia – 11 km/s,
üObiekt o masie Słońca i średnicy Ziemi – 6500 km/s (588 razy więcej),
üSfera o wielkości Ziemi o masie kilku tysięcy Słońc – prędkość ucieczki przekracza prędkość światła (300 000 km/s)
üEfektywny promień czarnej dziury o masie Słońca wynosi kilka kilometrów, o masie miliona Słońc, milion kilometrów (cztery razy większy niż dzisiejsze Słońce).
üCzarne dziury są jednolitymi obiektami pozbawione jakichkolwiek cech jednostkowych.

Rodzaje.

Gwiazdowe czarne dziury mają masy porównywalne ze zwykłymi gwiazdami, pomimo to są od nich około sto tysięcy razy mniejsze. Natomiast supermasywne (w jądrach galaktyk) mogą zawierać miliardy mas Słońca, a ich efektywny promień jest większy niż orbita Jowisza. Jądro Galaktyki to okaz ważący trzy miliony Słońc. Pierwotne czarne dziury powstały tuż po Wielkim Wybuchu na skutek warunków, jakie panowały we wczesnej historii kosmosu. Ich maksymalny rozmiar wynosi jedynie jedną setną część milimetra (0,01 mm) a waga odpowiada wadze dużych księżyców w Układzie Słonecznym?
Czas i czarne dziury.

Rozciągliwość czasu pod wpływem sił grawitacji powoduje, że w pobliżu czarnej dziury zegary chodzą znacznie wolniej niż w pustej przestrzeni. W pobliżu horyzontu zdarzeń zegary niemal zwalniają zupełnie, ale znaczenie tego stwierdzenia zależy od obserwatora (teoria względności).
Nieruchomy obserwator względem czarnej dziury doznaje przygniatającej siły grawitacji, jak i znacząco spowolnionego upływy czasu. Spadający swobodnie, nie doznaje działania siły grawitacyjnej, nie odczuwa żadnego przyspieszenia i przeżywa czas w takim samym tempie. „Podróż w przyszłość”??

Przestrzeń i czarne dziury.

Czarne dziury zakrzywiają przestrzeń (czasoprzestrzeń) podobnie jak zmieniają upływ czasu. Wyobrażenie sobie krzywizny przestrzeni trójwymiarowej jest bardzo trudne, ponieważ jesteśmy uwarunkowani ewolucją. O wiele łatwiejsze jest uchwycenie krzywizny w przestrzeni dwuwymiarowej. Z łatwością wyobrażamy sobie krzywiznę powierzchni sferycznej, ponieważ widzimy, w jaki sposób jest ona zanurzona w płaskiej przestrzeni trójwymiarowej. Na przykład kreślenie okręgów na powierzchni Ziemi.
Z ogólnej teorii względności wynika, że masa zakrzywia przestrzeń trójwymiarową. Średnica czarnej dziury jest większa niż można by wnioskować w wyniku pomiarów odległości przeprowadzonych na równiku, czyli w porównaniu z obwodem. Odpowiednio, objętość czarnej dziury jest większa niż objętość, którą można by przewidywać na podstawie pomiaru powierzchni.
üMasa Ziemi wytwarza krzywiznę, z której wynika, że odległość do jej środka jest o około 1,5 milimetra większa niż obwód planety podzielony przez 2p.
üOdległość od środka do powierzchni Słońca jest o około pół kilometra dłuższa niż obwód Słońca podzielony przez 2p.
üOdległość od środka gwiazdy neutronowej jest o około 10% większa niż obwód gwiazdy podzielony przez 2p.
üOdległość od środka czarnej dziury jest nieskończenie większa niż długość obwodu (powierzchnia Schwarzschilda dziury).
Ta nieskończona deformacja przestrzeni wewnątrz czarnej dziury sprawia, że są tak dziwne. Krzywizna wywołuje horyzont, powoduje ogromne różnice w upływie czasu dla różnych obserwatorów i nadaje siłę przetrwania w odległą przyszłość.

Gwiazdy
Długość życia gwiazd dochodzi nawet do kilkudziesięciu lub kilkuset miliardów lat, więc naukowcy nie są w stanie śledzić życia żadnej z nich od momentu narodzin do śmierci. Wiele mogą się jednak dowiedzieć na podstawie obserwacji gwiazd znajdujących się w różnych stadiach rozwoju. W ten sposób zdołali opisać ewolucję typowej gwiazdy – jej narodzin z mgławicy pyłów i gazów, jej młodość, wiek dojrzały, starość, aż w końcu śmierć, która potrafi być niezwykle widowiskowa. Ewolucja tych ciał niebieskich nie zawsze przebiega w identyczny sposób. Uzależniona jest przede wszystkim od masy: największe gwiazdy świecą najjaśniej, a ich koniec jest bardziej spektakularny. Te o przeciętnej masie nie świecą tak intensywnie, jednak żyją o wiele dłużej i wygasają łagodniej. Natomiast gwiazdy najlżejsze, których blask jest ledwo zauważalny, potrafią przeżyć nawet setki miliardów lat.

Narodziny gwiazdy.

Jak już zostało napisane, gwiazda bierze swój początek z mgławicy, czyli chmury pyłów i gazów, wśród których znajduje się przede wszystkim wodór. Na początku mgławica zaczyna zbijać się w bryłę. Do dziś nie udało się ustalić, jaka jest tego konkretna przyczyna. Z biegiem czasu obłok kurczy się, pod wpływem grawitacji, natomiast cząsteczki zbliżają się do siebie i ulegają kondensacji. Masa gwiazdy stale się powiększa. Na tym pierwszym etapie ewolucji energia grawitacyjna kondensujących się cząsteczek zmienia się w energię cieplną. W wyniku tego procesu rozgrzana materia zaczyna świecić. W tym momencie powstaje protogwiazda. Najwyższa temperatura oraz największe stężenie masy panuje w samym środku, czyli jądrze. Gdy temperatura osiągnie 10 mln °C rozpoczyna się reakcja termojądrowa. Jądra atomów wodoru ulegają syntezie i formują jądra atomów helu. W trakcie tej reakcji wyzwalają się niewyobrażalne ilości energii, która promieniuje na powierzchnię. Energia ta wysyłana jest przez gwiazdę w postaci światła i ciepła. W rezultacie protogwiazda staje się gwiazdą. Emitowana z jądra energia cieplna wysyłana jest na zewnątrz i ogrzewa otulające ją gazy, a także wytwarza ciśnienie skierowane na zewnątrz, które zapobiega całkowitej ich kondensacji pod wpływem siły grawitacji. W ten sposób gwiazda osiąga stan równowagi. Oznacza to, że ma swój ustalony rozmiar, stałą temperaturę na powierzchni oraz emituje określoną ilość energii na zewnątrz. Astronomowie uważają, że na tym etapie życia gwiazda znajduje się w tak zwanym ciągu głównym. Jest to określenie jej położenia na wykresie Hertzsprunga-Russella. Autorzy tego wykresu mieli na celu przedstawienie właściwości fizycznych gwiazd, a przede wszystkim zależność pomiędzy ich jasnością i kolorem.

TypKolorTemperatura (°C)
Oniebieski25 000 – 40 000
Bniebieski11 000 – 25 000
Abiało-niebieski7 500 – 11 000
Fbiały6 000 – 7 500
Gżółty5 000 – 6 000
Kpomarańczowy3 500 – 5 000
Mczerwony3 000 – 3 500

Czerwone olbrzymy i białe karły.

Średnica Słońca wynosi około 1,4 mln km, a temperatura na jego powierzchni osiąga ok. 6000 °C. Ta najbliższa Ziemi gwiazda emituje światło koloru żółtego. Uważa się, że Słońce znajduje się w ciągu głównym od mniej więcej 5 miliardów lat, i że pozostanie tam przez podobną ilość czasu. Wszystkie gwiazdy o porównywalnej do Słońca masie przebywają taki sam cykl życiowy.
Ich zapasy wodoru “wystarczają” na około 10 miliardów lat. W wyniku spalania wodór stopniowo przekształca się w hel. Gdy wyczerpie się wodór, reakcja spalania ustaje oraz wyczerpuje się źródło ciepła zapobiegającego całkowitej kondensacji materii, czyli zapadania się pod wpływem grawitacji. Zapadanie to wyzwala energię, która w dalszym ciągu ogrzewa otaczającą materię. Teraz wodór znajdujący się w tej otoczce podlega reakcjom syntezy, co pozwala gwieździe świecić dalej, jednak w kolorze czerwonym. Jednocześnie gwiazda zaczyna się rozdymać i potrafi kilkadziesiąt razy zwiększyć swą objętość. Takie twory nazwano “czerwonymi olbrzymami”.
Jądra “czerwonych olbrzymów” bezustannie zapadają się, a ich temperatura rośnie i potrafi przekroczyć 100 miliardów stopni Celsjusza. W dalszych reakcjach syntezy hel przekształca się w jeszcze cięższy węgiel oraz wydziela się energia, która pozwala gwieździe świecić przez kolejne 100 milionów lat. W momencie wypalenia się helu, reakcje termojądrowe ustają, a sama gwiazda kurczy się pod wpływem grawitacji do rozmiarów zbliżonych do Ziemi i stopniowo wygasa, zmieniając się w “białego karła”. Masa gwiazdy jest tak wysoka, że jej objętość odpowiadająca jednej łyżeczce od herbaty może ważyć aż tysiąc ton.
Życie gwiazdy o masie, np. pięciokrotnie wyższej od Słońca, jest krótsze i przebiega w inny sposób. Jest ona o wiele jaśniejsza, temperatura na jej powierzchni może przekraczać 25 tysięcy stopni Celsjusza, a w ciągu głównym pozostaje przez 100 milionów lat. Gdy osiąga etap “czerwonego olbrzyma” temperatura jądra dochodzi do 600 miliardów stopni Celsjusza. Tak wysoka temperatura powoduje reakcję syntezy węgla, a w wyniku łączenia się jego jąder powstają pierwiastki cięższe, między innymi żelazo. Gwiazda powiększa swą objętość nawet kilkaset razy zmieniając się w tak zwanego “nadolbrzyma”.
Procesy wyzwalające ciepło i światło ustają nagle, jądro gwiazdy zapada się w ciągu kilku sekund. Zapadnięcie się jądra, z kolei, produkuje niewyobrażalne ilości nowej energii, która gwałtownie rozsadza część skondensowanego jądra. To spektakularne zjawisko daje początek nowej formacji o nazwie “supernowa”. Do rzadkości należy okazja zaobserwowania supernowej – przeważnie są one zbyt małe lub zbyt daleko położone. W 1987 roku, w sąsiedniej galaktyce – Wielkim Obłoku Magellana – można było gołym okiem zaobserwować supernową, która przez chwilę była miliard razy jaśniejsza niż Słońce. Jądro nadolbrzyma zapada się w bryłę o średnicy od 10 do 20 km. Jest ona niewyobrażalnie gęsta, a jej objętość odpowiadająca jednej łyżeczce do herbaty może ważyć nawet 100 mln ton! Na masę takiej bryły składa się masa neutronów, i dlatego gwiazda taka nosi nazwę gwiazdy neutronowej. Młoda gwiazda neutronowa charakteryzuje się bardzo wysokim namagnesowaniem i szybko wiruje wokół własnej osi. Dookoła niej tworzy się silne pole elektromagnetyczne, z którego biegunów wysyłane są fale radiowe oraz inne promieniowanie. Promienie biegną w kosmos, zataczając kręgi powodowane ruchem wirowym gwiazdy. Z Ziemi można je obserwować za pomocą radioteleskopów, jako krótkotrwałe regularne błyski. Ich obecność ukazuje się nam jako promieniowanie pulsujące; stąd gwiazdy te zostały ochrzczone mianem pulsarów.
Pierwsze pulsary zlokalizowano poprzez odczytanie wysyłanych przez nie fal radiowych. Później jednak odkryto pulsary emitujące światło, a także promienie X. Pierwszy poznany przez człowieka pulsar emitujący światło zaobserwowano w mgławicy Kraba. Ciało to jest pozostałością po supernowej, która pojawiła się w roku 1054. Jego światło pulsuje z częstotliwością około 30 razy na sekundę. Inne pulsary potrafią być o wiele szybsze, na przykład pulsar PSR 1937+21 “pojawia się” aż 642 razy na sekundę.
Największe gwiazdy mogą skończyć jako “czarne dziury”, czyli obiekty tak gęste, że wytwarzana przez nie grawitacja pochłania nawet promienie świetlne. Można je “zaobserwować” za pośrednictwem wpływu grawitacyjnego na inne obiekty lub emitowanego przez nie promieniowania X, będącego rezultatem energii wyzwalanej podczas pochłaniania materii.

Zmienność gwiazd.

Gwiazdy migocą, a planety – nie. Choć pozwala to na proste rozróżnienie, nie ma nic wspólnego z rzeczywistymi zmianami jasności. Migotanie gwiazd jest jedynie efektem zakłócania ich blasku przez naszą niespokojną atmosferę. Nie oznacza to, naturalnie, że gwiazdy są niezmienne – przeciwnie, prawdziwie stałych gwiazd nie ma. Wszystkie w swym bardziej lub mniej burzliwym życiu ulegają ciągłym przemianom, czego przejawem są zmiany jasności. Przyjęło się jednak nazywać gwiazdami stałymi te, których jasność nie zmienia się w naszych ludzkich skalach czasowych, gwiazdami zmiennymi zaś te, których blask zmienia się (cyklicznie lub nie) w czasie możliwym do zaobserwowania. Zmiany te stanowią niewyczerpane źródło informacji o wszystkim, co dla astronomów najważniejsze – rozmiarach, odległościach, budowie czy ewolucji badanych gwiazd. Gwiazdy stałe również spełniają swoją rolę jako wzorce jasności, do których odnosi się zmiany blasku.
Zmiany blasku gwiazd fizycznie zmiennych są wywołane przez procesy zachodzące w ich wnętrzach. Najprostszym przypadkiem są pulsacje, podczas których gwiazda na przemian rozdymając się i kurcząc, to słabnie, to jaśnieje. Osiągając największy rozmiar, słabnie najbardziej, wtedy bowiem jest najchłodniejsza i odwrotnie – w fazie największego skurczenia jako najgorętsza jest jednocześnie najjaśniejsza. Zmiany jasności mogą być wywołane również przez istnienie plam (obszarów powierzchni istotnie jaśniejszych bądź ciemniejszych od otoczenia) na powierzchni obracającej się gwiazdy. Najbardziej jednak widowiskowe zmiany towarzyszą wybuchom związanym z burzliwymi fazami ewolucji.

Krzywa zmian blasku gwiazdy pulsującej.

Krzywa zmian blasku gwiazdy pulsującej.

Inną, powszechną przyczyną zmian jasności jest wzajemne zasłanianie się składników w układach kilku (co najmniej dwóch) gwiazd. Gdy orbita układu jest skierowana prostopadle do obserwatora, może on zaobserwować cykliczne zmiany blasku, których okres i amplituda zależą od rozmiarów składników, ich jasności, a także wzajemnych odległości.

Krzywa zmian blasku układu zaćmieniowego typu Algol – składa się on z dwóch różnej jasności gwiazd znacznie oddalonych jedna od drugiej.

Krzywa zmian blasku układu zaćmieniowego typu W Ursae Maioris – składa się on z dwóch niemal stykających się gwiazd o prawie jednakowej jasności.

Co ciekawe, zmiany jasności gwiazdy mogą być wywołane również przez zupełnie z nią nie związane obiekty znajdujące się dowolnie daleko. Promienie świetlne gwiazdy zostają ugięte (pod wpływem przyciągania grawitacyjnego), jeśli dokładnie na linii łączącej ją z obserwatorem znajdzie się inne ciało niebieskie. Działa ono jak soczewka skupiająca, powodując jednorazowe pojaśnienie gwiazdy. Tak precyzyjne ustawienie w przestrzeni jest zjawiskiem niezwykle rzadkim, jego wykrycie wymaga nieustannego obserwowania milionów gwiazd w gęstych obszarach galaktyk podejrzanych o występowanie wielu ciał niebieskich, często zbyt słabych do zaobserwowania wprost, stąd określanych mianem ciemnej materii.
Zjawisko to nosi nazwę mikroseczewkowania grawitacyjnego, i choć nie jest pasjonujące z punktu widzenia badań gwiazdy soczewkowatej, to pozwala na stwierdzenie istnienia obiektu soczewkującego, nie wykrywalnego innymi metodami. Obiektów tych astronomowie poszukują z dużym zaangażowaniem, bowiem szacuje się, że mogą one stanowić blisko 90% całej materii Wszechświata.

A teraz mały test

1.Jak stary jest Wszechświat?
Czyli jak dawno temu nastąpił Wielki Wybuch? Trzeba znać stałą Hubble’a, czyli obecne tempo rozszerzania się przestrzeni kosmicznej, a także gęstość materii we Wszechświecie, która decyduje o sile grawitacji, wyhamowującej ekspansję. Ostatnio wyniki pomiarów tych wielkości -różnymi metodami – zbliżyły się do siebie i z niewielkim błędem możemy określić, że od Wielkiego Wybuchu dzieli nas około 14 mld lat.
2.Czy Wszechświat będzie się rozszerzał wiecznie?
W 1998 r. pojawiło się sensacyjne doniesienie: Wszechświat rozszerza się coraz szybciej. Czy sprawia to stała kosmologiczna? Jeśli tak, to czym ona jest?
3.Czy Układ Słoneczny jest typowym układem planetarnym? Czy istnieją “druga ziemia” w naszej Galaktyce? l ile ich jest?
Do końca 1999 roku znaliśmy już 30 układów planetarnych. Obecność tych planet zdradzały zaburzenia w ruchu gwiazdy. Ale pod koniec 1999 r. po raz pierwszy też bezpośrednio dostrzegliśmy planety. Jedna z nich przesłoniła światło gwiazdy, a blask innej dostrzeżono w teleskopie.
4.Dlaczego czas płynie w jednym kierunku?
Niemal wszystkie prawa fizyki (elektromagnetyzm, grawitacja, silne oddziaływania jądrowe) nie wyróżniają kierunku upływu czasu. Tylko pewne rozpady kaonów zachodzą w jednym kierunku czasowym. Dlaczego więc istnieje tzw. strzałka czasu, tj. płynie on tylko w jedną stronę?
5.Dlaczego jest tak mało antymaterii?
Teorie przewidują, że tuż po Wielkim Wybuchu istniała symetria między ilością materii i antymaterii. Dlaczego więc dziś świat zbudowany jest tylko z materii?
6.Czym jest “ciemna materia”?

Siła grawitacji widocznych gwiazd nie wystarcza, by wytłumaczyć dynamikę ruchu gwiazd w galaktykach oraz galaktyk w gromadach galaktyk. Astronomowie doszli do wniosku, że świecące gwiazdy to nie cała materia, która wypełnia galaktyki. Czym jest tajemnicza “ciemna materia”? Czy składają się na nią wygasłe już gwiazdy, ciemne obłoki wodoru, słabo widoczne brązowe karły, czarne dziury, neutrina (ostatnio wykazano, że mają masę), czy też jakaś nowa, egzotyczna forma materii, jeszcze nie znana na Ziemi?

Posted in Uncategorized | Leave a comment

Współczesne źródła energii

Paliwa naturalne, takie jak węgiel i ropa naftowa, eksploatowane nadal w takim tempie jak obecnie wyczerpią się w przyszłym stuleciu. A więc istniała potrzeba wybudowania elektrowni które zasilane by były energią odnawialną. Przykładem takiej elektrowni jest elektrownia jądrowa.

Energetyka Jądrowa Rozwój techniki w drugiej połowie XIX w i powstanie ogromnej ilości urządzeń elektrycznych wymusił rozwój elektrowni, których zadaniem jest dostarczać prąd elektryczny do poszczególnych odbiorców. Elektrownie mogą pobierać energię potrzebną do wytworzenia prądu z różnych źródeł. W latach czterdziestych w związku z powstaniem pierwszych reaktorów powstał nowy typ elektrowni – elektrownie jądrowe. Istnieje kilka rodzajów el które różnią się reaktorami wyróżniamy reaktory wodny ;wrzący ;ciśnieniowy, jednorodny; wysoko temp oraz powielający, W elektrowni jądrowej energię uzyskujemy nie ze spalania paliw kopalnych, lecz z rozszczepiania jąder atomowych. Kocioł zostaje tu zastąpiony reaktorem jądrowym, czyli urządzeniem, w którym wytwarzana jest energia jądrowa. W reaktorze przebiega kontrolowana reakcja łańcuchowa, podczas której rozszczepiane jest tyle jąder, ile potrzeba do wytworzenia energii elektrycznej.

Obecnie w 31 krajach działa 437 reaktorów jądrowych. Wytwarzają one ok. 17% energii elektrycznej. Na energetykę jądrową „postawiły” kraje Dalekiego Wschodu
Elektrowni
Plusy i minusy zastosowania elektrowni jądrowych
-plusy Paliwa są niewyczerpalne ,koszty produkcji energii z gazu są 10 razy większe niż w elektrowni jądrowych a koszty energii z węgla nawet stu krotne większe. paliwa jądrowego potrzeba niewielka ilość, łatwo jest go zgromadzić, ograniczony transport a co za tym idzie zanieczyszczenie środowiska , mniejsza liczba odpadów niż w
elektrowni węglowych,

minusy budowa el atomowej jest o polowe droższa od budowy el węglowej ,awarie maja zasięg globalny a ich skutki odczuwane są przez wiele lat, przechowywanie odpadów Które musza być odizolowane od środowiska przez ok. pól miliona
Elektrownie jądrowe budzą mieszane uczucia a wiec czemu by nie użyć innych energii odnawialnych Energia słoneczna dociera na Ziemię w ilościach prawie nieograniczonych w stosunku do potrzeb człowieka. Dlaczego jej nie wykorzystać?

Energia Słoneczna:.
Ze wszystkich źródeł energii odnawialnej, energia słoneczna jest najbezpieczniejsza.
Słońce jest podstawowym źródłem energii na naszej planecie. Jako najbliższa gwiazda względem Ziemi ma decydujący wpływ na na nasze życie. Bez Słońca życie by nie powstało. Około 30% promieniowania słonecznego dochodzącego do naszej planety jest odbijane przez atmosferę, 20% jest przez nią pochłaniane, a tylko 50% energii dociera do powierzchni ziemi.
Ta ogromna kula gazowa, gdzie zachodzi bezustannie przemiana wodór w hel stała się punktem prac nad wykorzystaniem energii słonecznej .
dachach
Baterie słoneczne są to urządzenia elektroniczne, które wykorzystują zjawisko fotowoltaiczne do zamiany światła na prąd elektryczny. Każde małe ogniwo wytwarza mały prąd, ale duża liczba ogniw, wzajemnie połączonych jest w stanie wytworzyć prąd o użytecznej mocy. Ogniwa są zbudowane z cienkich warstw półprzewodników, zwykle z krzemu. Czasem wykorzystuje się arszenik galu, ponieważ pozwala na pracę ogniw o wysokich temperaturach. Jest to istotne w zastosowaniach w przestrzeni kosmicznej, gdzie promieniowanie słoneczne jest dużo silniejsze.
Elektrownie słoneczne odznaczają się wysokimi kosztami eksploatacyjnymi, co powoduje, że większe nadzieje wiąże się z wykorzystaniem energii słonecznej w małych instalacjach, do produkcji ciepłej wody. Kolektory słoneczne umieszczone na dachu domu umożliwiają ogrzanie wody do 40°C, co przy ogrzewaniu podłogowym wystarcza do ogrzania całego domu Większe kolektory słoneczne, podgrzewające wodę do temperatury 65°C. Wykorzystywane są w rolnictwie, do ogrzewania basenów kąpielowych oraz do wytwarzania ciepłej wody tam, gdzie nie ma systemów ciepłowniczych.

Ogniwa słoneczne są niezawodne. Raz zamontowane nie wymagają konserwacji przez wiele lat.
Ze względu na fizyko-chemiczną naturę procesów przemianom energetycznych promieniowania słonecznego na powierzchni Ziemi wyróżnić można trzy podstawowe i pierwotne rodzaje konwersji:

Konwersja fotochemiczna
Procesy konwersji fotochemicznej zapewniają nieprzerwaną produkcję biomasy, która może być w dalszych procesach biochemicznych i termo chemicznych przekształcona w energie cieplną, elektryczną lub paliwa płynne.

.: Konwersję fototermiczną energii promieniowania słonecznego wykorzystuje się do bezpośredniej produkcji ciepła dwoma sposobami: sposobem pasywnym i aktywnym W obu przypadkach zamiana energii promieniowania słonecznego odbywa się w absorberach.. Systemy pasywne do swego działania nie potrzebują dodatkowej energii z zewnątrz natomiast system aktywny tak , zwykle do napędu pomp przetłaczających czynnik roboczy przez kolektor słoneczny. Funkcjonowanie kolektora słonecznego jest związane z podgrzewaniem przepływającego przez absorber czynnika roboczego, który przenosi i oddaje ciepło w części odbiorczej instalacji grzewczej

Konwersja fotowoltaiczna polega na bezpośredniej zamianie energii promieniowania słonecznego na energię elektryczną. Odbywa się to dzięki wykorzystaniu tzw. efektu fotowoltaicznego polegającego na powstawaniu siły elektromotorycznej w materiałach o niejednorodnej strukturze.

Energia wiatru.

Energia wiatru jest najbardziej znaną, energią niekonwencjonalną, jeżeli chodzi o stosowanie jej dość powszechnie w gospodarstwach domowych, czy w elektrowniach wiatrowych.
Wiatr jest zjawiskiem powszechnym i wykorzystywanym przez ludzi na ich użytek już od tysięcy lat. Szacuje się, że globalny potencjał energii wiatru jest równy obecnemu zapotrzebowaniu na energię elektryczną prędkość wiatru, a więc i energia jaką można z niego czerpać, ulega zmianom dziennym, miesięcznym i sezonowym. Energia z wiatru dostępna wówczas, gdy jest potrzebna.

Od czasu kryzysu energetycznego (1973 r.) powstało na świecie tysiące instalacji wykorzystujących wiatr do produkcji energii elektrycznej. Najwięcej w Niemczech, 5850.i Danii 4700. siłowni wiatrowych O opłacalności tych instalacji decyduje duża prędkość wiatru i stałość jego występowania w danym miejscu min prędkość wiatru nie może być mniejsza niż 2m/s. Elektrownie wiatrowe nie są “liderem” jeśli chodzi o wydajność. Aby uzyskać 1MW mocy, wirnik turbiny powinien mieć średnicę ok. 50 metrów. Ponieważ duża konwencjonalna elektrownia ma moc sięgającą nawet 1GW , to jej zastąpienie wymagałoby użycia nawet 1000 takich generatorów wiatrowych.

Plusy i minusy zastosowania elektrowni wiatrowych
Plusy wypieranie z sieci energetycznej mocy tradycyjnych el , wiatr czyste źródło energii nie emitujące żadnych zanieczyszczeń , cena energii wiatrowej jest tańsza od konwencjonalnych el cieplnych, przemysł el wiatrowej tworzy nowe miejsca pracy dla wysoko kwalifikowanych pracowników, rozwija nowoczesne technologie , małe turbiny są doskonałym źródłem energii w miejscach oddalonych centrów cywilizacyjnych

Minusy zmiany krajobrazu, hałas zagrożenie dla wędrownego ptactwa

Ele wodne . woda na kuli ziemskiej stanowi większość. Dlatego siła wodna znalazła dość duże zastosowanie w procesie otrzymywania energii. turbiny wodne napędzają potężne generatory wielkich elektrowni wodnych. Energetyka wodna wykorzystuje potencjał grawitacyjny cieków Budowa dużych elektrowni wodnych związana jest z ogromnymi nakładami
Korzyści z energetycznego wykorzystania wody
• wytwarzanie “czystej” energii elektrycznej – brak emisji jakichkolwiek gazów lub wytwarzania ścieków;
• zużywanie niewielkich ilości energii na potrzeby własne, ok. 0,5-1%, przy ok.10% w przypadku elektrowni tradycyjnych;
• charakteryzują się niewielką pracochłonnością – do ich obsługi wystarcza sporadyczny nadzór techniczny;
energia z MEW może być wykorzystywana przez lokalnych odbiorców tak, że można mówić o minimalnych stratach przesyłu;
• mogą stanowić awaryjne źródło energii w przypadku uszkodzenia sieci przesyłowej;
• regulują stosunki wodne w najbliższej okolicy, co może mieć wpływ na obszary rolnicze;
• budowa budowli piętrzącej powoduje powstanie zbiornika wodnego, który stając się cennym elementem krajobrazu może decydować o rozwoju turystyki i rekreacji w danym regionie;
• pobudzają aktywność w środowisku wiejskim (nowe miejsca pracy, obiekty towarzyszące);
• budowla piętrząca może również w pewnym stopniu osłabić wielkość zatapiania okolic w przypadku występowania powodzi.
Negatywne oddziaływanie elektrowni wodnych:
• zmniejszenie naturalnego przepływu wody może wpłynąć niekorzystnie na istniejącą biocenozę rzeki
• w przypadku podniesienia poziomu wody może wystąpić erozja brzegów zatapianie nadbrzeżnych siedlisk lęgowych ptaków.

Aktualnie wykorzystuje się również energię pływów morskich, fal morskich oraz energię cieplną mórz. Przewiduje się wykorzystanie energii prądów morskich.. Wykorzystanie fal morskich można wykorzystać na wiele sposobów, np.:
• pływak poruszany w górę i w dół, w miarę falowania powierzchni wody. Ruch ten napędza pompę, która dostarcza wodę pod ciśnieniem na turbinę, zasilając generator.
• elektrownia, działająca na zasadzie oscylującego słupa wody. Współzanurzona , otwarta u dołu komora wypełniona jest do pewnej wysokości wodą, a nad nią znajduje się powietrze. Gdy fala przepływa, podnosi słup, który wypycha powietrze na powierzchnię. Ten ruch popędza turbinę, zasilającą
generator. Dogodne ujścia rzek do morza, umożliwia budowę elektrowni wodnych wykorzystujących siłę pływów. Zasada działania jest podobna do działania zwykłej elektrownii wodnej- obracająca turbina połączona z generatorem.
Energię uzyskuje się też przez wykorzystanie różnicy temperatury wody oceanicznej na powierzchni i w głębi oceanu.. Cała instalacja, wraz z generatorem, znajduje się na pływającej platformie i nosi nazwę elektrowni maretermicznej. Energia elektryczna jest przesyłana na ląd kablem podmorskim.

*energia geotermalna*
. W ostatnich latach wydatnie wzrosło na świecie wykorzystanie energii geotermalnej. Dzięki postępowi technicznemu geotermika staje się coraz tańsza, a przez to bardziej ekonomiczna.
Energia geotermalna jest obecna praktycznie w każdym zakątku Ziemi. Jednak jej wykorzystanie nie zawsze jest możliwe ze względu na skład chemiczny wody, problemy techniczne lub finansowe, pomimo iż potencjał geotermalny jest 380.000 razy większy niż całkowite roczne zużycie energii pierwotnej na świecie. Od temperatury zależy możliwość wykorzystania wód termicznych do różnych celów. Wody o bardzo wysokiej temperaturze, w postaci pary wykorzystywane są do produkcji elektryczności. Wody o niższej temperaturze stosuje się głównie do ogrzewania lub chłodzenia pomieszczeń W przemyśle używa się wód geotermalnych do: produkcji papieru, pasteryzacji mleka, hodowli grzybów i ryb. Wody goetermalne uważane są powszechnie za odnawialne źródło energii.
**Energia Biogazu**
Biogaz nadający się do celów energetycznych może powstawać w procesie fermentacji beztlenowej
• odpadów zwierzęcych w biogazowniach rolniczych, • osadu ściekowego na oczyszczalniach ścieków,
• odpadów organicznych na komunalnych wysypiskach śmieci. Biogaz o dużej zawartości metanu
(powyżej 40%) może być wykorzystany do celów użytkowych, głownie do celów energetycznych lub w innych procesach technologicznych. Typowe przykłady wykorzystania obejmują:• produkcję energii elektrycznej w silnikach
iskrowych lub turbinach, • produkcję energii cieplnej w przystosowanych kotłach gazowych,
• produkcję energii elektrycznej i cieplnej w jednostkach skojarzonych, • dostarczanie gazu wysypiskowego do sieci gazowej, • wykorzystanie gazu jako paliwa do silników trakcyjnych/ pojazdów, 001• wykorzystanie gazu w procesach technologicznych, np. w produkcji metanolu.

Posted in Uncategorized | Leave a comment

Układ słoneczny

UKŁAD SŁONECZNY, zespół ciał niebieskich, poruszających się w przestrzeni wraz ze Słońcem, powiązanych siłami wzajemnych oddziaływań, z których najsilniejsze jest grawitacyjne oddziaływanie Słońca. Ciałem centr., skupiającym prawie całą (99, 87%) masę Układu Słonecznego jest Słońce, obiegane przez 9 planet (Merkury, Wenus, Ziemia, Mars, Jowisz, Saturn, Uran, Neptun, Pluton);7 planet ma krążące wokół nich satelity naturalne. Między orbitami Marsa i Jowisza rozciąga się pas planetoid, z których część, poruszając się po orbitach silnie wydłużonych, zbliża się do Słońca bardziej niż Ziemia. Odrębne grupy ciał Układu Słonecznego tworzą meteoroidy oraz komety, których przynajmniej część może być traktowana jako stały składnik Układu Słonecznego. W przestrzeni międzyplanetarnej jest obserwowany pył w postaci światła zodiakalnego; rejestruje się także istnienie strumieni gazu międzyplanetarnego, płynącego od Słońca w postaci wiatru słonecznego z prędkością kilkuset km/s. Przestrzeń międzyplanetarna jest przeniknięta polem magnet., którego linie sił są wynoszone ze Słońca wraz z materią. Rozmiary Układu Słonecznego, określone średnicą orbity Plutona, wynoszą ok. 12 mld km (80 jednostek astr.), ale wiele komet obiega Słońce po orbitach o półosiach rzędu kilkudziesięciu tys. jednostek astr.; masa Układu Słonecznego wynosi 1, 994*1030 kg (w tym Słońce 1, 991*1030 kg, Jowisz 1, 90*1027 kg). Układ Słoneczny bierze udział w obrocie Galaktyki, obiegając jej jądro w ciągu ok. 200 mln lat, w przybliżeniu po kole o promieniu ok. 10 kpc z prędkością ok. 250 km/s. Układ Słoneczny znajduje się ok. 15pc na pn. od płaszczyzny równika Galaktyki. W stosunku do najbliższych gwiazd Układ Słoneczny porusza się z prędkością ok. 20 km/s w kierunku gwiazdozbioru Herkulesa. Według współcz. teorii, cały Układ Słoneczny powstał równocześnie, z jednego obłoku materii protosłonecznej. Prawdopodobnie, w wyniku wybuchu znajdującej się w jego pobliżu gwiazdy supernowej, został zapoczątkowany proces grawitacyjnego zapadania się obłoku połączony z równoczesnym wzbogacaniem w najcięższe pierwiastki. W miarę kurczenia się obłok przyjął kształt wirującego dysku, w którego środku uformowało się Słońce, a obiegające je cząstki pyłu, w wyniku wzajemnych zderzeń, sklejały się stopniowo ze sobą, tworząc coraz większe twory; wśród nich część stała się zarodkami planetarnymi; wskutek wzajemnych oddziaływań grawitacyjnych zarodki te łączyły się tworząc w ciągu paruset milionów lat planety. Mniejsze twory przetrwały w postaci planetoid, komet i meteoroidów.

POWSTANIE UKŁADU SŁONECZNEGO
Powstawanie gwiazd. Gwiazdy powstają w gigantycznych kompleksach (obłokach) gazowo-pyłowych o masach rzędu 100 tys. mas Słońca i rozmiarach do 50 pc (parsek). Z kompleksów tych wydzielają się obłoki molekularne o temperaturze około 10 K, zbudowane głównie z wodoru (pył stanowi mniej niż 1% masy). Obłoki molekularne pozostają w równowadze z otaczającymi je obłokami mniej gęstego, ale gorętszego gazu. Naruszenie tej równowagi, które może być spowodowane siłami przypływowymi, z jakimi działają na obłoki blisko przechodzące gwiazdy, wybuchem supernowej lub wiatrem gwiezdnym, zapoczątkowuje fragmentację obłoków; fragmenty zapadają się grawitacyjnie (zagęszczają), co prowadzi do powstania gwiazd (tzw. protogwiazd). Zagęszczanie się szybko wirującego lub bardzo masywnego fragmentu prowadzi do powstania gwiazd podwójnych lub krotnych. Wokół pojedynczej gwiazdy powstają też, podczas gwałtownego zapadania się wirującej protogwiazdy o odpowiednim (nie za małym i nie za dużym) momencie pędu, dyski protoplanetarne (spłaszczone mgławice gazowe). Układ Słoneczny powstał z fragmentu obłoku o masie około 1, 1 masy Słońca. Z danych kosmochemicznych wynika, że Słońce jest gwiazdą drugiej lub trzeciej generacji; oznacza to, że zostało utworzone nie z materiału pierwotnego, powstałego podczas Wielkiego Wybuchu (Wielkiego Wybuchu teoria), ale z materiału przetworzonego we wnętrzach poprzednich gwiazd. Pierwiastki ciężkie, stanowiące główny materiał planet, mogły powstać tylko we wnętrzach gwiazd lub w trakcie wybuchu supernowych.
Powstawanie planet. Proces powstawania planet można podzielić na pięć etapów.

1.Powstanie dysku wokół protosłońca Dysk powstawał w trakcie wzrostu fragmentu obłoku o największym zagęszczeniu materii, umieszczonego w środku układu tzw. protosłońca, z jego zewnętrznych, równikowych obszarów. Moment pędu z wnętrza protosłońca przekazywany był na powierzchnię. Uzyskując odpowiedni moment pędu równikowe pierścienie odrywały się od protosłońca tworząc wirujący obłok protoplanetarny. Mechanizm przekazywania momentu pędu był efektywny obecnie Słońce stanowiące ponad 99% całej masy Układu ma moment pędu stanowiący mniej niż 2% jego całego momentu pędu (98% stanowi ruch planet). Gdy temperatura we wnętrzu protogwiazdy osiągnęła 10 mln K, rozpoczęła się jądrowa przemiana wodoru w hel (tzw. spalanie wodoru). Słońce rozbłysło i proces zapadania zatrzymał się. Proces powstawania dysku protoplanetarnego o rozmiarze naszego Układu
Trwał prawdopodobnie około milion lat.
2.Kondensacja pyłu w różnych rejonach dysku Grubość dysku rosła z odległością od Słońca, a temperatura i gęstość malały. Materia stała (pył) z obłoku mogła ulec odparowaniu wewnątrz protosłońca. W dysku zachodził złożony proces ponownej kondensacji pyłu. W obszarze bliskim Słońca (wewnątrz orbity Marsa) temperatura była wysoka i mogły tam kondensować tylko cięższe pierwiastki i związki: tlenki wapnia glinu i tytanu, metaliczne żelazo i nikiel, glinokrzemiany litowców, tlenek żelaza oraz krzemiany magnezowo-żelazowe. Dalej, w zimniejszych rejonach, kondensowały także woda, amoniak i metan. To tłumaczy, dlaczego skład planet zmienia się z odległością od Słońca.
3.Opadanie pyłu w kierunku płaszczyzny centralnej Drobniutkie ziarna pyłu unosiły się w gazie i spotykając ze sobą łączyły się wskutek działania sił elektrostatycznych. W ten sposób utworzyły się większe ziarna materii stałej, których już gaz nie był w stanie unosić. Krążąc razem z dyskiem wokół Słońca ziarna powoli opadały ku płaszczyźnie centralnej zwiększając jednocześnie swoją masę w wyniku łączenia się z innymi ziarnami. Czas opadania był rzędu tysiąca lat. Rozmiary ziaren zwiększyły się z 10-5 cm aż do kilku cm.
4.Tworzenie się planetezymali W centralnej płaszczyźnie dysku powstała gęsta warstwa ziaren materii stałej. Gdy gęstość stała się dostatecznie duża, warstwa przestała być stabilna i uległa rozpadowi na wiele niezależnych fragmentów. Każdy taki fragment (zgęszczenie pyłu i ziaren) wędrował wokół Słońca, wirował wokół swojej osi i utrzymywał się w równowadze dzięki samograwitacji. Napotykając na inne zgęszczenia łączył się z nimi zwiększając swoją masę. Wreszcie masa fragmentu stała się tak duża, że samograwitacja spowodowała jego szybkie zapadanie się i powstanie stałej bryły o rozmiarach rzędu km, tzw. planetezymala. Etap ten trwał około 100 tys. Lat.
5.Łączenie się planetezymali i powstanie planet Planetezymale były dostatecznie duże, aby ich wzajemne oddziaływania grawitacyjne stały się istotne. Największe z nich najszybciej wyłapywały mniejsze ciała i stawały się zarodkami przyszłych planet. Początkowo wzrastały powoli, potem, gdy ich masa zwiększała się, coraz szybciej; gdy większość ciał w ich obszarze oddziaływania uległa wychwyceniu, proces ten ulegał znowu spowolnieniu. W ten sposób powstały planety grupy ziemskiej i jądra planet wielkich. Gaz został wymieciony z Układu podczas fazy T-tauri (okresu intensywnego promieniowania Słońca). Jądra planet wielkich, ze względu na ich większą odległość od Słońca, zdążyły wychwycić część gazu stając się planetami gazowymi. Ten etap powstawania planet był najdłuższy i trwał około 100 mln lat.

Powstanie Układu Słonecznego pytania. Przedstawiony został ogólny schemat powstawania planet wokół pojedynczej gwiazdy. Zastosowanie go do naszego Układu wymaga odpowiedzi na szereg pytań. Oto najważniejsze z nich.

1.Dlaczego w pasie planetoid nie powstała planeta? Prawdopodobnie Jowisz, znajdujący się najbliżej na zewnątrz pasa planetoid, uformował się najszybciej. Oddziaływania grawitacyjne Jowisza spowodowały wzrost prędkości planetezymali w rejonie planetoid. Zderzenia planetezymali zachodziły więc z dużymi prędkościami i nie powodowały ich łączenia, a raczej rozpad. Wiele planetezymali z rejonu planetoid i Marsa zostało ponadto przechwyconych przez Jowisz lub wyrzuconych poza Układ Słoneczny.
2.Jak powstały satelity planet (księżyce)? Księżyce wokół planet wielkich powstały w podobny sposób jak rlanety wokół Słońca, tj. z dysków okołoplanetarnych, utworzonych z rozdrobnionej materii wychwyconej na orbity formujących się planet. Dwa małe księżyce Marsa są planetoidami, które weszły na orbitę tej planety. Najtrudniej jest wyjaśnić powstanie naszego Księżyca. Mógł on powstać w wyniku zderzenia z Ziemią ogromnego planetezymala, spowodowało ono wyrzucenie na orbitę okołoziemską części lekkiej materii płaszcza Ziemi, która skupiła się na orbicie tworząc Księżyc. Teoria ta tłumaczy też fakt, iż Ziemia ma dużą gęstość (większą niż Merkury i Wenus, choć jest dalej od Słońca), a Księżyc małą.
3.Jak powstały komety? Jądra komet stanowią planetezymale lodowe powstałe między Saturnem a Plutonem. Wiele z nich zostało wyrzuconych z naszego Układu w wyniku oddziaływania grawitacyjnego formującego się Uranu i Neptuna. Część z nich na zawsze opuściła Układ Słoneczny, pozostałe krążą wokół Słońca w ogromnej od niego odległości 100 tys. jednostek astronomicznych, tworząc tzw. chmurę Oorta. Wskutek oddziaływań z bliskimi gwiazdami planetezymale lodowe mogą nurkować w nasz Układ Słoneczny stając się kometami.
4.Dlaczego Wenus i Uran wirują wokół swoich osi w przeciwną stronę niż inne planety? Ruch orbitalny i wirowy planet wynika z pierwotnego momentu pędu obłoku protoplanetarnego. Uran prawdopodobnie uległ zderzeniu z wielkim ciałem, co spowodowało duże nachylenie (82°) jego osi obrotu do płaszczyzny orbity oraz zmianę kierunku wirowania. Kierunek ruchu wirowego Wenus można tłumaczyć przechwyceniem przez nią satelity, który krążył w przeciwną stronę i zmianą kierunku pod działaniem sił pływowych.

Planetoidy, asteroidy, ciała niebieskie mniejsze od planet, poruszające się po orbitach eliptycznych wokół Słońca, głównie w pasie leżącym pomiędzy orbitami Marsa i Jowisza. Planetoidy zbudowane są ze skał, świecą odbitym światłem słonecznym (przyjmuje się średnie albedo 0, 24). Pierwszą planetoidę, Ceres, odkrył w 1801 J. Piazzi. Obecnie znanych ich jest kilka tysięcy. Najsłynniejsze z nich to planetoidy duże: wspomniana już Ceres (średnica 768 km), Pallas (489 km), Westa (385 km), Juno (193 km) oraz planetoidy okresowo zbliżające się do Ziemi: Ikar, Amor, Eros. Na uwagę zasługują również planetoidy tworzące grupę Trojańczyków – krążą one wokół Słońca w odległości równej odległości Jowisza, spełniając zarazem szczególne rozwiązanie zagadnienia trzech ciał. Przypuszcza się, że w Układzie Słonecznym istnieje w sumie kilkadziesiąt tysięcy planetoid.

Komety, ciała niebieskie należące do Układu Słonecznego, poruszające się po wydłużonych elipsach (komety okresowe lub eliptyczne), czasem nieodróżnialnych od parabol. Istnieje hipoteza, że w dużej odległości od Słońca, lecz ciągle w zasięgu jego oddziaływania grawitacyjnego, znajduje się obłok materii, stanowiący źródło komet (Oorta obłok). Daleko od Słońca kometa jest bryłą pyłowo-lodową o rozmiarach rzędu od jednego do kilkudziesięciu km, po zbliżeniu się do Słońca (na odległość kilku AU) substancje lotne parują lub sublimują z powierzchnią i pojawia się gazowa głowa (o średnicy rzędu kilkudziesięciu tysiecy kilometrów) oraz warkocz komety: odchylony i częściowo porwany przez wiatr Słoneczny obłok rozrzedzonego gazu rozciągający się na odległości wynoszące miliony kilometrów. Gęstość materii w warkoczu komety jest wyższa od otaczającej przestrzeni jedynie o czynnik rzędu kilku tysięcy.

Meteor, seria rosyjskich satelitów meteorologicznych, wchodzących w skład sieci ogólnoświatowej Meteor, stanowiących udoskonalone wersje obiektów wysyłanych pierwotnie w ramach serii Kosmos (Kosmos 122, 144). Satelity Meteora są wprowadzane na orbitę prawie biegunową, zsynchronizowaną z położeniem Słońca na niebie, tak że zwykle pojawiają się nad wybranymi obszarami Ziemi w porze dziennej. Starty kolejnych Meteorów następują w takich okresach, aby płaszczyzny ich orbit były parami prostopadłe do siebie. Dzięki temu układ 2 satelitów umożliwia uzyskiwanie informacji meteorologicznych z danego obszaru Ziemi co 6 godzin, a w ciągu doby – z poł. powierzchni globu.

Pył międzygwiazdowy, składnik materii międzygwiazdowej podobny do pyłu w potocznym znaczeniu tego słowa. Zbiorowisko cząstek (o nieznanym dotychczas składzie chemicznym) o rozmiarach rzędu 0, 0001 mm. Obecność międzygwiazdowego pyłu w jakimś obszarze nieba powoduje osłabienie światła gwiazd i in. obiektów kosmicznych znajdujących się za danym obłokiem międzygwiazdowego pyłu. Powoduje również jego poczerwienienie, ponieważ rozprasza silniej promieniowanie krótkofalowe niż długofalowe, czyli żółte i czerwone.

Gaz międzygwiazdowy, składnik gazowy materii międzygwiazdowej o składzie chemicznym zbliżonym do atmosfery większości gwiazd. 50-70% międzygwiazdowy gaz stanowi wodór, resztę hel i pierwiastki ciężkie, których zawartość szybko spada ze wzrostem masy atomowej. Skład chemiczny poszczególnych obłoków międzygwiazdowego gazu może się znacznie różnić, jednakże głównym jego składnikiem jest z reguły wodór międzygwiazdowy. O obecności w międzygwiazdowym gazie różnych pierwiastków wnioskuje się głównie z obserwacji widm gwiazd (widmo emisyjne) znajdujących się za obłokiem międzygwiazdowego gazu: jego obecność na drodze promieni otrzymywanych od gwiazdy wywołuje powstawanie w widmach gwiazd absorpcyjnych linii międzygwiazdowych, dających się stosunkowo łatwo odróżnić od linii powstających w atmosferze gwiazd. Identyfikując te linie i mierząc ich względne natężenia dochodzi się do jakościowego i ilościowego ustalenia składu chemicznego i stanu fizycznego międzygwiazdowego gazu. Obecność wodoru w międzygwiazdowym gazie wykrywa się innymi metodami. Średnia gęstość międzygwiazdowego gazu w pobliżu płaszczyzny Galaktyki wynosi 10-21 kg/m3, co jest równoważne ok. 1 atomowi na 1 cm3. Jego temperatura waha się do kilkunastu tys. stopni Kelvina.

Księżyce planet, małe planety lub planetoidy związane grawitacyjnie z poszczególnymi planetami Układu Słonecznego. Księżyców nie posiadają Merkury i Wenus. Liczbę (po pauzie) i nazwy (po dwukropku) księżyców pozostałych planet podajemy niżej.
·Ziemia – 1: Księżyc.
·Mars – 2: Phobos i Deimos.
·Jowisz – 16: Io, Europa, Ganimedes, Kallisto, Amalthea, Himalia, Elara, Pasiphae, Sinope, Lysithea, Carme, Ananke, Leda, Thebe, Adrasthea, Metis.
·Saturn – 20 pewnych: Mimas, Enceladus, Tethys, Dione, Rhea, Titan, Hyperion, Iapetus, Phoebe, Janus, Epimetheus, Dione, Telesto, Calypso, Atlas, Prometheus, Pandora oraz kolejne o tymczasowych kodowych nazwach zawierających rok odkrycia, S, nr kolejny dla danego roku.
·Uran – 15: Ariel, Umbriel, Titania, Oberon, Miranda i 10 kolejnych o nazwach tymczasowych, nadawanych podobnie jak dla księżyców Saturna, literę S zastępuje U.
·Neptun – 2: Tryton i Nereida.
·Pluton – 1: Charon.

Prędkości kosmiczne.

Pierwsza prędkość kosmiczna – to prędkość w kierunku poziomym jaką należy nadać ciału, aby obiegało Ziemię po okręgu o możliwie najmniejszym promieniu (r). Aby taki ruch mógł się odbywać, na satelitę musi działać siła odśrodkowa:

Rolę siły dośrodkowej spełnia siła grawitacyjna (Fg):

W rzeczywistości satelita musi latać na wysokości (h) równej minimum 160 km. nad Ziemią, by nie ulegać hamowaniu w atmosferze.

Pierwsza prędkość kosmiczna jest jednakowa dla wszystkich ciał nie zależy bowiem od masy satelity.

Druga prędkość kosmiczna to prędkość najmniejsza jaką należy nadać ciału wyrzuconemu z Ziemii, aby oddaliło się do nieskończoności.

W nieskończoności prędkość tego ciała będzie równa zeru, ciało wyrzucone zaś z prędkością większą niż druga prędkość kosmiczna nie utraci całkowicie swej prędkości w nieskończoności. Energia mechaniczna ciała wyrzuconego z drugą prędkością kosmiczną będzie w nieskończoności równa zeru.

Zasada zachowania energii:

Druga prędkość kosmiczna jest o pierwiastek z dwóch większa od pierwszej i podobnie jak ona jest niezalezna od masy. Wartość drugiej prędkości kosmicznej (V2) nie zależy od kierunku wyrzucenia ciała, bowiem zasada zachowania energii spełniona jest niezaleznie od toru ciała w polu grawitacyjnym. Tym samym praca wykonana przez siłę pola nie zależy od kształtu drogi.

Keplera prawa, trzy prawa sformułowane przez J. Keplera, opisujące ruch planet w Układzie Słonecznym:
I prawo Keplera: planety poruszają się po orbitach eliptycznych, przy czym Słońce znajduje się w jednym z ognisk elipsy.
II prawo Keplera: dla danej planety stałą wielkością jest jej tzw. prędkość polowa (tj. pole powierzchni figury ograniczonej łukiem elipsy zakreślanym przez planetę w jednostce czasu i odległościami od końców łuku do ogniska).
III prawo Keplera: kwadraty okresów obiegów planet wokół Słońca są proporcjonalne do trzecich potęg ich średnich odległości od Słońca.

Posted in Uncategorized | Leave a comment

Atom wodoru Bohra

Duńczyk Niels Bohr był najwybitniejszym fizykiem spośród tych, którzy wzięli udział w stworzeniu teorii kwantów. Niels Bohr odegrał decydującą rolę w transformacji, jakiej uległa fizyka w XX w. Około 1913 r. opracował model atomu, który zyskał duże uznanie, a w połowie lat dwudziestych uczestniczył w narodzinach nowej teorii kwantów – matematycznej interpretacji wewnątrzatomowej rzeczywistości – która do dziś pozostała w fizyce teorią dominującą. Fizyka kwantowa, a zwłaszcza tak zwana interpretacja kopenhaska nowej teorii, odniosła ogromny sukces, wpływ zaś Bohra miał dla jej akceptacji znaczenie decydujące. Wszystkie wielkie osiągnięcia chemii i elektroniki oraz rozwój energetyki jądrowej wywodzą się z teorii kwantów. Jej następstwem jest również obecne zbliżenie fizyki, kosmologii i biologii. Ogromne znaczenie teorii kwantów wynika także z jej filozoficznych implikacji. Niels Bohr położył kres usilnym dążeniom do odkrycia ostatecznej” rzeczywistości. Według Bohra błędem jest pogląd, że zadaniem fizyki jest wykrycie, jaka jest przyroda. Fizyka dotyczy tego, co możemy powiedzieć o przyrodzie””. Rewolucja w poglądach na budowę atomu w 1911 r. była już faktem. Temat pracy doktorskiej Bohra dotyczył teorii elektronów, odkrytych mniej więcej dziesięć lat wcześniej przez J. J. Thomsona. Wiadomo było, że elektrony stanowią powszechnie występujący składnik materii. Thomson sugerował również, że liczba elektronów w atomie odpowiada jego masie i stanowi o różnorodności atomów trwałych pierwiastków. Bohr, współpracując w Anglii z Rutherfordem, opublikował trzy prace na temat budowy atomu, które zdecydowanie wpłynęły na dalszy rozwój fizyki. Model Rutherforda rozwiązał wprawdzie pewne istotne problemy, jednak wciąż brak było odpowiedzi na podstawowe pytanie: dlaczego elektrony – z całą pewnością przyciągane przez jądro – nie zostają w końcu przez nie wchłonięte. Mówiąc krótko, model Rutherforda nie wyjaśniał stabilności atomu, jednej z jego podstawowych cech. Bohr rozumiał, że klasyczna mechanika newtonowska nie może wyjaśnić zachowania materii w skali atomu, wobec czego zainteresował się kwantową teorią promieniowania ciała doskonale czarnego”, sformułowaną na przełomie wieku przez Maxa Plancka, którą zastosował Einstein do wyjaśnienia zachowania cząstek światła. W 1912 r., po stosunkowo krótkim okresie wytężonej pracy, Bohr wyjaśnił, dlaczego atom wodoru wysyła promienie świetlne, i opracował teorię wyjątkowo dobrze odpowiadającą faktom doświadczalnym. Bohr założył, że elektron wypromieniowuje światło tylko wówczas, gdy zmienia swoją orbitę, to znaczy emisja kwantu światła towarzyszy przeskokowi elektronu z jednej orbity znaczenie teorii kwantów wynika także z jej filozoficznych implikacji. Niels Bohr położył kres usilnym dążeniom do odkrycia ostatecznej rzeczywistości.

Postulaty Bohra
Bohr teorię swą oparł na dwu twierdzeniach , zwanych dziś postulatami Bohra.
Pierwszy z tych postulatów dotyczył wzajemnego położenia elektronu i jądra atomu wodoru.
1. Elektron w atomie wodoru znajduje się w ciągłym ruchu, może poruszać się tylko po ściśle określonych orbitach kołowych, na których nie może promieniować energii. Tylko takie orbity są dozwolone, dla których iloczyn długości orbity i pędu elektronu jest równy całkowitej wielokrotności stałej Plancka.
2 rmv=nh ; n=1,2,3…….
Drugi postulat dotyczy natomiast sposobu promieniowania i pochłaniania energii przez atom.
2. Przejściu elektronu z jednej orbity stacjonarnej na drugą towarzyszy emisja lub pochłoniecie kwantu energii równej różnicy energii elektronu na tych orbitach stacjonarnych.
E – E = hf, E=hf

Teoria Bohra
Na podstawie poznanych postulatów Bohr określił rozmiary dozwolonych orbit elektronowych w atomie wodoru, a także wyjaśnił nieciągłość promieniowania atomu wodoru.
Ponieważ elektron w atomie wodoru krąży po orbicie
Tak jak planeta wokół Słońca, siła oddziaływania kolu-
mbowskiego (Fe) między jądrem (ładunek elementarny dodatni e), a elektronem (ładunek elementarny ujemny –e) musi spełniać rolę siły dośrodkowej (Fr). Zatem:
Fe = Fr

Równanie Fe = Fr w połączeniu z pierwszym postulatem Bohra pozwala obliczyć promienie orbit elektronowych, jak również prędkości elektronów i energie kinetyczne na tych orbitach.

Rozwiązanie tego układu równań względem r daje:

Wartość ułamka w powyższym wzorze jest stała i wynosi 0,53*10 m. Zatem dozwolone promienie orbit elektronowych w atomie wodoru są określone równaniem:
r = 0,53*10 m*n, n=1,2,3…….

Promień pierwszej orbity otrzymujemy przez podstawienie n=1, drugiej przez podstawienie n=2 itd.
Rozwiązaniem układu równań względem v pozwala obliczyć energię kinetyczną elektronu na dozwolonych orbitach.

Ponieważ elektron dzięki oddziaływaniu z jądrem ma również energię potencjalną

Wobec tego całkowita energia elektronu na orbicie wynosi
A po podstawieniu wartości za r

Widzimy, że energia może przybierać tylko niektóre wartości, wyznaczone wartością liczby n. Z powyższego równania wynika także że najmniejsza wartość energii odpowiada pobytowi elektronu na pierwszej orbicie (n=1). Mówimy wtedy, że atom jest w stanie podstawowym. Na każdej dalszej orbicie energia elektronu jest większa i wtedy atom znajduje się w stanie wzbudzenia. Wzbudzone atomy mają zdolność do promieniowania energii, natomiast by osiągnąć stan wzbudzenia atom musi pochłonąć odpowiednią ilość energii.
Równanie używane do obliczenia częstotliwości lub długości fali promieniowanej w przypadku dowolnego przejścia między dwoma dowolnymi dozwolonymi orbitami w atomie wodoru.

Posted in Uncategorized | Leave a comment