Dyfuzja

Dyfuzja jest to samorzutne przenikanie cząsteczek jednej fazy układu w głąb fazy drugiej, spowodowane bezładnym ruchem cieplnym, a także większych cząstek zawieszonych w płynach.
Dyfuzja zachodzi w każdej temperaturze. Obserwujemy ją pomiędzy gazami, cieczami i ciałami stałymi. Szybkość dyfuzji wzrasta przy podwyższaniu temperatury. Jest ona przeciętnie o kilka rzędów wielkości większa w przypadku gazów, a z koleji o kilka rzędów wielkości mniejsza w przypadku ciał stałych w porównaniu z szybkością dyfuzji w cieczach. Przenikanie cząsteczek lub cząstek może być:
jednokierunkowe (dyfuzja jednokierunkowa),
dwukierunkowe (dyfuzja dwukierunkowa).
Zjawisko to uwarunkowane jest stężeniem na granicy zetknięcia dwóch faz i prowadzi do wyrównania stężeń w układzie oraz do utworzenia – jeśli jest to możliwe – jednorodnych mieszanin (roztworów) stałych, ciekłych i gazowych.
Dyfuzja jednokierunkowa zachodzi w procesach obróbki cieplnej jak nawęglanie i azotowania stali, przy tworzeniu się roztworów stałych metali, przy przenikaniu gazów przez metale, przy pochłanianiu gazu w cieczy oraz zjawiskach osmozy. Osmoza jest to jednokierunkowa dyfuzja cząsteczek rozpuszczalnika przez błonę półprzepuszczalną (np. komórki roślinnej lub zwierzęcej) z roztworu o mniejszym stężeniu (lub z czystego rozpuszczalnika) do rostworu bardziej stężonego. Przykładami dyfuzji dwukierunkowej są:
nieograniczone mieszanie się gazów,
tworzenie się roztworów ciekłych w granicach rozpuszczalności lub wzajemnej mieszalności składników.
Dyfuzję można zaobserwować na różnych przykładach np. jeśli położymy na sobie płytkę złota i srebra to po upływie kilkunastu miesięcy można zauważyć w złocie cząsteczki srebra i na odwrót. Dyfuzję wykorzystuje się często np. gdy chcemy zabarwić ubranie na ulubiony kolor lub jeśli chcemy, aby nasz ulubiony zapach rozniósł się po całej przestrzeni. Dyfuzję wykorzystuje się również w technice przy produkcji półprzewodnikowych elementów elektronicznych. Stosowane swą też dyfuzyjne pompy próżniowe służące do wypompowywania powietrza lub gazów ze zbiorników, w pompie tej wykorzystane jest zjawisko dyfuzji cząsteczek gazu do strumienia przepływającej pary substancji o małej lotności (np. rtęć).

Posted in Uncategorized | Leave a comment

Stany skupienia wody

Woda występuje najczęściej w postaci cieczy, jednak może być ona również ciałem stałym (lód lub snieg), a także gazem (para wodna).Prawie wszystkie substancje mogą przechodzić z jednego stanu skupienia w inny.Rozróżnia się następujące przejścia fazowe wody :

 ze stanu stałego w ciekły – topnienie
 ze stanu ciekłego w stały – krzepnięcie
 ze stanu ciekłego w gazowy – parowanie
 ze stanu gazowego w ciekły – skraplanie
 ze stanu stałego w gazowy – sublimacja
 ze stanu gazowego w stały – resublimacja

Stan stały – lód lub snieg.
Lód lub śnieg występują poniżej 0 o C tzw.temp. topnienia. W przyrodzie występują w zimie lub cały czas na obu biegunach.Mają właściwości jak każde ciało stałe tzn.mają określony kształt, trudno zmienić ich objętość.Lód pow- staje ze schłodzonej wody czyli przez krzepnięcie lub przez resublimację.Lód tak samo jak woda i para wodna nie ma koloru, w dotyku jest zimny i jest ciałem kruchym np. kiedy uderzymy kawałek lodu młotkiem rozkruszy się na wiele drobnych kawałkow. Zjawisko zmiany obj.podczas przechodzenia z fazy ciekłej do fazy stałej wody (lód) pełni bardzo istotną rolę w przyrodzie.W szczególności dotlenienie gleby poprzez rozsadzanie zmarzniętych brył ziemi oraz zjawisko pękania skał.Śnieg podobnie jak lód powstaje ze schłodzonej wody lub pary wodnej.Ma kolor biały co można zauważyć podczas zimy.Na śniegu można wykonywać wiele sportów jak narciarstwo lub snowboard.

Stan cieczy – woda.
Woda występuje pomiędzy temp.0 o C i 100 o C.Jest ona najważniejszym składnikiem kuli ziemskiej.Bez niej nie mogły by rosnąć rośliny, żyć zwierzęta oraz ludzie.Woda jest wykorzystywana przez człowieka w wielu gałęźach przemysłu. Ma ona takie same właściwości jak inne ciecze.Nie ma okreslonego kształtu nie jest ściśliwa.Powstaje ona przez schłodzenie pary wodnej czyli skraplanie lub ogrzewanie lodu czyli topnienie.Woda występuje w postaciach jezior, rzek, oceanów itp.Woda jest rozpuszczalnikiem dla wielu ciał stałych np.dla cukru, soli, wapnia.Woda zajmuje więcej powierzchni na kuli ziemskiej niż kontynenty.Ludzie niestety nie potrafią docenić tej wspaniałej cieczy i wrzucają do wody chemikalia, odpady radioaktywne itp. Woda była przedmiotem wielu badań, które osiągnęły światową sławę.

Stan gazowy-para wodna.
Para występuje w każdej temperaturze. Im wieksza powierzchnia swobodna tym woda szybciej paruje. Para wodna tworzy się przez parowanie i powyżej 100o C czyli temp.wrzenia oraz przez sublimację czyli zamianę lodu w parę. Często para wodna mylona jest z mgłą, mgła to drobne kropelki wody, para wodna natomiast jest niewidoczna i tworzy się wszędzie. W krajach cieplejszych występuje więcej pary wodnej niż w krajach chłodniejszych dlatego Europejczykowi trudno jest się zaklimatyzować w Afryce lub w Azji. Parę wodną wykorzystuje się w silnikach parowych, używana jest też saunach do gorących kąpieli parowych. Zjawisko parowania jest jednym z podstawowych czynników istnienia przyrody. Woda parując tworzy obłoki pary w formie chmur, które zchłodzone opadają na ziemię pod postacią deszczu.

Posted in Uncategorized | Leave a comment

Sztuczne satelity i prędkość kosmiczna

SPIS TREŚCI
1.Spis treści s.1
2.Wstęp s. 2
3.Pojęcie satelity s. 3
4.Sputnik I, Sputnik II s.3
5.Rakiety s. 4
6.Zastosowanie satelitów s. 4
7.Satelity amerykańskie s. 5
8.Orbita satelitów s. 5
9.Jak zatelefonować przez satelitę s. 6
10.Landsat s. 6
11.Spot i Tirosy s. 7
12.GPS s. 7
13.Satelity szpiegowskie s. 8
14.Teleskop Hubble`a s. 8
15.I, II i III prędkość kosmiczna s. 9
16.Jak połączyć się z Internetem przez satelitę s. 10
17.Bibliografia s. 11
18.Rysunki, zdjęcia tabele itp.

Sztuczny satelita, co to takiego, do czego to służy. Jakie satelity w tej chwili istnieją a jakie były kiedyś. Prędkość kosmiczna, na czym to polega, czego to jest prędkość, czy to szybko.
Jeśli chcesz się tego wszystkiego dowiedzieć to przeczytaj cały referat. Naprawdę warto dowiesz się wielu ciekawych rzeczy i będziesz mądrzejszy.

Satelita jest to ciało niebieskie obiegające planetę. Natomiast sztuczny satelita nazywany inaczej sztucznym księżycem jest to obiekt wprowadzony przez człowieka na orbitę wokół planety. Jest to ciało, które obiega inny obiekt. Data, którą uznaje się za początek ery kosmicznej to 4 października 1957 roku. Wtedy to właśnie rakieta międzykontynentalna typu “Wostok” wyniosła Sputnika I na orbitę wokółziemską. Pierwszy sztuczny satelita został wystrzelony ze Związku Radzieckiego i obiegł ziemię na wysokości 900 km. Była to błyszcząca metalowa kula o średnicy 58 centymetrów, w środku jej znajdował się przekaźnik radiowy z którego przez 3 miesiące satelita wysyłał słabe sygnały na ziemię, które miały postać telegraficzną. Na satelicie znajdowały się 4 anteny radiowe o długości od 2,4-2,9 metra i każda ważyła 83,5 kilograma. Okrążał ziemię w ciągu 95 minut z prędkością 24,5 tysiąca km/h. 4 stycznia 1958 roku sputnik I wszedł w gęste warstwy atmosfery i spłonął. 3 listopada 1957 roku Rosjanie wysłali Sputnika II z psem Łajką na pokładzie. Satelita miał kształt kulisty i masę 508 kg. Okrążał ziemię po eliptycznej orbicie na wysokości od 224 do 1661 km. Łajka leżała w pojemniku o długości 100 cm i szerokości 80 cm, a specjalny system zapewniał jej tlen. Niestety, po 7 dniach pies zdechł z powodu wyczerpania się zapasów tlenu. Ten satelita miał na celu zbadanie wpływu nieważkości na organizm ssaka. Satelity jak już wspomniałem wynoszone są na orbitę przez rakiety. Pierwsza próba wystrzelenia samej rakiety bez satelity nastąpiła w 1942 roku w niemieckim zakładzie wojskowym. Wystrzelona została wtedy rakieta A4, która osiągnęła wysokość 205 kilometrów i prędkość 5400 kmh. Jej konstruktor stwierdził: “Dowiedliśmy, że napęd rakietowy jest użyteczny w podróżach międzyplanetarnych”. W starcie rakiety jest wykorzystywana III zasada dynamiki w następujący sposób: kiedy z silnika rakiety jest wyrzucona pewna masa w kierunku pionowym i zwrocie w dół to rakieta jest popychana w tym samym kierunku ale przeciwnym zwrocie i właśnie tak startuje rakieta. Kiedy rakieta spełni swoje zadanie nie nadaje się już do powtórnego wykorzystania. Rakiety zużywają bardzo duże ilości paliwa obudowa rakiety to 9% jej masy, ładunek to zaledwie 1%, a pozostałe 90% masy rakiety to materiał pędny. Satelity warte kilka milionów dolarów nie są wysyłane w kosmos tak dla widzi mi się jakiś bogatych państw albo ludzi. Sztuczny satelita jest wysyłany w kosmos z dokładnie określonym zadaniem. Jednymi z zadań jakie mogą wykonywać sztuczne satelity są:
·Wykonywanie badań naukowych.
·Wykorzystywane są do nawigacji.
·Do prognozowania pogody.
·Do przekazów telewizyjnych; dzisiaj każda licząca się w świecie telewizja ma swojego satelitę np.: Canal+ w tej chwili w 9 krajach w tym i w Polsce nadaje swoje programy ze sztucznego satelity. Pierwszy raz przekaz telewizyjny przez satelitę wykonała amerykańska stacja Telstar w czerwcu 1962 roku.
·Do przekazywania sygnałów radiowych.
·Do szpiegowania wrogich mocarstw.
·Do rozmów telefonicznych.
·Do wykrywania zanieczyszczeń środowiska.
Pierwszy sztuczny satelita amerykański o nazwie Explorer1 został wyniesiony w kosmos przez rakietę Jupiter 31 stycznia 1958 roku. Krążył on nad ziemią na wysokości od 351 do 2428 kilometrów, a czas jednego okrążenia wokół ziemi wynosił 1132,35 minuty. Explorer 1 był pierwszym z długiej serii satelitów amerykańskich o nazwie Explorer. 17 marca 1958 roku wystartował kolejny satelita amerykański- Vanguard. 28 lutego 1959 roku wystartował pierwszy satelita o orbicie polarnej to znaczy, że płaszczyzna orbity po której krąży przechodzi przez środek ziemi. Ten satelita nosił nazwę Discoverer 1. Orbity na których umieszczane są sztuczne satelity określane są trzema parametrami: kształtem, odległością od powierzchni ziemi i kątem nachylenia płaszczyzny tej orbity do płaszczyzny równika. Jeśli chcemy umieścić satelitę na orbicie, trzeba odłączyć go od rakiety pod kątem, dzięki któremu będzie mógł oddalić się od ziemi. Grawitacja będzie powodowała stopniowe zwalnianie satelity aż osiągnie najwyższy punkt na orbicie, który nazywa się apogeum. Kiedy satelita będzie posiadał bardzo małą prędkość, grawitacja będzie przyciągała go w kierunku ziemi, aż do momentu w którym osiągnie on najniższą wysokość na swojej orbicie. Ten punkt z kolei nazywa się perygeum. Tak wprawiony w ruch satelita może utrzymać się na swojej orbicie przez wiele lat przy niewielkich korektach położenia z ziemi. Sztuczne satelity wprowadzane są na optymalne orbity. Na przykład satelita użytkowy jest wprowadzany na orbitę geostacjonarną to znaczy pod kątem zero stopni. Kiedy satelita krąży po takiej orbicie na wysokości 35880 kilometrów to obejmuje on stale ten sam obszar na kuli ziemskiej, jest w spoczynku względem kuli ziemskiej. Wystarczy umieścić 3 takie satelity, by objąć cały obszar kuli ziemskiej oprócz obszarów podbiegunowych. Jak już wspomniałem satelity mają bardzo wiele zastosowań; satelita komunikacyjny może naraz obsługiwać 30 tysięcy rozmów telefonicznych i ponad 25 kanałów telewizyjnych. Pierwszy komercyjny satelita nosi nazwę Early Bird i został wystrzelony w 1965 roku przez Międzynarodową Korporację Telekomunikacji Satelitarnej. Obecnie w kosmosie krąży około 130 satelitów za pomocą których ludzie mogą telefonować z jednego końca świata na drugi. Odbywa się to w następujący sposób: z ogromnych anten o średnicy 30 metrów wysyłane są wiadomości za pomocą mikrofali do satelity, satelita z kolei przesyła tą wiadomość do centrum do którego jest kierowana rozmowa. Satelity geofizyczne są to te, które służą do badanie powierzchni ziemi. Pierwszy taki satelita został umieszczony na orbicie 1972 roku. Landsat 1 (bo tak się nazywa) był wyposażony w skaner na podczerwień, dzięki któremu dostarczał informacji na temat wypromieniowanego ciepła z obserwowanego obiektu. Kamery Landsata 1 obejmowały obszar o długości 185 kilometrów. Satelita przesyłał dane: geologiczne, oceanograficzne, rolnicze oraz urbanistyczne. Dzięki niemu został wykryty szalejący pożar na odludnych obszarach Alaski. Kolejne Landstaty wyposażone w coraz nowszą i bardziej zaawansowaną aparaturę o coraz większym zakresie barw i większej rozdzielczości potrafiły dojrzeć i przeanalizować dane o obiekcie wielkości 30 metrów. Jeszcze większą dokładność osiągnięto po wystrzeleniu w 1986 roku francuskiego satelity Spot 1, który mógł rozróżnić szczegóły o rozmiarach 10 metrów. Współczesne satelity są nie zastąpione przy układaniu prognoz pogody. Wyposażone w bardzo dokładną aparaturę zbierają informacje na temat zachmurzenia, prądów atmosferycznych, składu chemicznego powietrza, temperatur powietrza panujących na różnych wysokościach i tak dalej. Pierwszy eksperymentalny satelita meteorologiczny został wystrzelony w 1960 roku i nosił nazwę Tiros 1. Spełniał on tak dobrze swoje zadanie, że w kolejnych latach wystrzelono 5 następnych Tirosów. Powodzenie tego przedsięwzięcia przyczyniło się do powstania światowego systemu meteorologicznego obserwacji satelitarnych. Satelity te zapisują obrazy za pomocą urządzenia zwanego radiometrem. Satelity wykorzystywane są też do nawigacji, na przykład łodzi podwodnych, które wykorzystują system GPS. W celu wykorzystania tego rodzaju nawigacji łódź musi się częściowo wynurzyć. Wtedy satelity przesyłają wiadomości drogą radiową na temat orbity i czasu kontrolowanego przez zegar atomowy. Załoga łodzi oblicza po jakim czasie dotarł do nich ten sygnał, później wykorzystując uprzednio obliczony czas obliczają odległość satelity od łodzi podwodnej. Dzięki obliczeniu odległości z 3 satelitów GPS można ustalić bardzo dokładne położenie łodzi. System GPS jest również wbudowany w międzykontynentalne pociski dalekiego zasięgu. Istotnym lecz na ogół przemilczanym przez polityków i wojskowych jest wykorzystywanie satelity do szpiegostwa wrogich państw. Wykorzystywanie kamer umieszczonych na satelitach do podglądania cudzych tajemnic zaczęło się na początku lat sześćdziesiątych. Satelity obserwacyjne zostawały wyposażane w przyrządy o wysokiej rozdzielczości i umieszczane na strategicznych orbitach. Pierwsze udane szpiegowskie satelity amerykańskie zostały wyniesione w kosmos rakietą Agena. Fotografie rosyjskich baz wojskowych były wykonywane automatycznie z wysokości od 50 do 241 kilometrów. Film z zdjęciami był wystrzeliwany na ziemię w specjalnej kapsule wyposażonej w spadochron i zostawał przejmowany przez oczekujący helikopter lub łódź w pobliżu Hawajów. Takie satelity wyposażone są w aparat dzięki któremu w chwili uszkodzenia dokonuje się samozniszczenie. Robienie zdjęć nie jest jedyną możliwością szpiegowania z satelitów. Są one wyposażane również w czujniki na podczerwień dzięki, którym wyłapuje się strumienie spalin rakiet. Pierwsze satelity astronomiczne zostały wysłane w kosmos w latach sześćdziesiątych głownie w celu obserwacji źródeł promieniowania ultrafioletowego. Najbardziej spektakularnym wydarzeniem okazało się umieszczenie na orbicie w 1990 roku satelitarnego obserwatorium astronomicznego wyposażonego w optyczny teleskop Hubble`a o średnicy zwierciadła 2,4 metra sprzężony z 2 kamerami, 2 spektrografami i fotometrem. Satelity ulegają czasami uszkodzeniom w wyniku kontaktu z gwiezdnym “gruzem”. Żeby nie ściągać ich na ziemię, naprawy przeprowadza się na orbicie.
Pierwsza prędkość kosmiczna jest to prędkość zapewniająca sztucznemu satelicie krążenie wokół ciała centralnego po możliwie najniższej orbicie kołowej. Wartość pierwszej prędkości kosmicznej wynika z warunku równoważenia się przyśpieszenia odśrodkowego i dośrodkowego satelity na tej orbicie. Pierwsza prędkość kosmiczna wyraża się wzorem: V=7,91 km x S-1.
Druga prędkość kosmiczna czyli tak zwana prędkość ucieczki to prędkość, która nadana niewielkiemu obiektowi na przykład pojazdowi kosmicznemu przy powierzchni ciała centralnego zapewnia mu oddalenie się od tego ciała do nieskończoności. Druga prędkość kosmiczna wyraża się wzorem: V=11,19 km x S-1.
Trzecia prędkość kosmiczna to prędkość, którą trzeba nadać ciału przy powierzchni Ziemi w kierunku jej ruchu orbitalnego, by mogło nieskończenie oddalić się od Słońca. Trzecią prędkość kosmiczną wyrażamy wzorem: V=16,7 km x S-1.
Za pomocą satelitów możemy się łączyć z Internetem taki proces wygląda w następujący sposób:
1.Dostawca internetowy wysyła informacje kablami naziemnymi do stacji operatora systemu satelitarnego.
2.Dane kodowane są w falach radiowych i wysyłane do orbitujących satelitów.
3.Satelity odbierają sygnał wzmacniają go i wysyłają na ziemię do anten abonentów lub do innych satelitów jeśli odległość jest zbyt duża.
4.Antena satelitarna umieszczona najczęściej na dachu domu abonenta odbiera zakodowaną wiadomość i przetwarza ją tak by nadawała się do odczytu.
5.Sygnały przesyłane są kablami do komputera abonenta.
W moim referacie jest przedstawiona namiastka zastosowania sztucznych satelitów, gdyż nie jestem w stanie przedstawić całego tematu z powodu jego ogromu.

BIBLIOGRAFIA
1.Internet
2.”Jak to jest?”
3.”Co? Gdzie? Kiedy? Zdarzenia, które zmieniły świat”
4.Encyklopedia PWN
5.Życie świata

Posted in Uncategorized | Leave a comment

Prawa fizyki – ściąga

Prawo Kulomba:
Wartość siły wzajemnego oddziaływania dwóch naelektryzowanych kulek jest wprost proporcjonalna do iloczynu wartości ładunków zgromadzonych na kulkach i odwrotnie proporcjonalna do kwadratu odległości między ich środkami. F=k((q1q2)/r2)

Elektryzowanie przez dotknięcie ciałem naelektryzowanym:
Ładunek elektryczny nie może powstać z niczego i nie może zniknąć. Może on jedynie przemieszczać się z jednego ciała (lub jego części) do innego ciała (lub jego części).

Napięcie elektryczne:
Napięcie elektryczne między dwoma punktami pola elektrostatycznego informuje nas o tym, jaką pracę wykonują siły tego pola podczas przesuwania między tymi punktami ładunku jednego kulomba (1 C).

Napięcie:
Napięcie między dwoma punktami przewodnika równe jest ilorazowi pracy (wykonanej przez siły pola elektrostatycznego podczas przemieszczania ładunku elektrostatycznego między tymi punktami) i wartości tego ładunku.

Natężenie prądu:
Natężenie prądu informuje nas, jaki ładunek elektryczny przepływa w jednostce czasu przez poprzeczny przekrój przewodnika w dowolnym miejscu obwodu.

Prawo Ohma:
Natężenie prądu w przewodniku jest wprost proporcjonalne do napięcia przyłożonego między jego końcami.

Opór właściwy przewodnika:
Opór właściwy przewodnika informuje nas o tym, jak duży opór tego przewodnika o długości 1 m i przekroju 1m2 (lub 1mm2).

Opór odbiornika zastępczego:
Obór odbiornika zastępczego w połączeniu szeregowym równy jest sumie oporów poszczególnych odbiorników.

Odwrotność oporu odbiornika zastępczego:
Odwrotność oporu odbiornika zastępczego przy połączeniu równoległym równa jest sumie odwrotności oporów poszczególnych odbiorników.

Praca i moc prądu elektrycznego:
Praca prądu elektrycznego w danym odbiorniku równa jest iloczynowi napięcia między jego końcami (U), natężenie prądu (I) w nim płynącego i czasu przepływu prądu (t).

Reguła prawej dłoni:
Jeżeli prawą dłonią obejmiemy z prądem w taki sposób, że kciuk zwrócony będzie zgodny z kierunkiem płynącego przez przewodniku prądu, to pozostałe cztery zgięte palce wskażą zwrot lini pola magnetycznego.
Jeżeli prawą dłonią obejmiemy zwojnicę tak, aby zgodnie z płynącym w zwojnicy prądem, to odchylony kciuk wskaże zwrot linii pola magnetycznego w zwojnicy, (czyli wskaże koniec zwojnicy przy którym położony jest biegun północny powstałego magnesu).

Reguła lewej dłoni:
Jeżeli lewą dłoń ułożymy w polu magnetycznym tak, aby linie pola zwrócone były prostopadle ku wewnętrznej powierzchni dłoni, a cztery wyprostowane palce wskazywały kierunek płynącego prądu, to odchylony o 90° kciuk wskaże kierunek i zwrot siły działającej na przewodnik.

Zjawisko indukcji elektromagnetycznej:
Kierunek prądu indukcyjnego powstałego w zwojnicy na skutek zmiany pola magnetycznego w jej wnętrzu jest zawsze taki, że pole magnetyczne wytworzone przez ten prąd przewidziała przyczynę, która go wywołała.

Fale elektromagnetyczne:
1. Każdej zmianie pola elektrycznego towarzyszy powstanie zmiennego pola magnetycznego
2. Każdej zmianie pola magnetycznego towarzyszyło powstanie zmiennego pola elektrycznego.

Odbicie światła:
Światło odbija się od powierzchni ciał zawsze w takim kierunku, że kąt odbicia równy jest kątowi padania (ß=?). Promień padający, promień odbity i prostopadła do powierzchni zwierciadła wystawiona w punkcie padania leżą w jednej płaszczyźnie.

Posted in Uncategorized | Leave a comment

Silniki

SILNIK

maszyna przetwarzająca ciepło, energię elektr. lub mech. na pracę o postaci dogodnej do napędzania maszyn i urządzeń przem. (np. prądnic elektr., obrabiarek, pomp, dźwignic), roln. (np. kombajnów, młynów) lub komunik. (np. samochodów, samolotów, statków).

Do pracy silnika jest niezbędny ciągły dopływ energii, np. elektr. (silnik elektryczny), mech. (silnik wiatrowy, wodny), ciepła (silnik spalinowy, parowy). Energia mech. wytwarzana przez silnik jest przekazywana do urządzenia napędzanego za pośrednictwem części ruchomych silnika (np. za pomocą wirującego wału) albo sam silnik wywiera nacisk na urządzenie napędzane (np. silnik odrzutowy, silnik elektryczny liniowy). Wielkościami charakteryzującymi silnik są: moc, sprawność, prędkość obrotowa wału, moment obrotowy, siła ciągu itp. Pierwszym zbudowanym silnikiem było koło wodne używane już w I w. p.n.e. w Azji Mniejszej. Pierwszą pracującą maszynę parową opatentowali 1705 T. Newcomen i J. Cowley, 1711 zainstalowali ją do pompowania wody w kopalni; bardziej uniwersalny silnik parowy zaprojektował 1763 I.I. Połzunow; 1732 po raz pierwszy silnik parowy został użyty do napędu maszyn o ruchu obrotowym; największe zasługi w rozwoju silników parowych położył J. Watt. W XIX w. nastąpił szybki rozwój silników elektrycznych i silników spalinowych tłokowych i turbin cieplnych.

SILNIK CIEPLNY, urządzenie do przetwarzania energii cieplnej na energię mech.; s.c. pobiera ciepło ze źródła o temperaturze wyższej (ciepło spalania paliwa w silniku spalinowym lub w turbinie), przetwarza jego część na pracę mech., a resztę oddaje w chłodnicy; proces odbywa się z udziałem czynnika termodynamicznego (np. spalin, pary wodnej); praca s.c. przebiega zgodnie z zasadami termodynamiki; do s.c. należą m.in. silniki tłokowe parowe i spalinowe oraz turbiny cieplne.

SILNIK SPALINOWY TŁOKOWY, silnik cieplny o spalaniu wewn., w którym ruch tłoka jest wywołany ciśnieniem spalin powstających przez spalanie mieszanki palnej (paliwowo-powietrznej) wewnątrz cylindra silnika; powszechnie są stosowane silniki spalinowe tłokowe o posuwisto-zwrotnym ruchu tłoka (suwowe), zw. krócej silnikami spalinowymi tłokowymi, znacznie rzadziej o tłoku obracającym się. W silnikach suwowych tłok uszczelniony pierścieniami tłokowymi zamyka cylinder silnika; posuwisto-zwrotny ruch tłoka jest zmieniany przez mechanizm korbowy na ruch obrotowy wału korbowego; dopływ mieszanki (lub powietrza) do cylindrów silnika oraz usuwanie z nich spalin reguluje mechanizm rozrządu. W silnikach spalinowych tłokowych czterosuwowych (czterosuwach) obieg pracy odbywa się w 4 kolejnych suwach tłoka, co odpowiada 2 obrotom wału korbowego; w silnikach dwusuwowych (dwusuwach) obieg pracy odbywa się w 2 kolejnych suwach tłoka, co odpowiada 1 obrotowi wału korbowego; silniki dwusuwowe w porównaniu z czterosuwowymi mają mniej skomplikowaną konstrukcję, są łatwiejsze do obsługi i naprawy, tańsze, ale ich wadami są na ogół większe zużycie paliwa i zanieczyszczanie powietrza.

Silniki dwusuwowe pozwalają uzyskać wyższą moc i moment obrotowy w stosunku do silników czterosuwowych o tej samej pojemności skokowej; najnowsze generacje silników dwusuwowych odznaczają się także niską toksycznością spalin; w nowocz. silnikach tłokowych dwusuwowych stosuje się m.in. szczelinowe zawory jednokierunkowe w kanałach wlotowych i zawory obrotowe — w wylotowych, automatyczne smarowanie i sterowanie zasilaniem oraz dopalacze katalityczne. Powstaje nowa generacja silników dwusuwowych o bezpośrednim wtrysku paliwa (wspomaganym pneumatycznie) do cylindra, co umożliwia usunięcie większości wad silników dwusuwowych konwencjonalnych.

Zależnie od sposobu zapłonu mieszanki rozróżnia się silniki o zapłonie iskrowym (tzw. niskoprężne; zapłon następuje od iskry elektr. między elektrodami świecy zapłonowej) i silniki o zapłonie samoczynnym (zw. też silnikami wysokoprężnymi lub silnikami Diesla), w których zapłon wtryśniętego paliwa (oleju napędowego) następuje wskutek silnego podwyższenia temperatury powietrza zawartego w cylindrze w wyniku jego sprężenia. Wśród silników spalinowych tłokowych o zapłonie samoczynnym rozróżnia się silniki z wtryskiem bezpośrednim, z komorą wstępną, z komorą wirową, z zasobnikami powietrza. Silniki o zapłonie samoczynnym charakteryzują się dużą sprawnością, małym zużyciem paliwa i nie wymagają elektr. instalacji zapłonowej, mają natomiast bardziej skomplikowaną konstrukcję od silników o zapłonie iskrowym. Silniki o zapłonie samoczynnym są stosowane jako silniki kol., okrętowe i przem. oraz w samochodach (gł. ciężarowych) i ciągnikach, natomiast silniki z zapłonem iskrowym — gł. w motocyklach i samochodach osobowych. Silniki spalinowe tłokowe klasyfikuje się także ze względu na: a) sposób tworzenia mieszanki paliwowo-powietrznej; silniki z tworzeniem mieszanki zewn., czyli gaźnikowe (gaźnik) lub wtryskowe (wtrysk paliwa do przewodu dolotowego) bądź wewn. (wtrysk bezpośrednio do cylindra); b) rodzaj paliwa: na paliwo ciekłe (benzynowe, na olej napędowy, na paliwo ciężkie), gazowe, dwu- i wielopaliwowe; c) liczbę i układ cylindrów (rzędowe, widlaste, przeciwsobne); d) zastosowanie: samochodowe, przemysłowe, lotnicze.

Szczególną odmianę silników spalinowy tłokowych stanowią silniki o tłoku obracającym się, czyli silniki spalinowe rotacyjne; w tych silnikach tłok wykonuje ruch obrotowy, poruszając się pod wpływem zmiennych nacisków czynnika roboczego. Spośród wielu proponowanych rozwiązań pierwszym udanym był silnik wykonany 1960 przez F. Wankla (silnik Wankla); ma on mniejszą od silnika klas. masę, mniejsze wymiary i prostszą budowę, ale jednocześnie gorszą sprawność (z powodu niekorzystnego kształtu komory) i mniejszą trwałość (szybkie zużycie uszczelek).

Pierwszym silnikiem spalinowym tłokowym, który znalazł szersze zastosowanie, był dwusuwowy silnik gazowy o działaniu dwustronnym oraz zapłonie iskrowym, opatentowany 1860 przez E. Lenoira; silnikiem spalinowym tłokowym działającym niezawodnie i ekonomicznie był czterosuwowy silnik gazowy, zbud. 1876 (ulepszony 1878) przez N.A. Otto i E. Langena. Pierwszy silnik spalinowy tłokowy benzynowy (dwusuwowy) skonstruował 1878–79 C. Benz; silnik spalinowy tłokowy o zapłonie samoczynnym wynalazł i opatentował 1893 R. Diesel (produkcję rozpoczęto 1897). Obecnie do sterowania pracą samochodowych silników spalinowych tłokowych nierzadko stosuje się komputer (ECU — Engine Control Unit), który określa m.in. optymalny czas zapłonu i wtrysku paliwa. W silnikach tłokowych spalinowych (zarówno o zapłonie iskrowym jak i samoczynnym) niekiedy stosuje się doładowanie.

SILNIK ODRZUTOWY, silnik, w którym siła napędowa powstaje dzięki reakcji wytwarzanej przez wypływający z dyszy czynnik roboczy (gorące spaliny, strumień jonów, plazmy itp.). Silniki odrzutowe dzielą się na przelotowe (przepływowe) i rakietowe. Zależnie od sposobu sprężania powietrza, do którego wprowadza się paliwo, silniki przelotowe dzielą się na: strumieniowe, turboodrzutowe i pulsacyjne. Rozpowszechniły się głównie silniki odrzutowe spalinowe, w których energię spalania zamienia się w energię kinet. gazów wylotowych; podstawowe zespoły silnika odrzutowego spalinowego to komora spalania i dysza wylotowa. Silniki odrzutowe spalinowe mogą być zarówno przelotowe (tlen do spalania paliwa pobierany jest z atmosfery), jak i rakietowe — zdolne do pracy w próżni kosmicznej.

Silnik rakietowy, silnik odrzutowy, którego czynnik roboczy (np. gaz, spaliny, strumień jonów lub plazmy) znajduje się w napędzanym obiekcie (pocisku rakietowym, rakiecie); ciąg jest wytwarzany przez przyspieszenie czynnika roboczego lub produktów jego rozkładu. Praktyczne zastosowanie znalazły dotychczas jedynie silniki rakietowe spalinowe; silniki te pobierają tlen potrzebny do spalania paliwa z utleniaczy będących składnikami rakietowych materiałów pędnych znajdujących się w napędzanym obiekcie (w przeciwieństwie do silników odrzutowych spalinowych pobierających tlen z atmosfery); rozróżnia się silniki rakietowe spalinowe na materiały pędne: stałe, ciekłe i mieszane (tzw. hybrydowe, w których np. paliwo jest w stanie stałym, a utleniacz — w stanie ciekłym). Silniki rakietowe spalinowe stosuje się przede wszystkim do napędu rakiet nośnych, statków kosm. oraz pocisków rakietowych, czasami są też wykorzystywane w samolotach jako silniki pomocnicze (np. do wspomagania startu). W stanie projektów (niekiedy prób) są także inne rodzaje silników rakietowych; w silniku rakietowym jądrowym reaktor jądr. stanowiłby źródło ciepła dla chłodzącego go gazu (czynnika roboczego), który by się następnie rozprężał w dyszy silnika; w silniku rakietowym elektr. do nagrzewania czynnika roboczego służyłby np. łuk elektryczny.

Silnik strumieniowy, silnik odrzutowy przelotowy (bezsprężarkowy), składa się z dyfuzora wlotowego, komory spalania i dyszy wylotowej; podczas lotu powietrze wpływa do silnika przez dyfuzor wlotowy (otwarty w kierunku lotu) i zmniejsza w nim swoją prędkość, dzięki czemu wzrasta jego ciśnienie; w komorze spalania następuje wtrysk i spalanie paliwa w strumieniu przepływającego powietrza, a powstające gazy spalinowe o wysokiej temperaturze rozprężają się i wypływają na zewnątrz przez dyszę, dając ciąg (siłę odrzutu); silniki strumieniowe stosuje się w niektórych pociskach sterowanych i samolotach naddźwiękowych. Silnik strumieniowy z naddźwiękową komorą spalania (tzw. Scramjet) ma być podstawowym napędem przyszłościowym samolotów kosmicznych. Silnik strumieniowy pracuje efektywnie dopiero przy prędkościach naddźwiękowych, dlatego do startu pojazdów napędzanych takim silnikiem konieczne jest zastosowanie innego silnika, np. turboodrzutowego lub rakietowego.

Silnik turboodrzutowy (turbinowy silnik odrzutowy przelotowy), silnik lotn. przelotowy (o otwartym obiegu) zawierający turbinę spalinową; składa się z dyfuzora wlotowego, sprężarki (lub 2 sprężarek), komory spalania, turbiny oraz dyszy wylotowej. Powietrze wpływa podczas lotu przez odpowiednio ukształtowany dyfuzor wlotowy (wlot — otwarty w kierunku lotu) i zmniejsza w nim swoją prędkość, dzięki czemu wzrasta jego ciśnienie; w sprężarce strumień powietrza ulega dalszemu sprężeniu, po czym jest kierowany do komory spalania (zasilanej przez wtryskiwacze ciekłym paliwem); powstające w komorze gorące spaliny rozprężają się częściowo w turbinie, a częściowo w dyszy wylotowej, wytwarzając ciąg (siłę odrzutu); turbina napędza sprężarkę. Rozróżnia się silniki turboodrzutowe jednoprzepływowe (zw. wprost silnikami turboodrzutowymi), w których całość powietrza dopływającego do silnika przepływa przez sprężarkę do komory spalania, i silniki dwuprzepływowe, w których czynnik roboczy przepływa 2 współosiowymi kanałami: wewn. i zewnętrznym. W silnikach dwuprzepływowych sprężarki sprężają wpływające powietrze i przetłaczają je do kanału zewn. oraz do komory spalania kanału wewn.: paliwo jest rozpylane w komorze przez wtryskiwacze i ulega tam spaleniu wytwarzając wysokotemperaturowe spaliny, które rozprężają się w turbinach i napędzają sprężarki, następnie uchodzą na zewnątrz przez dyszę wylotową, dając ciąg; ciąg uzyskuje się również poprzez rozprężenie powietrza (spalin) wypływającego z kanału zewnętrznego. W zależności od zastosowania silniki dwuprzepływowe mają różny stopień dwuprzepływowości (stosunek masy powietrza przepływającego przez kanał zewn. do masy powietrza przepływającego przez kanał wewn.), silniki o dużym stopniu dwuprzepływowości (5 : 1 i więcej) są stosowane do napędu samolotów komunik. i transportowych, o małym (1 : 1 i mniej) — do samolotów wojsk.; silniki o dużym stopniu dwuprzepływowości (nazywane silnikami wentylatorowymi) charakteryzują się b. dużymi ciągami oraz niskim jednostkowym zużyciem paliwa (wysoką sprawnością). Silniki wentylatorowe są stosowane w samolotach o poddźwiękowej prędkości lotu, podczas gdy silniki o małym stopniu dwuprzepływowości mogą być stosowane w samolotach naddźwiękowych (wówczas spalanie paliwa może być realizowane w obu kanałach).

Patent na silniki turboodrzutowe uzyskał 1930 bryt. konstruktor F. Whittle, który 1939 przeprowadził pierwszą próbę takiego silnika. Pierwszym samolotem z silnikiem turboodrzutowym był 1939 niem. samolot Heinkel He-178. Silniki turboodrzutowe są obecnie podstawowym rodzajem napędu samolotów komunik. i wojsk. o prędkości okołodźwiękowej i naddźwiękowej.

Silnik pulsacyjny, silnik odrzutowy przelotowy (bezsprężarkowy) z jednokierunkowymi zaworami mech. lub bezwładnościowymi aerodynamicznymi umieszczonymi na wlocie powietrza; paliwo jest wtryskiwane do komory spalania, w której po wymieszaniu z powietrzem jest zapalane od resztek spalin pozostałych z poprzedniego cyklu; w wyniku wzrostu ciśnienia, spowodowanego spalaniem, zawory jednokierunkowe zamykają się i następuje wypływ spalin z dyszy silnika, wskutek czego w komorze spalania wytwarza się podciśnienie, otwierają się zawory i cykl powtarza się.

SILNIK TURBOSPALINOWY, silnik, w którym łopatkowy wirnik gazowej turbiny cieplnej przetwarza energię kinetyczną spalin (wytwarzanych w komorze spalania turbiny i sprężonych przez napędzaną turbinę sprężarkę) w energię ruchu obrotowego; silniki turbospalinowe są stosowane do napędu prądnic w elektrowniach, samolotów, lokomotyw.

SILNIK TURBOŚMIGŁOWY, turbinowy silnik lotn., który gł. część (75–100%) ciągu wytwarza za pomocą śmigła napędzanego przez turbinę spalinową (za pośrednictwem przekładni zębatej), a pozostałą — przez odrzut gazów wylotowych.

SILNIK ELEKTRYCZNY, maszyna przetwarzająca energię elektr. na energię mech., zwykle w postaci energii ruchu obrotowego. Moment obrotowy powstaje w silniku elektrycznym w wyniku oddziaływania pola magnet. i prądu elektr. (siła elektrodynamiczna). Silnik elektryczny składa się ze stojana (z osadzoną parą lub kilkoma parami uzwojeń elektromagnesów) oraz wirnika z uzwojeniem twornikowym. Zależnie od prądu zasilającego rozróżnia się silnik elektryczny prądu stałego oraz silniki elektryczny prądu przemiennego.

Silnik elektryczny prądu stałego ma na osi wirnika pierścień złożony z izolowanych działek (tzw. komutator) łączonych z zaciskami uzwojeń twornika; po komutatorze ślizgają się doprowadzające prąd nieruchomo osadzone szczotki elektr. (z drobnoziarnistych tworzyw z węgla uszlachetnionego) dociskane do powierzchni komutatora przez sprężynki. Działanie pola magnet., wytworzonego przez elektromagnesy stojana, na prąd elektr. w obwodzie: para szczotek, działki komutatora i uzwojenie twornika, powoduje ruch obrotowy wirnika; kierunek obrotów zależy od kierunku prądu w uzwojeniu twornika. Zależnie od sposobu połączenia uzwojenia twornika z uzwojeniem elektromagnesu wzbudzającego pole magnet., silniki elektryczne prądu stałego dzieli się na szeregowe, równoległe i szeregowo-równoległe. W silnikach elektrycznych szeregowych prędkość obrotowa zmniejsza się wraz ze wzrostem obciążenia; mają skłonność do „rozbiegania się” po odłączeniu obciążenia; są stosowane w trakcji elektr. i dźwignicach. W silnikach elektrycznych równol. prędkość obrotowa jest niezależna od obciążenia; są stosowane np. do napędzania obrabiarek. Silniki elektryczne szeregowo-równoległe są stosowane do napędzania maszyn o stałej prędkości obrotowej i dużych momentach obrotowych.

Silniki prądu przemiennego dzielą się na 1- i 3-fazowe, a zależnie od zasady działania — na indukcyjne (indukcyjna maszyna), synchroniczne (synchroniczna maszyna) i komutatorowe (komutatorowa maszyna). W silnikach elektrycznych 3-fazowych indukcyjnych prąd 3-fazowy płynący przez uzwojenia stojana wytwarza pole wirujące; pole to przecina przewody uzwojenia wirnika, indukując w nich prądy zgodnie z regułą Lenza, a w rezultacie powoduje ruch obrotowy wirnika; wirnik obraca się wolniej niż pole wirujące, gdyż w uzwojeniach wirnika indukuje się napięcie tylko wtedy, kiedy istnieje ruch pola wirującego względem tych uzwojeń; różnica prędkości nazywa się poślizgiem; silnikach elektrycznych indukcyjne stosowane są do napędzania maszyn o nie regulowanej prędkości obrotowej. Najtańsze i najczęściej stosowane w przemyśle są odznaczające się najprostszą budową silniki indukcyjne klatkowe (zwarte); wirnik tych silników ma uzwojenie w kształcie klatki, wykonanej jako odlew aluminiowy lub zespół prętów zwartych na swych czołach pierścieniami. Silniki elektryczne synchroniczne różnią się od silników elektrycznych indukcyjnych budową wirnika, który jest wyposażony dodatkowo w elektromagnesy zasilane prądem stałym ze wzbudnicy osadzonej na wale wirnika; liczba biegunów elektromagnesów odpowiada liczbie biegunów pola wirującego stojana; ponieważ moment obrotowy jest wynikiem wzajemnego oddziaływania na siebie biegunów magnet. elektromagnesów i pola wirującego, obroty wirnika są synchroniczne z obrotami pola i mają stałą prędkość; stosowane do napędzania maszyn szybkoobrotowych o stałej prędkości obrotowej, np. sprężarek. Silniki elektryczne synchroniczne mogą być stosowane jako silniki skokowe (krokowe, impulsowe); impulsowe zasilanie powoduje nieciągły, skokowy ruch wirnika (obrót) silnika o określony kąt (zwykle kilka do kilkudziesięciu stopni); silnik taki wykonuje do kilku tysięcy skoków na sekundę; jest stosowany w układach regulacji automatycznej z cyfrowym sygnałem sterującym, w zegarach (jako siłownik precyzyjny), do ustawiania głowic w pamięciach dyskowych komputerów itp. Silniki elektryczne komutatorowe (szeregowe i równoległe), podobnie jak silniki elektryczne prądu stałego, mają wirnik z komutatorem, do którego doprowadza się prąd przemienny za pomocą szczotek. Osobną grupę stanowią silniki elektryczne uniwersalne, które mogą być zasilane prądem stałym lub przemiennym; stosowane do napędzania sprzętu gospodarstwa domowego, maszyn biurowych itp.

Odrębnym rodzajem silnika elektrycznego jest silnik liniowy, przetwarzający energię elektr. bezpośrednio na energię ruchu postępowego. Silnik liniowy składa się z induktora i bieżnika, które są odpowiednikami stojana i wirnika zwykłego silnika elektrycznego, lecz rozwiniętymi w linię prostą; częścią ruchomą silnika może być zarówno induktor, jak i bieżnik. Głównymi zaletami tego rodzaju silnika są: brak styczności mech. między induktorem a bieżnikiem, idealnie cicha praca, dobre chłodzenie, brak ślizgowych zestyków doprowadzających prąd, łatwość sterowania, możliwość uzyskiwania różnych przebiegów zależności siły od prędkości, możliwość prostego łączenia kilku silników liniowych w jeden zespół o większej mocy. Rozróżnia się silniki elektryczne liniowe prądu stałego, prądu przemiennego, synchroniczne, asynchroniczne, oscylacyjne itp.; do najnowszych konstrukcji należą silniki o poprzecznym strumieniu magnet. (tzw. transverse-flux motor) nadające się zwł. do napędzania szybkich pojazdów poruszających się na poduszce powietrznej lub magnetycznej. Silniki elektryczne liniowe stosuje się gł. w automatyce, w napędach specjalnych oraz w trakcji elektrycznej.

Współczesne silniki elektryczne budowane są na moce od części wata do kilkudziesięciu megawatów, przy sprawności od 60 do 95%, współczynnik mocy silnika elektrycznego prądu przemiennego wynosi 0,65–0,95.

Pierwszy model silnika elektrycznego zbudował 1831 M. Faraday (tarcza Faradaya), zaś pierwszy silnik elektryczny (z komutatorem) o praktycznym zastosowaniu — do napędu łódki — 1834 M.H. Jacobi; decydującym krokiem w rozwoju silnika elektrycznego było zbudowanie 1887 przez J.N. Teslę (wykorzystującego prace inż. i fizyka G. Ferrarisa) 2-fazowego silnika indukcyjnego; 1889–90 silnik 3-fazowy z wirnikiem klatkowym zbudował M. Doliwo-Dobrowolski; 1902 E. Danielson zbudował silnik synchroniczny, którego prędkość obrotowa ściśle zależała od częstotliwości prądu zasilającego; w tym samym roku A. Zahden uzyskał patent na silnik liniowy, działający wg zasady stosowanej obecnie.

Posted in Uncategorized | Leave a comment

Wszechświat

BUDOWA WSZECHŚWIATA

Wszechświat

kosmos, przestrzeń z wypełniającą ją energią i materią (gwiazdami wraz z planetami i innymi jeszcze drobniejszymi ciałami niebieskimi, ich skupiskami — galaktykami, gromadami galaktyk, materią międzygalaktyczną i in. obiektami); ściślej — przestrzeń wraz ze znajdującą się w niej materią, która w jakikolwiek sposób może oddziaływać na nas (lub my na nią) w przeszłości, obecnie, lub w przyszłości. Obserwacyjnymi badaniami Wszechświata zajmuje się astronomia pozagalaktyczna, natomiast jego teoriami powstawania i ewolucji — kosmologia. I takie pojęcie o wszechświecie obowiązuje dzisiaj.

Zagadnienie pochodzenia Wszechświata interesowało ludzi od zarania dziejów. Przy niezwykle fragmentarycznej wiedzy przez całą starożytność i średniowiecze przyjmowano niemal za oczywistość, że Wszechświat powstał w akcie stworzenia, jest stosunkowo młody (ma co najwyżej parę tysięcy lat) i jest niezmienny w czasie. Centralne miejsce zajmowała w nim Ziemia, jako siedlisko człowieka. Zasadniczego wyłomu w tych koncepcjach dokonał M. Kopernik, wykazując, że Ziemia znajduje się na peryferiach Układu Słonecznego, którego centr. ciałem jest Słońce. Odkrycia geol. XIX w. udowodniły, że Ziemia istnieje parę miliardów lat, co odpowiednio odsunęło w przeszłość powstanie Wszechświata. Najdłużej przetrwało przekonanie o niezmienności Wszechświata, bo aż do lat 20. XX w. Już po odkryciu ogólnej teorii względności, A. Einstein oprac. na jej podstawie statyczny model Wszechświata; okazało się jednak, że taki Wszechświat może być tylko pusty, pozbawiony materii: materia bowiem przyciąga się grawitacyjnie i ma tendencję do spadania ku sobie — nie może zatem istnieć zawieszona w statycznym Wszechświecie. Aby zrównoważyć to przyciąganie, Einstein wprowadził ad hoc do równań dodatkowy człon z tzw. stałą kosmologiczną, dający siłę odpychania się mas — słabą dla bliskich mas, ale wystarczająco dużą dla mas odległych, by zatrzymać zapadanie się Wszechświata. Odkrycie E. Hubble’a uczyniło cały problem nieistotnym.

Obserwacje rozkładu materii w obecnym Wszechświecie wskazują na jego komórkową strukturę: olbrzymie pustki (voids) otoczone są ściankami, czy krawędziami z galaktyk i gromad. Wprawdzie dostępny obszar Wszechświata powiększa się w miarę doskonalenia przyrządów i metod badawczych, to jednak wciąż stanowi niewielką część całego Wszechświata, a niektóre wykryte w nim struktury są porównywalne z nim samym.

Teorię kosmologiczną tworzy się na podstawie kilku założeń, z których dwa najważniejsze, to przyjęcie stosowalności znanych praw fizyki do całego Wszechświata oraz przyjęcie tzw. zasady kosmologicznej, głoszącej, że obserwowana przez nas część Wszechświata jest reprezentatywna dla jego całości. Innymi słowy, zakłada się, że pomijając niewielkie, lokalne fluktuacje, każda część Wszechświata wygląda tak samo. Wszechświat jest izotropowy, jednorodny i rządzi się uniwersalnymi prawami przyrody. Podstawowymi równaniami kosmologii są równania ogólnej teorii względności otrzymane 1916 przez Einsteina.

Według obecnego (1995) stanu wiedzy, najbardziej zgodna z obserwacjami jest tzw. standardowa teoria Wielkiego Wybuchu. Zgodnie z nią Wszechświat powstał jako niezwykle zwarty, gęsty i gorący twór; przez pierwsze ułamki sekund po powstaniu jego stan fizyczny był nieokreślony ze względu na ograniczenia związane z zasadą nieokreśloności Heisenberga ; dopiero po osiągnięciu tzw. wieku Plancka, równego ok. 10–43 s, można go opisywać znanymi prawami fizyki — miał on wtedy gęstość 1097 kg/m3, a temp. 1032 K; w miarę rozszerzania się Wszechświata spadała jego temperatura, tworzyły się cząstki elementarne, a przez krótki czas zachodziły reakcje syntezy helu i (w śladowych ilościach) paru innych pierwiastków lekkich; póki temperatura Wszechświata przekraczała 10 000 K, wodór będący głównym składnikiem materii barionowej (cząstek materialnych), był zjonizowany i pozostawał w równowadze termodynamicznej z polem promieniowania; po spadku temp. do ok. 3000 K praktycznie cały wodór przeszedł w stan neutralny, co spowodowało silne osłabienie oddziaływania materii z promieniowaniem — w efekcie „gaz” barionowy i „gaz” fotonowy ewoluowały dalej niezależnie; w miarę dalszego rozszerzania się „gaz” fotonowy ochładzał się adiabatycznie aż do obecnie obserwowanej temp. ok. 2,7 K; z gazu barionowego powstały obserwowane obiekty, takie jak gwiazdy, galaktyki, gromady galaktyk i inne struktury.

Gdyby średnia gęstość Wszechświata była wyższa od pewnej wartości, zw. gęstością krytyczną, siły grawitacyjne zatrzymałyby po pewnym czasie jego rozszerzanie się i nastąpiłaby faza kurczenia — byłby to tzw. Wszechświat zamknięty; dla średniej gęstości mniejszej od krytycznej, rozszerzanie trwałoby nieskończenie — Wszechświat otwarty, zaś w sytuacji, gdy gęstość byłaby dokładnie równa krytycznej, rozszerzanie trwałoby nieskończenie, ale z prędkością malejącą asymptotycznie do zera — Wszechświat płaski.

Natura ciemnej materii we Wszechświecie jest dotychczas nie znana i pozostaje przedmiotem spekulacji. Jedna z sugestii zakłada, że przynajmniej jej część, gł. wewnątrzgalaktyczna, mogłaby występować w postaci małych, zwartych ciał o masach bardzo dużych planet; ich obecność w dużej liczbie w naszej Galaktyce powinna wywoływać od czasu do czasu zjawisko pojaśniania blasku odległej gwiazdy, gdy linię łączącą gwiazdę z obserwatorem przetnie takie ciało i nastąpi, wynikający z ogólnej teorii względności, efekt soczewkowania grawitacyjnego światła gwiazdy (jego istnienie przewidział 1985 B. Paczyński); podjęte w latach 90. próby obserwacyjnego wykrycia takiego soczewkowania (zw. mikrosoczewkowaniem grawitacyjnym w odróżnieniu od soczewkowania grawitacyjnego światła kwazarów), w tym przez grupę astronomów z Obserwatorium Astr. Uniw. Warsz., potwierdziły istnienie tego efektu, ale wyniki wskazują, że zachodzi on na słabych gwiazdach, a nie planetach; świadczy to przeciw masowemu występowaniu ciał planetarnych w Galaktyce. Jako ciemną materię proponowano również mało masywne czarne dziury; jeszcze inną formą mogą być neutrina, które, podobnie jak kwanty promieniowania elektromagnet., wypełniają cały Wszechświat — gdyby miały niewielką masę spoczynkową, mogłoby to wystarczyć do domknięcia Wszechświata (dotychczasowe wyniki dają jednak górne ograniczenie na masę neutrin nie wykluczające domknięcia; dalsze badania pozwolą dokładniej określić masę neutrin).

Główne kierunki obserwacji koncentrują się obecnie na problemie poszukiwania ciemnej materii oraz badaniach właściwości fluktuacji materii we Wszechświecie; te ostatnie bada się przez pomiary niewielkich fluktuacji temperatury promieniowania tła (w różnych skalach), które zawierają informacje o zaburzeniach gęstości we wczesnym Wszechświecie, oraz poprzez obserwacje grupowania się świecącej materii, co odzwierciedla obecną strukturę Wszechświata. Badania teoretyczne dotyczą gł. problemu pochodzenia i ewolucji fluktuacji gęstości we Wszechświecie, prowadzących do obecnie obserwowanej struktury.

Zmieniający się wszechświat

Wyobrażenia ludzi o rozmiarach, strukturze i ewolucji Wszechświata ulegały bardzo istotnym zmianom w miarę rozwoju astronomii i fizyki. Już w czasach prehistorycznych pozorny ruch Słońca na sferze niebieskiej, fazy Księżyca, ruchy planet oraz momenty wschodów i zachodów gwiazd były wykorzystywane do określania czasu i stanowiły podstawę kalendarza.

Pierwszy model Wszechświata powstał ok. 2,5 tys. lat temu, wraz z rozwojem geometrii i filozofii. Elementy tego modelu występowały już u Pitagorasa, a spopularyzował go i utrwalił Arystoteles. W tym geocentrycznym modelu nieruchoma Ziemia znajduje się w środku Wszechświata, a wokół niej krążą wszystkie pozostałe ciała niebieskie. U podstaw teorii geocentrycznej leżały założenia o centr. położeniu Ziemi, kulistym kształcie ciał niebieskich oraz o kołowym i jednostajnym charakterze ich ruchów. Teoria geocentryczna powstała w starożytności; największą popularność w jej zakresie zyskały: system sfer homocentrycznych, stworzony przez Platona, Eudoksosa z Knidos i Arystotelesa, oraz system epicykliczny, stworzony przez Apoloniusza z Pergi i Hipparcha, oprac. ostatecznie przez Klaudiusza Ptolemeusza. System Klaudiusza Ptolemeusza był powszechnie akceptowany przez cały średniow. świat nauk.; zgodnie z nim każde ciało Układu Słonecznego poruszało się po małym okręgu, zw. epicyklem, którego środek poruszał się wokół Ziemi po dużym okręgu, zw. deferentem. Powstała w XVI w. teoria heliocentryczna, sformułowana przez M. Kopernika, obaliła definitywnie skomplikowany system teorii geocentrycznej.

W 1609 r. Galileusz zbudował lunetę i pierwszy zastosował ją do obserwacji astronomicznych, co znacznie przyspieszyło rozwój astronomii. Przełomowym momentem dla kosmologii i całej współczesnej nauki było odkrycie przez I. Newtona praw ruchu ciał. W swoim słynnym dziele Philosophiae naturalis principia mathematica, opublikowanym w 1687 r., Newton nie tylko sformułował prawa ruchu i prawo powszechnego ciążenia, ale też rozwiązał równania ruchu planet. Po raz pierwszy okazało się, że ciała niebieskie także podlegają prawom fizyki.

Coraz większe i lepsze lunety pozwoliły astronomom penetrować coraz dalsze obszary Wszechświata. Galileusz odkrył, że Droga Mleczna (Galaktyka) — jasny pas na niebie — jest złożona z gwiazd. Zaczęto zastanawiać się nad rozmiarami i strukturą Drogi Mlecznej. Metodą zliczania gwiazd w różnych obszarach sfery niebieskiej F.W. Herschel w 1785 r. stwierdził, że Droga Mleczna jest spłaszczoną, podobną do dysku koncentracją gwiazd, a Słońce znajduje się w przybliżeniu w jej środku. Nadal nie znano sposobu na wyznaczanie odległości do gwiazd. Już Kopernik zdawał sobie sprawę z faktu, że gwiazdy znajdują się bardzo daleko, gdyż nie mógł zaobserwować pozornego ruchu gwiazd bliższych względem tła gwiazd dalszych, spowodowanego ruchem Ziemi wokół Słońca (paralaksa). Paralaksy gwiazd zmierzono dopiero w końcu lat 30. XIX w. Okazało się, że odległości gwiazd od Ziemi są tak duże, że trzeba było wprowadzić nową jednostkę odległości — parsek (pc). Bardziej intuicyjną astronomiczną jednostką odległości jest rok świetlny (w skrócie ly, od angielskiego light year), czyli odległość, jaką przebywa światło w próżni w ciągu jednego roku. Najbliższy Ziemi obiekt astronomiczny, Księżyc, jest odległy od niej o 1,3 s świetlnej, Słońce o 500 s świetlnych, zaś najbliższa gwiazda o ok. 4 ly! Korzystając z tej astronomicznej skali odległości szacuje się, że średnica dysku Galaktyki wynosi ok. 160 tys. ly, a jego grubość ok. 1000 ly. Obecnie wiadomo, że Słońce znajduje się ok. 27 tys. ly (8,5 kpc) od środka Galaktyki. Gwiazdy, gaz i pył zawarte w dysku galaktycznym obracają się względem centrum Galaktyki. Analizując ruchy gwiazd w dysku galaktycznym stwierdzono, że masa dysku Galaktyki wynosi ok. 6 · 1010 mas Słońca.

Kolejny wielki przełom w obserwacjach astronomicznych nastąpił na początku lat 60. XIX w., gdy do badań astronomicznych wykorzystano odkrytą właśnie przez R.W. Bunsena i S.G.R. Kirchhoffa analizę spektralną. Badania widm gwiazd pozwoliły na wyznaczenie nie tylko składu chemicznego górnych warstw atmosfer gwiazd (z badań tych wynika, że gwiazdy są zbudowane gł. z wodoru — ok. 75% w stosunku wagowym, i helu — blisko 25%, z małą domieszką innych, cięższych pierwiastków), ale również ich temperatury oraz — pośrednio — na oszacowanie ciśnienia, gęstości i natężenia pola grawitacyjnego. Zastosowanie analizy spektralnej do badań astronomicznych umożliwiło wprowadzenie spektralnej klasyfikacji gwiazd, doprowadziło też do wydzielenia grupy gwiazd podwójnych (spektroskopowych) i skłoniło do zastanowienia się nad ewolucją gwiazd.

Do końca XIX w. stwierdzono, że w skład Galaktyki wchodzą nie tylko gwiazdy, gaz i pył, lecz także duże, gęste skupiska gwiazd, zw. gromadami gwiazd, oraz mgławice. Na podstawie kształtu wydzielono podgrupę mgławic, tzw. mgławice spiralne.

Na początku XX w. istniały już dostatecznie duże teleskopy, by można było badać naturę mgławic spiralnych. W 1912 r. V.M. Slipher, uzyskawszy widma kilku mgławic, stwierdził, że ich linie widmowe są najczęściej przesunięte ku czerwonej stronie widma ( Dopplera zjawisko). Z wielkości tych przesunięć Slipher otrzymywał prędkości sięgające 1000 km/s, niespotykane u gwiazd. Jednocześnie pojawiło się pytanie, czy mgławice spiralne są częścią Galaktyki, czy też są obiektami pozagalaktycznymi.

W 1923 r. E.P. Hubble zauważył, że Wielka Mgławica w Andromedzie składa się z gwiazd, po czym wypatrzył gwiazdy w kilku innych mgławicach. W 1924 r. wśród gwiazd w mgławicy Andromedy Hubble znalazł cefeidy. Cefeidy są gwiazdami zmiennymi o periodycznie zmieniającej się jasności. Stwierdzono, że dla cefeid okres zmian jasności zależy od ich jasności absolutnej, co umożliwia wyznaczanie ich odległości. Gdy Hubble zastosował tę metodę do Wielkiej Mgławicy w Andromedzie okazało się, że znajduje się ona w odległości ok. 2 mln ly, a więc daleko poza granicami Galaktyki. W ten sposób Hubble odkrył świat galaktyk; następnie, korzystmate z bogatego ˝
°Šriału obserwacyjnego, podzielił galaktyki na eliptyczne, spiralne, spiralne z poprzeczką i nieregularne. Liczba galaktyk, do których wyznaczono odległości, powoli wzrastała. W 1928 r. Hubble zauważył, że galaktyki oddalają się z prędkościami proporcjonalnymi do ich odległości. Zależność ta, znana obecnie jako prawo Hubble’a, stanowi podstawę współczesnej kosmologii. Hubble odkrył zatem, że Wszechświat jako całość nie jest układem statycznym, ale podlega zmianom, obecnie Wszechświat się rozszerza. Współczynnik proporcjonalności występujący w prawie Hubble’a jest zwany stałą Hubble’a. Z pomiarów wynika, że stała Hubble’a wynosi (20 ± 3) km/s na mln ly, a więc galaktyka, która znajduje się w odległości 100 mln ly, oddala się od nas z prędkością ok. 2000 km/s.

Równocześnie z obserwacjami rozwijała się teoretyczna baza kosmologii. W 1917 r. A. Einstein sformułował ogólną teorię względności, czyli relatywistyczną teorię grawitacji, która zastąpiła prawo powszechnego ciążenia Newtona. W ogólnej teorii względności geometryczne własności czasoprzestrzeni są powiązane z rozkładem materii. Jako pierwszy Einstein zastosował ogólną teorię względności do stworzenia nowego modelu kosmologicznego. Przejął on od astronomów panujące wówczas przekonanie, że Droga Mleczna jest jedyną galaktyką i że poza jej granicami jest jedynie pusta, statyczna przestrzeń. Gdy się okazało, że równania ogólnej teorii względności nie dopuszczają takiej możliwości, zmodyfikował je, dodając tzw. stałą kosmologiczną. Najnowsze obserwacje astronomiczne sugerują, że stała kosmologiczna jest różna od zera.

W 1921 r. A. Friedman wykazał, że zgodnie z równaniami ogólnej teorii względności Wszechświat, wypełniony materią w taki sposób, iż żaden punkt ani żaden kierunek nie jest wyróżniony, nie może być statyczny. Po odkryciu zjawiska rozszerzania się Wszechświata G. Lemaître udowodnił, że prawo Hubble’a w naturalny sposób wynika z modelu Friedmana. Rozważania Friedmana pozwalały wysnuć wniosek, że Wszechświat miał początek. Jest to naturalną konsekwencją rozszerzania się Wszechświata. Cofając się bowiem w czasie, dochodzi się w końcu do momentu, kiedy gęstość materii staje się nieskończona; tego początkowego stanu Wszechświata — zw. stanem osobliwym — nie można już opisać równaniami ogólnej teorii względności. Model Friedmana przewiduje też przyszłość Wszechświata. Istnieją tylko dwie możliwości: albo Wszechświat będzie rozszerzał się wiecznie, a średnia gęstość materii będzie wówczas dążyła do zera, albo rozszerzy się do pewnych maksymalnych rozmiarów, po czym zacznie się kurczyć i po odpowiednio długim, ale skończonym czasie gęstość materii stanie się znowu nieskończona, czyli zaistnieje stan o własnościach podobnych do osobliwości początkowej. W modelu Friedmana przyszłość Wszechświata jest zdeterminowana przez wartość stałej Hubble’a i średnią gęstość materii. Obecne dane obserwacyjne sugerują, że Wszechświat będzie rozszerzał się wiecznie.

Początkowo wydawało się, że galaktyki na sferze niebieskiej są rozłożone przypadkowo. Późniejsze badania wykazały jednak, że galaktyki mają wyraźną tendencję do grupowania się w gromady galaktyk, a gromady galaktyk w supergromady. Na początku lat 70. XX w. astronomowie z Harvard Smithsonian Center for Astrophysics (CfA) rozpoczęli badanie przestrzennego rozkładu galaktyk w wybranym obszarze nieba. Po naniesieniu położeń ok. 1000 galaktyk utworzyły one zgrupowanie przypominające swoim kształtem człowieka — nazwano go „patyczakiem z Harvardu”; jego korpus tworzą galaktyki z gromady galaktyk Coma. Pełne wyniki tego przeglądu rozszerzono o obserwacje na południowej półkuli nieba. Rozkład galaktyk w przestrzeni nie jest przypadkowy. Istnieją wyraźnie widoczne płaskie skupiska galaktyk, zw. ścianami, ograniczające bardzo duże puste obszary, w których galaktyki nie występują niemal wcale. Tam, gdzie ściany się przecinają, występują gęste łańcuchy galaktyk, a miejsca, gdzie przecinają się łańcuchy, identyfikuje się z bogatymi gromadami galaktyk. Duże i długie skupisko galaktyk o długości ok. 500 mln ly (~ 150 Mpc) zostało nazwane Wielką Ścianą, jej grubość wynosi ok. 20 mln ly. Pustki widoczne w przestrzennym rozkładzie galaktyk mają zazwyczaj średnice ok. 100 mln ly. Z analizy statystycznej przestrzennego rozkładu galaktyk wynika, że ściany skupiają ok. 60% galaktyk, natomiast zajmują jedynie ok. 10% objętości Wszechświata. W gęstych łańcuchach skupia się ok. 20% galaktyk, pozostałe 20% galaktyk zaś tworzy ubogie, słabo widoczne łańcuchy galaktyk. Przestrzenna struktura rozkładu galaktyk przypomina pianę z baniek mydlanych.

Badając ruchy gwiazd w galaktykach oraz ruchy galaktyk w gromadach galaktyk stwierdzono, że galaktyki i gromady galaktyk mają znacznie większą masę niż szacowano na podstawie jasności tych obiektów. Nie świecąca materia zawarta w galaktykach i gromadach galaktyk nosi nazwę ciemnej materii. Jak wynika z oszacowań, aż 90% materii zawartej we Wszechświecie nie świeci.

Korzystając z modelu Friedmana oraz obserwowanych własności Wszechświata i praw fizyki, można odtworzyć historię Wszechświata. Ma więc sens pytanie o jego wiek. Zależy on od dwóch parametrów — stałej Hubble’a i średniej gęstości materii we Wszechświecie. Niestety, dokładność wyznaczenia tych dwóch podstawowych parametrów kosmologicznych nie jest ciągle zadowalająca, dlatego też wiek Wszechświata jest znany z dokładnością ok. 30-procentową i zawiera się w granicach 12–15 mld lat. Biorąc za podstawę oszacowany wiek Wszechświata, promień możliwej do zaobserwowania części Wszechświata ocenia się na 12–15 mld ly. W tym miejscu wypada wyjaśnić, jak należy rozumieć obserwowane rozszerzanie się Wszechświata. Potocznie uważa się, że jeżeli coś się rozszerza, to rozszerza się w czymś. Z definicji Wszechświat jest największym istniejącym obiektem fizycznym, jego rozszerzanie się to ciągła kreacja przestrzeni. Trzeba przy tym zaznaczyć, że proces ten odbywa się jedynie w bardzo dużej skali (np. w obrębie atomu czy w obrębie Układu Słonecznego albo nawet w obrębie Galaktyki przestrzeń się nie rozszerza).

Z modelu Friedmana wynika, że Wszechświat rozpoczął swoją ewolucję od stanu osobliwego, gdy bardzo gorąca materia była ściśnięta do ogromnych gęstości. W 1946 r. G.A. Gamow zaczął analizować podstawowe procesy fizyczne, które mogły zachodzić podczas pierwszych faz ewolucji Wszechświata. Zaproponowany przez Gamowa model fizycznej ewolucji Wszechświata nazywa się obecnie modelem Wielkiego Wybuchu. Gamow zdawał sobie sprawę z tego, że w początkowych etapach ewolucji Wszechświata gęstość materii była tak duża, a materia tak gorąca, że nie mogły wówczas istnieć ani atomy, ani jądra atomowe, ani nawet protony i neutrony. Przypuszcza się, że materia składała się wówczas z najbardziej elementarnych składników: kwarków, gluonów, leptonów, fotonów i grawitonów. Pierwszych faz ewolucji Wszechświata nie można więc opisać bez uwzględnienia oddziaływań między podstawowymi cząstkami elementarnymi.

Zgodnie ze współczesną wiedzą wszystkie zjawiska zachodzące w otaczającym nas świecie są przejawem działania czterech podstawowych oddziaływań fizycznych: grawitacyjnych, elektromagnetycznych, słabych i silnych. Na początku lat 60. S. Weinberg, A. Salam i Sh. Glashow zaprezentowali teorię unifikującą oddziaływania słabe i elektromagnetyczne. Niemal w tym samym czasie, gdy powstawała teoria oddziaływań elektrosłabych, M. Gell-Mann i G. Zweig zaproponowali model hadronów zbudowanych z kwarków. Połączenie obu tych koncepcji doprowadziło do powstania tzw. Standardowego Modelu cząstek elementarnych. Wprawdzie Model Standardowy nadspodziewanie dobrze opisuje wszystkie przeprowadzone dotychczas eksperymenty z cząstkami elementarnymi, trwają jednak poszukiwania bardziej ogólnej teorii, która łączyłaby oddziaływania silne i elektrosłabe. Kontynuowane są też prace nad teorią integrującą wszystkie oddziaływania fundamentalne. Jakkolwiek teorie takie jeszcze nie powstały, istnieją ogólne przewidywania, które pozostaną zapewne częścią składową ostatecznej teorii. Wszystkie zaproponowane dotychczas modele Wielkiej Unifikacji przewidują pojawienie się nowych cząstek, zw. cząstkami X, oraz — jako konieczny składnik teorii — wprowadzają pewne pole skalarne. Oba te elementy mają dla kosmologii ogromne znaczenie.

W latach 60. A. Sacharow zauważył, że początkowy stan Wszechświata mógł być nieodróżnialny od stanu kwantowej próżni, czyli stanu, dla którego wszystkie podstawowe charakterystyki fizyczne, takie jak: ładunek, energia, liczba barionowa ( bariony), liczba leptonowa (leptony) itp., są równe zeru. Nie oznacza to jednak, że w stanie kwantowej próżni „nic nie ma”. Zachodzą tam spontanicznie procesy kreacji i anihilacji cząstek. Z praw kwantowych wiadomo, że prawdopodobieństwo spontanicznej kreacji cząstek zależy od ich masy i jest mniejsze dla cząstek o większej masie. Według Sacharowa Wszechświat powstał w wyniku kwantowej fluktuacji, gdy spontanicznie, w bardzo małym obszarze, zgromadziła się bardzo duża energia. Przedstawiony powyżej scenariusz początku Wszechświata jest tylko jednym z możliwych scenariuszy. Przypuszcza się, że o stanie początkowym Wszechświata będzie można powiedzieć znacznie więcej, gdy powstanie kwantowa teoria grawitacji.

Model Wielkiego Wybuchu zaproponowany przez Gamowa opiera się na założeniu, że Wszechświat od samego początku był jednorodny i izotropowy. W tym modelu rozmiary obserwowanego Wszechświata (rozmiary horyzontu) rosną w czasie; obecnie obserwowany Wszechświat składa się z bardzo wielu obszarów, między którymi w przeszłości nie można było przekazywać żadnych informacji. Nazywa się to problemem horyzontu. W 1981 r. A. Guth zauważył, że można łatwo pominąć problem horyzontu, jeżeli przyjmie się założenie, że w odpowiednio wczesnej fazie ewolucji Wszechświat rozszerzał się bardzo szybko, a obecnie obserwowany jest częścią jednego obszaru przyczynowo spójnego. Ten model wczesnej ewolucji Wszechświata został nazwany modelem inflacyjnym. W 1982 r. A. Linde oraz niezależnie A. Albrecht i P. Steinhardt zaproponowali model inflacyjny, w którym wykładniczy wzrost rozmiarów Wszechświata jest spowodowany przez pewne pole skalarne. Dwa lata później Linde zauważył, że inflacja może być generowana przez dowolne, odpowiednio silnie wzbudzone pole skalarne, opisujące pewne cząstki o masie różnej od zera. Model ten, zw. obecnie modelem chaotycznej inflacji, jest najbardziej oszczędny w swoich założeniach. Oba modele inflacji zakładają istnienie pola skalarnego. Pola skalarne o własnościach wymaganych do generowania inflacji występują w teorii Wielkiej Unifikacji, ale istnienie takiego pola nie zostało jeszcze obserwacyjnie potwierdzone. Pole skalarne powodujące inflację nazywa się inflatonem, pełni ono rolę podobną do stałej kosmologicznej. Zgodnie z oszacowaniami wynikającymi z teorii Wielkiej Unifikacji epoka inflacyjna powinna była wystąpić, gdy temperatura, a więc średnia energia kinetyczna cząstek wypełniających wówczas Wszechświat, wynosiła ok. 1014 GeV, czyli nastąpiło to w 1035 s po Wielkim Wybuchu. W czasie trwania inflacji bardzo mały przyczynowo spójny obszar o rozmiarach rzędu 1025 cm został rozszerzony do rozmiarów co najmniej jednego kilometra. Obserwowany obecnie Wszechświat jest jedynie małym fragmentem tego obszaru przyczynowo spójnego, nic więc dziwnego, że w odpowiednio dużej skali Wszechświat jest jednorodny i izotropowy.

Model inflacyjny przewiduje, że obecnie Wszechświat powinien być niemal płaski; jest to naturalną konsekwencją jego bardzo szybkiego rozszerzania się podczas inflacji. Dzięki znacznemu poszerzeniu się Wszechświat uległ nie tylko spłaszczeniu, lecz także wszystkie początkowe niejednorodności, które mogły istnieć przed inflacją, uległy drastycznemu rozmyciu. Wszechświat nie może być jednak idealnie jednorodny i izotropowy, gdyż w takim Wszechświecie nie mogłaby powstać jego obserwowana obecnie struktura. Odpowiednio wcześnie musiały zatem powstać zaburzenia, które później doprowadziły do powstania galaktyk, gromad galaktyk i całej złożonej struktury rozkładu materii we Wszechświecie. Wśród rozpatrywanych dotychczas modeli kosmologicznych jedynie model inflacyjny wyjaśnia, w jaki sposób powstały początkowe zaburzenia. Pole skalarne odpowiedzialne za kosmiczną inflację podlega prawom kwantowym, dlatego jego wartość nie wszędzie jest dokładnie taka sama. Drobne kwantowe fluktuacje pola skalarnego sprawiły, że inflacja nie zachodziła jednocześnie we wszystkich obszarach Wszechświata. Obszary, gdzie inflacja zaczęła się najwcześniej, zostały powiększone bardziej niż obszary, gdzie inflacja zaczęła się nieco później. Spowodowało to powstanie drobnych różnic gęstości, a więc i temperatury, w różnych obszarach Wszechświata. Model inflacyjny przewiduje nie tylko wielkość zaburzenia, ale też — jak amplituda zaburzenia — zależy od jego rozmiarów (tzw. widmo zaburzeń).

Po zakończeniu fazy inflacyjnej energia pola skalarnego napędzającego inflację została przetworzona na cząstki. Wszechświat zapełnił się cząstkami i promieniowaniem. Dalszą jego ewolucję opisuje model Wielkiego Wybuchu. Wkrótce po zakończeniu fazy inflacyjnej ciężkie cząstki, których istnienie przewiduje teoria Wielkiej Unifikacji, przestały być w stanie równowagi termodynamicznej z innymi cząstkami i promieniowaniem. Rozpad tych cząstek prowadził do powstania nadwyżki materii nad antymaterią. Symetria między oddziaływaniami została złamana, oddziaływania silne wyłoniły się jako nowy typ oddziaływań. W 10 11 s po Wielkim Wybuchu, przy energii ok. 100 GeV, została złamana symetria między oddziaływaniami słabym i elektromagnetycznym; nastąpiło przejście do obszaru energii, w którym wszystkie oddziaływania fundamentalne występują jako niezależne typy oddziaływań. Ciągle jeszcze gęstość materii i temperatura były tak duże, że materia znajdowała się w stanie plazmy kwarkowo-gluonowo-leptonowej.

Po upływie 105 s od Wielkiego Wybuchu, gdy temperatura Wszechświata opadła do ok. 1 GeV (wygodnie jest wyrażać temperaturę w jednostkach energii 1eV = 1K), nastąpiła rekombinacja plazmy kwarkowo-gluonowej — powstały protony i neutrony. Różnica mas protonu i neutronu wynosi zaledwie 1,3 MeV, dlatego początkowo we Wszechświecie występowało tyle samo protonów i neutronów. Od tego stanu Gamow rozpoczął swoje rozważania, wprowadzając model Wielkiego Wybuchu. Własności materii znajdującej się w tym stanie są bardzo dobrze zbadane, gdyż odpowiadające mu gęstości, temperatury i energie są dostępne w bezpośrednich badaniach laboratoryjnych.

Mniej więcej w sekundę po Wielkim Wybuchu temperatura we Wszechświecie obniżyła się na tyle, że jako ostatnie anihilowały pary elektronowo-pozytonowe. Tempo rozszerzania się Wszechświata było nadal określane przez gęstość energii promieniowania. Gdy temperatura opadła do ok. 0,1 MeV, rozpoczął się proces powstawania lekkich pierwiastków. Dzięki przypadkowym zderzeniom protonów z neutronami powstały jądra deuteru. Energia wiązania jądra deuteru wynosi zaledwie 2,2 MeV, dlatego — gdy temperatura była wyższa od 0,1 MeV — średni czas życia jąder deuteru ze względu na procesy fotodysocjacji był bardzo krótki (w temperaturze tej istniało dużo fotonów o energii większej od 2,2 MeV), dalsze reakcje termojądrowe nie mogły więc zachodzić. Gdy temperatura Wszechświata opadła do 0,1 MeV, średni czas życia jąder deuteru stał się wystarczająco długi, by mogły zachodzić następne reakcje termojądrowe. Z analizy procesu pierwotnej nukleosyntezy wynika, że gł. powstawał wówczas hel (4He) z małą domieszką deuteru, trytu i litu (7Li). Inne cięższe pierwiastki nie powstawały, gdyż w przyrodzie nie występują stabilne jądra atomowe o liczbach masowych 5 i 8; syntetyzowanie innych pierwiastków wymaga zderzeń trójciałowych, a te w warunkach panujących wówczas we Wszechświecie były bardzo mało prawdopodobne. Jak przewiduje teoria pierwotnej nukleosyntezy, pramateria, z której następnie powstawały galaktyki i gwiazdy, była złożona w stosunku wagowym w 75% z wodoru i w 25% z helu, z małą domieszką innych izotopów najlżejszych pierwiastków. Proces nukleosyntezy dobiegł końca kilka minut po Wielkim Wybuchu.

Po zakończeniu procesu nukleosyntezy rozpoczął się długi, trwający kilkaset tysięcy lat, spokojny okres ewolucji Wszechświata. Jego temperatura i gęstość stopniowo malały. Materia, a właściwie plazma wodorowo–helowo-elektronowa, pozostawała w stanie równowagi termodynamicznej z promieniowaniem, co praktycznie uniemożliwiało wzrost powstałych podczas inflacji zaburzeń gęstości w materii barionowej.

W adiabatycznie rozszerzającym się Wszechświecie gęstość energii promieniowania malała jak odwrotność czwartej potęgi tzw. czynnika skali (parametru określającego zmiany odległości między dwoma dowolnie wybranymi punktami we Wszechświecie), gęstość materii zaś jak odwrotność trzeciej potęgi czynnika skali, a więc wolniej. W pewnej chwili — szacuje się, że nastąpiło to ok. 10 000 lat po Wielkim Wybuchu — gęstość energii promieniowania stała się równa gęstości energii materii; od tego momentu gęstość materii określała tempo rozszerzania się Wszechświata. Wszechświat zaczął się rozszerzać szybciej. W końcu jego temperatura obniżyła się do ok. 3000 K, protony i jądra helu mogły wówczas przyłączać elektrony i tworzyć neutralne elektrycznie atomy. Był to bardzo ważny moment w historii Wszechświata. Materia przestała oddziaływać z promieniowaniem, a średnia droga swobodna fotonu stała się porównywalna z rozmiarami Wszechświata. Wszechświat stał się przezroczysty dla promieniowania (promieniowanie to obserwowane jest obecnie jako promieniowanie reliktowe;). Bardzo małe początkowe zaburzenia gęstości materii, które nie mogły narastać w epoce promieniowania, pod wpływem oddziaływania grawitacyjnego zaczynały teraz powoli rosnąć, co w końcu doprowadziło do powstania obłoków pragalaktycznych i obłoków identyfikowanych później z gromadami galaktyk. W pragalaktykach zaczęły powstawać pierwsze gwiazdy. W jądrach gwiazd zachodziły procesy syntezy cięższych pierwiastków, aż do żelaza włącznie. Wybuchały pierwsze supernowe , powstawały pierwiastki cięższe od żelaza, część materii supernowej, wzbogaconej w cięższe pierwiastki, została rozrzucona w przestrzeń międzygwiazdową. Obłoki materii międzygwiazdowej powoli stygły i zaczynały się kurczyć. Powstały następne gwiazdy (Ewolucja gwiazd), niektóre z nich otoczone planetami, jak np. Słońce. Na niektórych planetach mogły zaistnieć warunki sprzyjające powstaniu życia. Na Ziemi rozwój życia doprowadził do pojawienia się homo sapiens.

Śmierć cieplna wszechświata

Jest to hipotetyczny końcowy stan, do którego miałby dojść ewoluujący Wszechświat; nastąpi wskutek dyssypacji energii zachodzącej w wyniku nieodwracalnych procesów we Wszechświecie; w stanie tym entropia Wszechświata osiągnęłaby wartość maksymalną, temperatura by się wyrównała, w przyrodzie nie zachodziłyby żadne procesy, nastąpiłby bezruch i spoczynek.

Bibliografia:

W. Bonnor „Zagadka rozszerzającego się Wszechświata”, Warszawa 1972,

M. Abramowicz „Astronomia popularna”, Warszawa 1990;

M. Jaroszyński „Galaktyki i budowa Wszechświata”, Warszawa 1993.

S. Weinberg „Pierwsze trzy minuty” , Warszawa 1998.

Posted in Uncategorized | Leave a comment

Teoria atomistyczna Daltona

Prawo niezmienności pierwiastków

Teoria atomistyczna Daltona.

Na naszej planecie występują miliony różnych ciał. Są one zbudowane z pewnej liczby prostych substancji nazwanych pier-wiastkami, zawierających jeden typ atomów. Wynika więc z tego, że skoro zawierają one tylko jeden typ atomów to nie mogą być rozłożone na składniki prostsze. Tak rozumował Robert Boyle (1627 – 1691), przeciwstawiając się tym samym współczesnym mu chemikom, którzy sądzili, że cały świat zgodnie z poglądem Em-pedoklesa z Akragas, przejętym przez Arystotelesa zbudowany jest z czterech pierwiastków – żywiołów: ziemi, ognia, powie-trza i wody.

Boyle twierdził, że jego pierwiastki można zobaczyć i zba-dać ich właściwości znacznie lepiej niż cechy żywiołów, takie jak suchość czy zimno. Przyszłość pokazała, że rację miał Boy-le.

W roku 1680 w książce pt. „Chemik powątpiewający” Boyle sformułował po raz pierwszy, aktualne do dziś określenie pier-wiastka chemicznego, pisząc „aby zapobiec błędom muszę wyja-śnić co rozumiem pod pojęciem pierwiastka… są to pewne sub-stancje proste, przez których połączenie powstają substancje złożone i na które te substancje złożone rozkładają się”. Wy-rażone językiem współczesnym określenie Boyle’a definiuje pierwiastek jako najprostszą substancję, której na drodze che-micznej nie da się przekształcić w prostszą.

Boyle nie podał jednak w swej książce listy znanych wów-czas pierwiastków. Uczynił to dopiero ponad 100 lat później Antoine L. Lavoisier. Podał on w roku 1789 w swoim podręczniku chemii pierwszą listę obejmującą 33 pierwiastki.

Jednakże do roku 1913 nie znano niezawodnej metody, za po-mocą której można by udowodnić, czy określona substancja jest, czy nie jest pierwiastkiem. Dopiero odkrycia w dziedzinie mi-krostruktury materii pozwoliły na definitywne ustalenie, które substancje są pierwiastkami. Przykładem pierwiastków chemicz-nych są między innymi rtęć, tlen, azot, wodór, siarka, miedź, żelazo, złoto, platyna. Przemiany chemiczne polegają na „łą-czeniu się lub rozłączaniu” pierwiastków, które same pozostają przy tym nie zmienione.

Stąd wynika zasadnicze twierdzenie chemii – prawo nie-zmienności pierwiastków: we wszystkich przemianach chemicznych najprostsze rodzaje materii – pierwiastki, przechodząc z jed-nych substancji do innych nie ulegają zmianie.

Obecnie znanych jest 112 pierwiastków chemicznych – tylko 90 z nich występuje w przyrodzie, choć niektóre w śladowych ilościach.

W 1804 r. uczony angielski John Dalton (1766 – 1844) sfor-mułował hipotezę o atomistycznej budowie materii – hipotezę, która wyjaśniała znane wówczas prawa chemiczne. Dalszy rozwój badań nad rozwojem materii doprowadził do zmodyfikowania nie-których sformułowań hipotezy Daltona, jednak sens chemiczny jego koncepcji pozostał aktualny do dziś.

Najistotniejsze elementy współczesnej teorii atomistycznej można przedstawić w siedmiu postulatach.

Postulat I. Każdy pierwiastek chemiczny jest zbiorem ma-łych cząstek chemicznych zwanych atomami. Wszystkie atomy da-nego pierwiastka mają identyczne właściwości chemiczne.

Termin „właściwości chemiczne pierwiastka” oznacza przede wszystkim zdolność (lub brak zdolności) do łączenia się z in-nymi pierwiastkami w określonych warunkach (temperatura, ci-śnienie, środowisko), czyli tworzenie związków chemicznych o określonym składzie ilościowym, wchodzenie lub niewchodzenie w reakcje wymiany z różnymi związkami (w danych warunkach).

Badania nad wewnętrzną budową atomów ujawniły istnienie odmian tego samego pierwiastka, tzw. izotopów (atomy tego sa-mego pierwiastka o różnej liczbie neutronów), które, różniąc się nieznacznie składem jądra atomowego, mają te same cechy chemiczne. Z tego względu nie można definiować pierwiastka ja-ko zbioru identycznych atomów. Definicja powinna być oparta na jakimś konkretnym elemencie, wspólnym dal wszystkich atomów wykazujących jednakowe właściwości chemiczne, np.: pierwiastek chemiczny jest zbiorem atomów o tym samym ładunku elektrycznym jądra atomowego (lub tej samej liczbie protonów w jądrze).

Postulat II. Atomy różnych pierwiastków różnią się od sie-bie cechami chemicznymi i fizycznymi. Istnieje tyle rodzajów atomów o określonych właściwościach chemicznych, ile jest pierwiastków.

Uwzględniając zjawisko izotopii dochodzi się do wniosku, że liczba rodzajów atomów o określonych właściwościach fizycz-nych i chemicznych jest większa niż liczba pierwiastków, po-nieważ większość pierwiastków ma odmiany izotopowe.

Postulat III. Atom danego pierwiastka nie może ulec prze-kształceniu w atom innego pierwiastka podczas reakcji chemicz-nej.

W początkowym okresie rozwoju teorii atomistycznej sądzo-no, że atom nie może ulec przemianie w inny atom w żadnych wa-runkach. Bliższe wniknięcie w strukturę atomu ujawniło możli-wość tego rodzaju przemian (tzw. reakcje jądrowe), niemniej w dalszym ciągu słuszne jest twierdzenie, że atomu nie da się przekształcić w inny atom w reakcjach chemicznych. Podobnie odkrycie złożonej struktury atomu nie zmienia faktu, że atom jest najdrobniejszą porcją pierwiastka, jaka zachowuje jeszcze jego charakterystyczne właściwości. Składniki atomu (elektro-ny, protony, neutrony) mają cechy odmienne.

Postulat IV. Łączenie się pierwiastków w związki chemiczne polega na łączeniu się atomów różnych pierwiastków w większe zespoły, zwane cząsteczkami.

W myśl tego postulatu najprostszy proces syntezy związku chemicznego z pierwiastka A i pierwiastka B przebiega według schematu:

1 atom A + 1 atom B  1 cząsteczka AB

Cząsteczka typu AB tzn. zbudowana z jednego atomu A i jednego atomu B, jest najprostszym przykładem związku chemicznego. Współczesne metody badań budowy cząstek pozwalają na określe-nie ich wymiarów i kształtu, co z kolei umożliwia budowanie ich modeli. Przykładem cząsteczki AB jest cząsteczka chlorowo-doru zbudowana z jednego atomu wodoru i jednego atomu chloru.

Cząsteczka związku chemicznego, powstającego z pierwiast-ków A i B nie musi być cząsteczką typu AB. Istnieje wiele związków, których cząsteczki mają skład AB2, AB3, AB4, A2B2, A2B3 itp.; we wzorach tych mała cyfra u dołu (tzw. prawy dolny in-deks oznacza liczbę atomów danego pierwiastka w cząsteczce. Liczba możliwych typów cząsteczek znacznie wzrasta przy przej-ściu do związków składających się z trzech pierwiastków. Przy-kładem cząsteczki typu AB2 jest cząsteczka dwutlenku węgla zbu-dowana z jednego atomu węgla i dwóch atomów tlenu lub czą-steczka wody zbudowana z dwóch atomów wodoru i atomu tlenu. Przykładem cząsteczki typu AB3, jest cząsteczka amoniaku zbudo-wana z jednego atomu azotu i trzech atomów wodoru. Przykładem cząsteczki A2B3 jest cząsteczka trójtlenku azotu zbudowana z dwóch atomów azotu i trzech atomów tlenu.

Postulat V. Związek chemiczny jest zbiorem cząsteczek. Wszystkie cząsteczki danego związku chemicznego zawierają tę samą liczbę tych samych rodzajów atomów i mają identyczne wła-ściwości chemiczne.

Pod terminem „właściwości chemiczne związku” należy rozu-mieć zdolność (lub brak zdolności) do reagowania w danych wa-runkach z określonymi substancjami, sposób reagowania z tymi substancjami, warunki (przede wszystkim temperaturę), w któ-rych rozpoczyna się rozkład związku na prostsze składniki oraz przebieg tego rozkładu.

Postulat VI. Rozłożenie związku chemicznego na pierwiastki polega na rozpadzie cząsteczek na atomy. Proces ten może prze-biegać w kilku etapach.

Rozkład związku o cząsteczkach typu AB przebiega wg sche-matu:

AB  A + B

a rozkład cząsteczek typu ABC może przebiegać jednoetapowo:

ABC  A + B + C

lub dwuetapowo:

ABC  AB + C

AB  A + B

W ostatnim przypadku proces wymaga przeprowadzenia dwóch reak-cji rozkładu, każdej w odmiennych warunkach i pod wpływem od-miennych czynników.

Postulat VII. Atomy tego samego pierwiastka mogą połączyć się w cząsteczki.

Niektóre pierwiastki stanowią zbiory kilkuatomowych czą-steczek typu A2, A3, A4 itp.. tworzenie cząsteczek jest cechą większości niemetali. Na przykład wodór i azot występują w po-staci cząsteczek dwuatomowych A2. Fosfor tworzy najczęściej cząsteczki czteroatomowe, a siarka ośmioatomowe. Tlen w zwy-kłych warunkach występuje w postaci cząsteczek dwuatomowych, ale pod wpływem wyładowań elektrycznych powstają cząsteczki trójatomowe (ozon). Odmiany pierwiastka chemicznego o różnej liczbie atomów w cząsteczce noszą nazwę odmian alotropowych; różnią się one przede wszystkim właściwościami fizycznymi. W wysokich temperaturach, rzędu kilku tysięcy stopni, wszystkie cząsteczki pierwiastków rozpadają się na pojedyncze atomy.

Teoria atomistyczna wyjaśnia w prosty sposób prawo stało-ści składu. W każdej cząsteczce związku chemicznego AB jest pewna stała liczba atomów A i stała liczba atomów B. Liczby te są jednakowe w każdej cząsteczce i zawsze są liczbami całkowi-tymi. Jeżeli każda cząsteczka ma taki sam skład, to dowolny ich zbiór będzie miał ten sam skład ilościowy, co pojedyncza cząsteczka.

Reakcję wymiany w interpretacji atomistycznej można przed-stawić schematem:

A + BC  AC + B

który oznacza, że atom A reaguje z cząsteczką BC, tworząc nową cząsteczkę AC z równoczesnym uwolnieniem atomu B. Taki typ re-akcji wymiany nazywany jest wymianą pojedynczą. Znane są rów-nież reakcje wymiany podwójnej:

AB + CD  AD + CB

Ogólnie, na podstawie atomistycznej interpretacji przemian chemicznych można stwierdzić, że reakcje chemiczne polegają na łączeniu, rozdzielaniu lub przegrupowaniu atomów. Atom jest cząstką materialną, która uczestnicząc w reakcji chemicznej bądź w wielu kolejnych reakcjach, zachowuje zasadnicze elemen-ty swej struktury.

Posted in Uncategorized | Leave a comment

Typowe obiekty astronomiczne

TYPOWE OBIEKTY ASTRONOMICZNE

Obiekty astronomiczne to wszystkie naturalne i sztuczne obiekty znajdujące się poza naszą planetą Ziemią. Do takich obiektów należą między innymi:

Kwazary czyli obiekty gwiazdopodobne. To według naukowców aktywne jądra dalekich galaktyk. Te najjaśniejsze, najszybsze i najdalsze obiekty Wszechświata dla obserwatora ziemskiego stanowią punktowe źródła światła, tak jak gwiazdy.

Uważa się, że źródłem energii kwazarów i innych galaktyk aktywnych są czarne dziury nazywane supermasywnymi, gdyż ich masa dochodzi do stu miliardów mas Słońca, co odpowiada masie całej galaktyki. Oddziaływanie grawitacyjne tak ogromnej masy powoduje wciąganie pobliskiego gazu i gwiazd do wnętrza czarnej dziury. Materia ta, spadając po torze spiralnym, emituje olbrzymie ilości promieniowania elektromagnetycznego.

Materia, która zostanie zassana do wnętrza czarnej dziury, znika na zawsze, ale dzięki temu masa czarnej dziury stale wzrasta .Jądro galaktyki NGC 4261

To zdjęcie z 1995 roku przedstawia dysk akrecyjny – dysk utworzony przez materię, spadającą po spiralnych torach do czarnej dziury.

Gwiazdy to ogromne kule gorącego, świecącego gazu. Parametry gwiazdy, takie jak barwa, temperatura, rozmiary i jasność bywają bardzo zróżnicowane, gdyż zależą od jej masy i od wewnętrznych zmian, jakie występują w poszczególnych gwiazdach na kolejnych etapach ewolucji.

Gwiazdy podwójne

Ponad połowa wszystkich gwiazd występuje w postaci układów dwu lub więcej gwiazd, utrzymywanych siłami grawitacji. W układzie podwójnym dwie gwiazdy okrążają wspólny środek masy. Na ogół jedna z gwiazd jest zbyt słaba, by można ją było dostrzec z Ziemi. Astronomowie rozpoznają, że widoczna gwiazda należy do układu podwójnego, gdy wykazuje ona cykliczne wahania jasności lub gdy obserwuje się zakłócenia jej ruchu, odpowiadające oddziaływaniu grawitacyjnemu jakiegoś bliskiego ciała.

Zmienne zaćmieniowe

W układach podwójnych zaćmieniowych każdy ze składników co pewien czas przechodzi przez linię widzenia między Ziemią a drugim składnikiem. Jasność widocznej gwiazdy spada, gdy zostanie ona przesłonięta przez swego mniejszego, niewidocznego towarzysza.

Supernowe

Supernowe to gigantyczne eksplozje, prowadzące do prawie całkowitego rozpadu gwiazdy-nadolbrzyma, czemu towarzyszy wydzielenie do przestrzeni kosmicznej ogromnych ilości światła, innych form energii i materii. Supernowa może przez kilka tygodni przewyższać swym blaskiem całą galaktykę. Jądro takiej gwiazdy może przetrwać eksplozję i przekształcić się w gwiazdę neutronową lub czarną dziurę.

Gdy gwiazda eksploduje w postaci supernowej, jej zewnętrzne warstwy tworzą świecącą mgławicę, która oddala się od jądra z dużą prędkością. Niektóre wybuchy supernowych są tak gwałtowne, że zniszczone zostaje także samo jądro. Około 90 % pozostałości supernowych ma kształt w przybliżeniu sferyczny, część ulega jednak rozerwaniu na pojedyncze gazowe włókna, nie układające się w regularne struktury. Wewnątrz pozostałości supernowych zaobserwowano pulsary.

Cefidy(gwiazdy zmienne)

Jasność gwiazd zmiennych wykazuje regularne lub nieregularne zmiany. Zmienne kataklizmiczne, do których zaliczamy nowe i supernowe, mogą wskutek wybuchu stać się nagle kilka tysięcy razy jaśniejsze. Zmienne pulsujące, które na ogół są czerwonymi olbrzymami, cyklicznie puchną i kurczą się, co wiąże się odpowiednio z pojaśnianiem i pociemnieniem. Zmienne kataklizmiczne

i pulsujące zmieniają zarówno jasność rzeczywistą, jak i widomą. W przypadku zmiennych zaćmieniowych zmiany dotyczą tylko jasności widomej; spowodowane jest to wzajemnym przesłanianiem gwiazd w układzie podwójnym.

Puls gwiazdy.

Niestabilności struktury gwiazd pulsujących powodują ich cykliczne kurczenie się i rozszerzanie.

Gromady gwiazd

Gromadą nazywamy skupisko gwiazd, powiązanych siłami wzajemnego oddziaływania grawitacyjnego. Gwiazdy tworzące gromadę powstały w tym samym czasie z tego samego obłoku gazowo-pyłowego, są więc jednorodne pod względem wieku i składu chemicznego. Należą jednak do różnych typów, gdyż mają różne masy. Gromady dzielą się na kuliste i otwarte. Starsze gromady kuliste zajmują sferyczne halo, otaczające jądro naszej Galaktyki; młodsze gromady otwarte występują w obrębie jej dysku.

Gromady otwarte:

Gromada otwarta jest luźnym skupiskiem, zawierającym nawet kilka tysięcy gwiazd. W naszej Galaktyce znamy około 1200 gromad otwartych, wszystkie rozmieszczone w obrębie dysku galaktycznego. Typowa średnica gromad otwartych to kilka lat świetlnych; zawierają one młode gwiazdy o silnym blasku, tzw. gwiazdy I populacji. Gromady otwarte ulegają w końcu rozproszeniu pod wpływem grawitacji innych obiektów w Galaktyce.

Gromady kuliste:

Gromady kuliste to gęste skupiska, liczące od kilkudziesięciu tysięcy do kilkuset tysięcy gwiazd. Rozmiar typowej gromady wynosi około 100 lat świetlnych. Ma ona w przybliżeniu kształt sferyczny, a gwiazdy skupiają się głównie w jej centrum. W skład gromad kulistych wchodzą stare gwiazdy II populacji. W naszej Galaktyce znamy około 150 gromad kulistych, z których większość rozmieszczona jest w halo otaczającym jądro.

Gwiazdozbiory

Już w starożytności ludzie wyróżniali ugrupowania jasnych gwiazd, łącząc poszczególne gwiazdy w figury zwane gwiazdozbiorami. Obecnie, zgodnie z podziałem przyjętym przez Międzynarodową Unię Astronomiczną, na niebie wyróżnia się 88 obszarów, z których każdy stanowi

jeden gwiazdozbiór. Gwiazdozbiory noszą nazwy zwierząt, przedmiotów i postaci mitologicznych. Gwiazdy należące do jednego gwiazdozbioru wydają się znajdować blisko siebie w jednej płaszczyźnie, lecz w rzeczywistości leżą one w różnych odległościach.

Materia międzygwiazdowa

Obszary między gwiazdami wypełnia tzw. ośrodek międzygwiazdowy, złożony głównie z wodoru i helu. Na ogół ośrodek ten ma postać obłoków, które niekiedy można obserwować jako mgławice, jeżeli same emitują lub rozpraszają światło pobliskich gwiazd lub też przesłaniają światło innych obiektów. Materię międzygwiazdową wzbogacają cząstki wiatrów gwiazdowych oraz materia wyrzucana z umierających gwiazd. Rozkład i temperatura tej materii mają charakter nierównomierny, a jej gęstość jest miliardy razy mniejsza od gęstości powietrza.

Ośrodek międzygwiazdowy stanowi około 10 % masy naszej Galaktyki; wartość ta jest typowa dla galaktyk spiralnych. Materia międzygwiazdowa w galaktykach spiralnych znajduje się głównie w ramionach – w obszarach, gdzie powstają gwiazdy. Galaktyki eliptyczne nie zawierają prawie w ogóle materii międzygwiazdowej, gdyż w całości została zużyta w procesach gwiazdotwórczych.

Mgławice

Mgławica to skupisko międzygwiazdowego gazu i pyłu. Mgławice jasne są obłokami lub kłaczkami gazu, świecącymi światłem własnym lub odbitym. Mgławice ciemne nie świecą i można je zobaczyć tylko wtedy, gdy przesłaniają światło pól gwiezdnych lub jasnych mgławic. Wielu obiektów, uważanych przez dawnych astronomów za mgławice, obecnie się do nich nie zalicza. Przy pomocy współczesnych teleskopów stwierdzono, że „mgławice” te są w istocie galaktykami lub gromadami gwiazd.

Mgławice ciemne

Mgławica ciemna jest obłokiem gazu i pyłu, pochłaniającym światło jasnej mgławicy lub pola gwiazdowego leżącego za nim. Mgławica taka nie świeci własnym światłem, może jednak emitować pochłoniętą energię w postaci promieniowania podczerwonego lub fal radiowych. Masa ciemnych mgławic dochodzi do kilku tysięcy mas Słońca. Gdy masa mgławicy ciemnej jest dostatecznie duża, rozpoczyna się proces kondensacji, prowadzący do powstania gwiazd. Pod wpływem wysokiej temperatury gorących, młodych gwiazd staje się ona wtedy jasną mgławicą emisyjną.

Mgławice jasne

Główne rodzaje jasnych mgławic to mgławice refleksyjne i emisyjne. Mgławica refleksyjna rozprasza światło młodych gwiazd, położonych wewnątrz lub w pobliżu niej. Gazy tworzące mgławicę emisyjną świecą, najczęściej w czerwonym lub zielonym obszarze widma, pod wpływem wysokiej temperatury gorących, młodych gwiazd znajdujących się w jej wnętrzu. Do jasnych mgławic zalicza się też pozostałości supernowych oraz tzw. mgławice planetarne.

Mgławice emisyjne

Mgławice emisyjne to obłoki gazowe lub pyłowe w przestrzeni kosmicznej, złożone głównie z wodoru i emitujące energię w formie światła widzialnego. Promieniowanie ultrafioletowe, pochodzące od gorących gwiazd znajdujących się w mgławicy, sprawia, że atomy wodoru przekształcają się w obdarzone ładunkiem elektrycznym jony. To właśnie jony rozświetlają mgławicę od wewnątrz.

Mgławice refleksyjne

Drobiny pyłu w mgławicy refleksyjnej po prostu rozpraszają światło. Obłok pyłu staje się niebieskawy, gdyż światło niebieskie trudniej przez niego przechodzi i jest rozpraszane w większym stopniu niż światło czerwone. Ten sam efekt sprawia, że niebo widziane z Ziemi jest niebieskie – drobiny powietrza rozpraszają światło słoneczne. Nie patrząc bezpośrednio w kierunku Słońca, obserwator widzi głównie światło rozproszone barwy niebieskiej.

Mgławice planetarne

Czerwone olbrzymy odrzucają zewnętrzne warstwy gazu pod koniec cyklu ewolucyjnego. Warstwy te tworzą ekspandującą, świecącą otoczkę, zwaną mgławicą planetarną. Nazwę stworzył niemiecki astronom William Herschel (1738-1822), który uznał, że otoczki, które przybierają kształt klepsydry, pęcherza lub pierścienia, przypominają planety. Otoczka rozszerza się z prędkością około 20 km/s, by ostatecznie rozproszyć się w ośrodku międzygwiazdowym po 35 000 lat.

Przykłady niektórych mgławic

Mgławica Trójdzielna

Mgławica ta stanowi niezwykłe połączenie świecącej różowo mgławicy emisyjnej i błękitnej mgławicy refleksyjnej.

Mgławica Orzeł

Palcowate wybrzuszenia w tym obłoku gazowo-pyłowym kryją w sobie nowe gwiazdy. Każde z nich ma rozmiary mniej więcej Układu Słonecznego.

PLANETY

Merkury

MERKURY jest planetą, która leży najbliżej Słońca. Odznacza się dużą gęstością, przy czym 80 % jego masy przypada na żelazne jądro. Powierzchnię pokrywają kratery i strome skarpy skalne, które utworzyły się w przeszłości, gdy jądro planety ochładzało się i kurczyło, powodując naprężenia skorupy. Merkury pozbawiony jest prawie całkowicie atmosfery, gdyż zbyt słaba grawitacja nie jest w stanie jej utrzymać. Krążąc tak blisko Słońca i nie posiadając atmosfery, która zachowałaby ciepło w nocy, Merkury odznacza się dużymi wahaniami temperatury na powierzchni: od -180 do +430 °C.

Dwuletni dzień

Ponieważ Merkury jest planetą najbliższą Słońca, musi poruszać się dokoła niego szybciej niż inne planety, aby utrzymać się na orbicie. Dlatego rok na Merkurym jest wyjątkowo krótki – jedno okrążenie Słońca, ze średnią prędkością 48 km/s, zajmuje mu zaledwie 88 dni ziemskich. W ciągu każdego roku Merkury obraca się bardzo wolno półtora raza wokół swej osi, co powoduje, iż ma on ze wszystkich planet najdłuższą dobę gwiazdową, trwającą 59 dni ziemskich, i słoneczną, mierzoną od wschodu do wschodu Słońca, trwającą 176 dni ziemskich. Rok merkuriański

Merkury ma najkrótszy rok i najdłuższą dobę słoneczną ze wszystkich planet Układu Słonecznego.

Dane liczbowe

Średnia odległość od Słońca 57 930 000 km

Średnica na równiku 4879 km

Okres obiegu 87,97 dni ziemskich wokół Słońca

Okres obrotu 58 dni 15 godz. 26 min.

Prędkość orbitalna 47,89 km/s (29.75 mps)

Temperatura powierzchni -180 do +430 °C

Masa (masa Ziemi = 1) 0,06

Średnia gęstość 5,43(gęstość wody = 1)

Grawitacja na powierzchni 0,38(grawitacja Ziemi = 1)

Liczba księżyców 0

Wenus

Wenus, druga planeta od Słońca, jest skalnym globem, otulonym gęstymi chmurami, które odbijają większość światła słonecznego, przez co Wenus jest najjaśniejszym ciałem na niebie po Słońcu i Księżycu. Jest na niej gorąco i duszno. Temperatury powierzchniowe dochodzą do 480 C0, a ciśnienie atmosferyczne 90 razy przewyższa ciśnienie ziemskie. Żółtawy kolor chmur pochodzi od kwasu siarkowego. Jego zawartość ulega jednak znacznym zmianom, co nasuwa myśl, że na Wenus występują czynne wulkany.

Dane liczbowe

Średnia odległość od Słońca 108 200 000 km

Średnica na równiku 12 104 km

Okres obiegu wokół Słońca 224,70 dni ziemskich

Okres obrotu 243 dni 0 godz. 27 min.

Prędkość orbitalna 35,03 km/s

Temperatura powierzchni 480 °C (896 °F)

Masa (masa Ziemi = 1) 0,81

Średnia gęstość 5,25(gęstość wody = 1)

Grawitacja na powierzchni 0,93(grawitacja Ziemi = 1)

Liczba księżyców 0

Ziemia

Ziemia jest trzecią planetą od Słońca, największą z 4 planet wewnętrznych. Pod względem budowy przypomina inne planety tej grupy. Metaliczne, stałe jądro otoczone jest przez jądro zewnętrzne z metalu płynnego, po którym następują warstwy płynnych, półpłynnych i stałych skał. Natomiast warunki na powierzchniach tych planet różnią się diametralnie: tylko na Ziemi występuje woda w stanie płynnym, bogata w tlen atmosfera oraz inne warunki sprzyjające życiu. Trwająca od 4,5 miliarda lat ewolucja Ziemi zachodzi nadal, zarówno w sposób naturalny, jak i w wyniku działań człowieka.

Dane liczbowe

Średnia odległość od Słońca149 600 000 km

Średnica na równiku12,756 km

Okres obieguwokół Słońca 365,26 dni

Okres obrotu23 godz. 56 min. 04 sek.

Prędkość orbitalna29,79 km/s

Temperatura powierzchni-55 to +70 °C

Masa 1,00 (masa Ziemi = 1)

Średnia gęstość5,52(gęstość wody = 1)

Grawitacja na powierzchni 1(grawitacja Ziemi = 1)

Liczba księżyców1

KSIĘŻYC – jedyny naturalny satelita Ziemi – jest skalnym globem, którego średnica wynosi jedną czwartą średnicy Ziemi. Księżyc nie świeci własnym światłem, lecz odbija promienie słoneczne. Jego bezwodna, pokryta pyłem powierzchnia nie wykazuje śladów życia. Nie ma na nim atmosfery, gdyż grawitacja jest zbyt słaba, by utrzymać cząsteczki gazu. Powierzchnię pokrywają kratery. Lawa wulkaniczna, która przedostała się do niektórych z nich, utworzyła maria, czyli morza księżycowe.

Dane liczbowe

Średnia odległość od Ziemi 384 500 km

Średnica na równiku3 476 km

Okres obiegu27,32 dni ziemskich

Okres obrotu27,32 dni ziemskich

Prędkość orbitalna1,02 km/s

Temperatura powierzchni-155 to +105 °C

Masa 0,01 (masa Ziemi = 1)

Średnia gęstość 3,34 (gęstość wody = 1)

Grawitacja na powierzchni0.16 (grawitacja Ziemi = 1)

Liczba księżyców0

Mars

Mars, czwarta planeta od Słońca, pod wieloma względami przypomina Ziemię. Doba marsjańska jest tylko nieznacznie dłuższa od ziemskiej. Podobnie zmieniają się pory roku, jakkolwiek rok jest dwa razy dłuższy. Występują tu chmury, wulkany, wąwozy, góry, pustynie i wykazujące sezonową zmienność, białe czapy polarne. Mars jest jednak suchy i zimny. Jego powierzchnię pokrywają odłamki skał oraz czerwonawy pył (stąd określenie: Czerwona Planeta), a rozrzedzona atmosfera jest trująca dla człowieka.

Dane liczbowe

Średnia odległość od Słońca227 940 000 km

Średnica na równiku6,786 km

Okres obiegu wokół Słońca686,98 dni ziemskich

Okres obrotu24 godz. 37 min. 23 sek.

Prędkość orbitalna24,14 km/s

Temperatura powierzchni-120 do +25 °C

Masa 0,11 (masa Ziemi = 1)

Średnia gęstość3,95(gęstość wody = 1)

Grawitacja na powierzchni 0,38 (grawitacja Ziemi = 1)

Liczba księżyców2

Jowisz

Jowisz, piąta planeta od Słońca, jest pierwszą z czterech gazowych planet-olbrzymów. Ma największe rozmiary i masę wśród planet Układu Słonecznego: jego objętość jest 1300 razy większa od objętości Ziemi, a masa przewyższa dwuipółkrotnie łączną masę pozostałych planet. Chmury Jowisza składają się głównie z wodoru i helu. Wnętrze planety zaczyna się na głębokości 1000 km, gdzie wodór przechodzi w stan ciekły. Jeszcze głębiej tworzy się wodór metaliczny. W centrum Jowisza znajduje się jądro o temperaturze około 35 000 C0.

Dane liczbowe

Średnia odległość od Słońca778 330 000 km

Średnica na równiku142,984 km

Okres obiegu wokół Słońca11,86 lat ziemskich

Okres obrotu9 godz. 55 min. 30 sek.

Prędkość orbitalna13,06 km/s

Temperatura u szczytu chmur-150 ľC

Masa 317,93 (masa Ziemi = 1)

Średnia gęstość 1,33 (gęstość wody = 1)

Grawitacja na powierzchni 2,54 (grawitacja Ziemi = 1)

Liczba księżyców16

Saturn

Saturn jest szóstą planetą od Słońca, drugą z czterech gazowych planet-olbrzymów. Posiada co najmniej 20 księżyców i imponujący układ pierścieni. Bardzo szybka, podobnie jak u innych planet tej grupy, rotacja Saturna powoduje wybrzuszenie obszarów równikowych oraz ułożenie rozmytych żółtawych chmur w poziome, równolegle do równika pasma. Saturn to jedyna planeta o średniej gęstości mniejszej od gęstości wody. Z tego powodu jego masa nie przekracza jednej trzeciej masy Jowisza, mimo iż średnice obu planet niewiele się różnią.

Dane liczbowe

Średnia odległość od Słońca1 430 000 000 km

Średnica na równiku120 536 km

Okres obieguwokół Słońca 29,46 lat ziemskich

Okres obrotu10 godz. 39 min. 22 sek.

Prędkość orbitalna9,64 km/s

Temperatura szczytowej warstwy chmur-180 ľC

Masa 95,18 (masa Ziemi = 1)

Średnia gęstość 0.69 (gęstość wody = 1)

Grawitacja na powierzchni0.93 (grawitacja Ziemi = 1)

Liczba księżyców 20

Uran

Uran, siódma planeta od Słońca, jest trzecią z czterech gazowych planet-olbrzymów. Jej kamienne jądro otacza płaszcz gazowo-lodowy. Wokół płaszcza rozciąga się atmosfera zawierająca metan, który nadaje Uranowi niebiesko-zieloną barwę. Ze względu na usytuowanie planety w zewnętrznych rejonach Układu Słonecznego, temperatura górnej po-wierzchni chmur wynosi ledwie -210 C0. Uran posiada 15 księżyców i układ pierścieni, ale na samej planecie nie dostrzeżono nic godnego uwagi. Sonda Voyager 2, przelatując obok Urana w 1986 roku, sfotografowała tylko kilka chmur metanowych.

Dane liczbowe

Średnia odległość od Słońca2 870 000 000 km

Średnica na równiku51 118 km

Okres obiegu wokół Słońca84,01 lat ziemskich

Okres obrotu17 godz. 14 min. 24 sek.

Prędkość orbitalna6,81 km/s

Temperatura szczytowej warstwy chmur-210 ľC

Masa 14,53 (masa Ziemi = 1)

Średnia gęstość1,29 (gęstość wody = 1)

Grawitacja na powierzchni 0,79 (grawitacja Ziemi = 1)

Liczba księżyców15

Neptun

Neptun jest ósmą planetą od Słońca, czwartą z gazowych planet-olbrzymów. Wielkością i budową przypomina swego sąsiada – Urana. Jaskrawo błękitny kolor jego atmosfery pochodzi od metanu. Na Neptunie wieją najszybsze wichry Układu Słonecznego – ich prędkość dochodzi do 2200 km/godz. W warstwie chmur występuje kilka formacji, z których najwyraźniejsza jest Wielka Ciemna Plama, olbrzymi huragan wielkości Ziemi. Pod pokrywą chmur znajduje się płaszcz lodowo-gazowy oraz niewielkie skalne jądro.

Nieregularności orbity Neptuna

Znamy dziewięć planet Układu Słonecznego, lecz czy jest ich więcej? Niektórzy astronomowie sugerują, że nieregularności orbity Neptuna wywołuje dziesiąta, nieznana dotychczas planeta o dużej masie, obiegająca Słońce poza orbitą Plutona. Ta hipotetyczna planeta określana jest jako Planeta X. Przeciwnicy tej teorii argumentują, że w początkach istnienia Układ Słoneczny zawierał zbyt mało materii, by możliwe było utworzenie 10 planety, oraz że Układ Słoneczny jest zbyt młody, by w tak znacznej odległości od Słońca zdążyła się uformować planeta.

Dane liczbowe

Średnia odległość od Słońca 4 490 000 000 km

Średnica na równiku 49 528 km

Okres obiegu wokół Słońca 164,79 lata ziemskie

Okres obrotu 19 godz. 12 min.

Prędkość orbitalna 5,47 km/s

Temperatura szczytowej warstwy chmur -220 °C

Masa 17,14 (masa Ziemi = 1)

Średnia gęstość 1,64 (gęstość wody = 1)

Grawitacja na powierzchni 1,20 (grawitacja Ziemi = 1)

Liczba księżyców 8

Pluton

Pluton, dziewiąta planeta od Słońca, to zimny, ciemny glob, dla którego Słońce stanowi jedynie jasną gwiazdę na niebie. Pluton jest mniejszy od Księżyca. Ma rzadką atmosferę, która tworzy się, gdy planeta zbliży się do Słońca, lecz ponownie zamarza, gdy planeta się oddala. Pluton krąży po mocno wydłużonej orbicie; jej kąt nachylenia do ekliptyki jest większy niż w przypadku innych planet. Jedno okrążenie Słońca trwa 248,5 roku i w ciągu 20 lat z tego okresu Pluton znajduje się bliżej Słońca niż Neptun. Te cechy zdają się sugerować, że Pluton może być w rzeczywistości dużą planetoidą.

Dane liczbowe

Średnia odległość od Słońca5 910 000 000 km

Średnica na równiku2 290 km

Okres obiegu wokół Słońca248,54 lata ziemskie

Okres obrotu6 dni 9 godz. 17 min.

Prędkość orbitalna4,74 km/s

Temperatura powierzchni-230 ľC

Masa 0,01 (masa Ziemi = 1)

Średnia gęstość2,03 (gęstość wody = 1)

Grawitacja na powierzchni0,04 (grawitacja Ziemi = 1)

Liczba księżyców1

Planetoidy

Planetoidami (lub asteroidami) nazywamy niewielkie ciała niebieskie krążące wokół Słońca, o rozmiarach mniejszych niż planety. Zalicza się do nich zarówno obiekty o średnicy około 1000 km, jak i najmniejsze drobiny pyłowe. Pod względem składu można wyróżnić planetoidy kamienne, węglowe i metaliczne. Występują przede wszystkim w pasie planetoid, położonym pomiędzy orbitami Marsa i Jowisza.

Pas planetoid

Pas planetoid między orbitami Marsa i Jowisza, w odległości od 1,7 do 4 jednostek astronomicznych od Słońca. Zawiera miliardy planetoid poprzedzielanych rozległymi obszarami pustej przestrzeni. Planetoidy mogą być węglowe, kamienne lub metaliczne. Zdaniem naukowców planetoidy uległyby skupieniu w jedną planetę, gdyby nie wpływ potężnego pola grawitacyjnego Jowisza.

Niedoszła planeta

Planetoidy zwane są też asteroidami lub planetkami. Każda z nich okrąża Słońce po własnej orbicie.

Komety

Większość komet Układu Słonecznego znajduje się w jego najdalszych obszarach zewnętrznych. Tylko niektóre krążą po orbitach przebiegających w pobliżu Słońca i co pewien czas wywołują spektakularne efekty na nocnym niebie. Jądro komety składa się z pyłu i lodu i ma średnicę do 20 kilometrów. Gdy kometa zbliża się do Słońca, lód gwałtownie paruje, tworząc jasną komę i długi warkocz.

Kometa West, 1976

Kometa ta posiadała dwa warkocze: prosty, błękitny warkocz gazowy i zakrzywiony, żółtawy warkocz pyłowy.

Pyłowo-lodowe jądro komety nazywane jest niekiedy kulą brudnego śniegu.

Kometa Halleya to kometa krótkookresowa, dokonująca jednego obiegu Słońca w ciągu 76 lat. Najbliższy Słońca punkt jej orbity leży między orbitą Merkurego i Wenus, a najdalszy – poza orbitą Neptuna. Jest jedyną kometą, której jądro sfotografowano. W 1986 roku wystrzelono 5 sond kosmicznych dla jej zbadania i jedna z nich – Giotto – wykonała dobrej jakości zdjęcie jądra.

Kometa Shoemaker-Levy

Komety z chmury Öpika–Oorta dzieli od Słońca odległość do dwóch lat świetlnych. Gdy z jakichś przyczyn kometa znajdzie się w planetarnej części Układu Słonecznego, może się zdarzyć, że pole grawitacyjne planet-olbrzymów zmieni jej trajektorię.

Chmura Öpika–Oorta

Większość komet pochodzi z chmury Öpika–Oorta – olbrzymiego sferycznego obszaru o średnicy ponad 200 000 jednostek astronomicznych, rozciągającego się wokół części planetarnej Układu Słonecznego. Przyjmuje się, że liczy ona około 10 bilionów komet, o łącznej masie odpowiadającej trzykrotnej masie Ziemi. Wewnątrz znajduje się pas Kuipera – mniejszy obszar zawierający podgrupę komet.

Meteoryt tunguski

Rankiem 30 czerwca 1908 roku potężna eksplozja, widoczna w promieniu 500 kilometrów, wstrząsnęłą okolicą rzeki Podkamiennaja Tunguska na Syberii. Naoczni świadkowie relacjonowali, że jaskrawy błękitny obiekt przeciął nieboskłon, a następnie eksplodował, przemieniając się w ognistą kulę jaśniejszą niż Słońce. Wybuch spustoszył obszar o średnicy około 80 kilometrów. Sądzi się, że ciałem tym mogło być jądro niewielkiej komety lub mała planetoida.

Słońce

SŁOŃCE to gwiazda ciągu głównego, której wiek wynosi 5 miliardów lat. Jest ono kulą gazów – głównie wodoru i helu – o średnicy około 1,4 miliona km. Jego masa przewyższa 750 razy łączną masę planet i jest 7 razy większa niż masa przeciętnej gwiazdy. Reakcje syntezy termojądrowej, zachodzące w jądrze Słońca, przekształcają masę w promieniowanie elektromagnetyczne, które jest emitowane na zewnątrz. Dzięki temu Słońce oświetla i ogrzewa ciała Układu Słonecznego, utrzymywane na orbitach siłą jego grawitacji.

Posted in Uncategorized | Leave a comment

Zastosowanie ultradźwięków

1.Głowica ultradźwiękowa, podstawowy zespół obrabiarki ultradźwiękowej, składający się z przetwornika magnetostrykcyjnego wytwarzającego drgania ultradźwiękowe oraz mechanizmu ruchu posuwowego. Głowica ultradźwiękowa stosowana jest do obróbki twardych i kruchych materiałów, m.in. szkła, porcelany.

2.Echolokacja, sposób ustalania przez niektóre organizmy żywe swego położenia względem otaczających je przedmiotów, polegający na wysyłaniu (do 150 kHz a czasem więcej, są to tzw. piski ultradźwiękowe) i odbieraniu sygnałów akustycznych odbitych od otoczenia. Zdolność echolokacji, pozwalającą na swobodne poruszanie się między przeszkodami, a także na zdobywanie pokarmu, posiadają niektóre zwierzęta prowadzące nocny tryb życia lub żyjące w niekorzystnych warunkach oświetlenia, np. delfiny, nietoperze. Nietoperze w czasie lotu wydają średnio 20-30 ultradźwięków na sekundę, natomiast gdy zbliżają się do przeszkody ok. 200/sekundę. Potrafią bezbłędnie odróżnić echo własnych dźwięków od innych, nawet o tej samej częstotliwości. Odbioru własnych sygnałów nie zakłócają nawet hałasy otoczenia. U niektórych ptaków np. tłuszczaków i jerzyków, występuje podobny system echolokacji, z tym, że wydają one dźwięki o częstotliwości dużo mniejszej ok. 7kHz, więc słyszalnej dla człowieka.

3.Ultrasonografia, USG, badanie narządów wewnętrznych za pomocą fal ultradźwiękowych. Metoda diagnostyczna oparta na zjawisku echa ultradźwiękowego. Informacje uzyskane tą metodą mogą być przedstawione na ekranie oscyloskopowym w postaci impulsów lub w postaci obrazu rozkładu tkanek normalnych i patologicznych.

4.Grawerowanie, czynność polegająca na wykonywaniu wzorów w metalu lub szkle, przy pomocy rylca, ostrza diamentowego, tarczy obrotowej (do szkła), środków chemicznych lub metodami obróbki ultradźwiękowej, elektroiskrowej. Wykonany wzór może być wypukły lub wklęsły, wówczas wypełnia się go innym materiałem. Grawerowanie służy do żłobienia matryc, miedzianych form drukarskich, stalorytów do banknotów, znaków pocztowych. Do XVIII w . grawerowanie wchodziło w skład sztuki złotniczej.

5.Ultradźwiękowa obróbka, obróbka udarowo-ścierna, wariant obróbki skrawaniem wykorzystujący pracę ziaren, poddawanych okresowym obciążeniom koncentratora o częstotliwości ultradźwiękowej (rzędu 20-25 kHz). Końcówka koncentratora jest narzędziem odwzorowującym się w obrabianym materiale.

6.Defektoskopia, nie niszcząca metoda badań uszkodzeń i wykrywania defektów w przedmiotach, głównie metalowych (odlewach, odkuwkach, spawach itp.). Ze względu na wykorzystywane w badaniu zjawiska fizyczne rozróżnia się defektoskopię gamma, rentgenowską, luminescencyjną, magnetyczną i elektromagnetyczną oraz ultradźwiękową. W defektoskopii ultradźwiękowej bada się rozchodzenie się fali akustycznej wysokiej częstości w danym przedmiocie. Stosuje się tu metody: echa, cienia, rezonansu, impedancji oraz drgań własnych.

7.Ultrasonoterapia, leczenie ultradźwiękami. Ich wpływ leczniczy polega na działaniu przeciwbólowym, zmniejszaniu napięcia mięśni, rozszerzeniu naczyń krwionośnych, hamowaniu procesów zapalnych, przyspieszaniu wchłaniania tkankowego.. Działają na autonomiczny układ nerwowy.

8.Litotrypsja, kruszenie kamieni (kamica) w pęcherzu moczowym przyrządem (litotryptor) wprowadzonym przez cewkę. Można wykonać litotrypsję ślepą lub optyczną, działając falą elektrohydrauralityczną lub falą ultradźwiękową. Pokruszone odłamki ewakuuje się ewakuatorem (gruszka Bigelowa lub Ellika). Obecnie najczęściej stosuje się litotrypsję w nerce dwoma sposobami: przezskórnie – za pomocą ultradźwięków, lub nieinwazyjnie za pomocą fal uderzeniowych wytwarzanych w lipotrypterach (ESWL).

9.Homogenizacja, wytwarzanie jednolitej, trwałej mieszaniny z dwóch lub więcej składników, nie mieszających się ze sobą w warunkach normalnych. Homogenizację przeprowadza się m.in. metodą ciśnieniową, sposobem udarowym, działaniem ultradźwięków, poprzez intensywne, szybkie mieszanie oraz przez zastosowanie środków chemicznych (dyspergatorów lub emulgatorów). Homogenizacja stosowana jest w przemyśle spożywczym (np. przy wyrobie margaryny, majonezu), w przemyśle kosmetycznym (przy wyrobie kremów) itp. W mikrobiologii lekarskiej termin ten oznacza jedną z technik przygotowania materiału klinicznego (np. do badania plwociny na obecność prątków gruźliczych).

10.Magnetyczny zapis dźwięku (obrazu, informacji), metoda zapisu informacji, polegająca na wytworzeniu (na drodze indukcji, dzięki odpowiedniej głowicy będącej rodzajem elektromagnesu) w nośniku informacji (taśmie magnetycznej, dysku magnetycznym itp.), wykonanym z magnetodielektryka, namagnesowania proporcjonalnego do chwilowej wartości zapisywanego sygnału. Przesuw nośnika zapewnia uzyskanie zapisu czasowych zmian sygnału. Odczyt polega na indukcyjnym wzbudzaniu w głowicy odczytującej prądu proporcjonalnego do zarejestrowanego namagnesowania. Kasowanie informacji polega na zapisie informacji neutralnej (np. dźwięku o częstotliwości ultradźwiękowej). Technika magnetycznego zapisu dźwięku wykorzystywana jest do zapisu informacji cyfrowych (np. dyskietki, dyski i taśmy komputerowe) oraz analogowych (np. taśmy magnetofonowe i magnetowidowe). Magnetyczny zapis dźwięku zastosowany został po raz pierwszy w 1898 (tzw. telegrafon, nośnik informacji w postaci drutu stalowego). W 1935 opracowano pierwszy magnetofon z taśmą z magnetodielektryka, w 1963 wprowadzono (Philips) kasetę magnetofonową.

11.Grzejnik, urządzenie wypromieniowujące energię cieplną, powstającą w nim w wyniku przetwarzania innych rodzajów energii (np. energii elektrycznej) lub doprowadzoną do niego z zewnątrz za pośrednictwem nośników ciepła (np. pary wodnej, gorącej wody). W zależności od rodzaju przetwarzanej energii rozróżnia się m.in. grzejniki elektryczne (np. indukcyjne, oporowe, ultradźwiękowe), grzejniki gazowe, grzejniki naftowe. Grzejniki stosowane są do nagrzewania ciał stałych lub ciekłych (piece przemysłowe, kanałowe grzejniki rurowe typu Junkersa itp.), jak również do ogrzewania powietrza w pomieszczeniach zamkniętych (potocznie zwane kaloryferami grzejniki wodne, parowe, elektryczne itp.).

12.Odemglanie, usuwanie mgły znad ograniczonego obszaru (np. lotniska) za pomocą małych rakiet prochowych (rakieta) z ładunkiem chemicznym albo przy użyciu syren ultradźwiękowych (o częstotliwości 45-200 kHz i mocy rzędu 35 kW), wysyłających za pośrednictwem rogu akustycznego fale o dużej częstotliwości, pod których wpływem mgła kondensuje się na powierzchni ziemi.

13.Sonoluminescencja, odmiana luminescencji zachodzącej pod wpływem działania fal ultradźwiękowych (ultradźwięki).

14.Hydrolokacja, ogół technik akustycznych służących lokalizowaniu przedmiotów zanurzonych w zbiornikach wodnych. Wyróżnia się hydrolokację pasywną i aktywną. Hydrolokacja pasywna polega na wykorzystywaniu pola akustycznego pochodzącego od lokalizowanego przedmiotu, w hydrolokacji aktywnej wykorzystuje się echo akustyczne (echolokacja) przedmiotów, stosuje się fale ultradźwiękowe (ultradźwięki). Hydrolokator, aktywne urządzenie hydrolokacyjne złożone z obrotowego reflektora nadajnika, emitującego wąską wiązkę ultradźwięków, oraz odbiornika i układu przeliczeniowego, dzięki któremu czas powrotu fali wyznacza odległość od wykrytego obiektu.

15.Inhalator, aparat do rozpylania płynów leczniczych przeznaczonych do wziewania (inhalacja). Obok dawniej stosowanych aparatów parowych, stosuje się obecnie napęd elektryczny lub rozpylanie przy użyciu ultradźwięków. Pozwala to na uzyskanie niezwykle drobnych cząsteczek, co umożliwia przenikanie ich do drobnych oskrzelików, a nawet pęcherzyków płucnych.

16.Nebulizator, mgielnik, przyrząd lub aparat służący do rozpraszania płynu na bardzo drobne cząsteczki, do wytwarzania mgły (nebula – mgła, nebulizacja). Nebulizatory mechaniczne są najprostszymi urządzeniami, działającymi na zasadzie rozpylacza. Nebulizatory ultradźwiękowe są aparatami złożonymi i najbardziej wydajnymi. Powszechnie stosowane w terapii oddechowej.

17.Nefroskop, przyrząd optyczny przystosowany do oglądania wnętrza nerki. Wprowadza się go przez uprzednio przygotowany kanał przezskórny do miedniczki nerkowej. Przez nefroskop operacyjny można kruszyć kamienie miedniczki i kielichów (falą ultradźwiękową) lub wprowadzić kleszczyki do usuwania drobnych kamieni (kamica).

18.Betonoskop, urządzenie, które poprzez pomiar rozchodzenia się fali ultradźwiękowej określa jakość betonu.

19.Sonar (z angielskiego Sound Navigation and Ranging), urządzenie do określania położenia obiektów podwodnych (ławic ryb, okrętów podwodnych) za pomocą dźwięków i ultradźwięków. Rodzaj hydrolokatora.

20.Zgrzewanie, trwałe łączenie materiałów (metali, tworzyw sztucznych) przez silne dociśnięcie do siebie łączonych części, bez podgrzania lub z wcześniejszym podgrzaniem miejsc łączonych. Najczęściej stosuje się zgrzewanie: oporowe (elektryczne), gazowe (za pomocą palników acetylenowo-tlenowych), termitowe (termit), indukcyjne (elektryczne), tarciowe, dyfuzyjne oraz zgniotowe i ultradźwiękowe. Zgrzewanie znajduje szerokie zastosowanie m.in. w przemyśle samochodowym i lotniczym.

21.Fetografia, metoda rentgenologiczna (radiologiczna) diagnostyczna uwidocznienia płodu. W najprostszej postaci polega na zdjęciu radiologicznym macicy po czwartym miesiącu ciąży, gdy kościec płodu zawiera dość wapnia, aby się kontrastowo uwidocznić na tle tkanek nieuwapnionych. Wykonuje się ją przy bezwzględnych wskazaniach lekarskich, jak np. podejrzenie śmierci płodu lub wad rozwojowych wykluczających życie noworodka (np. bezgłowie), albo przy podejrzeniu ciąży mnogiej i w innych wypadkach wymagających zmian planu działania położnika. We wcześniejszym okresie ciąży płód daje się uwidocznić po wprowadzeniu przez powłoki środka cieniującego o kontraście dodatnim do wód płodowych. Obecnie najlepiej uwidaczniamy płód za pomocą ultradźwięków.

22.Litotryptor, skruszacz, przyrząd służący do kruszenia kamieni w pęcherzu moczowym, wprowadzany przez cewkę do pęcherza. Litotryptory mogą być “ślepe” i optyczne. Obecnie stosuje się sondy – ureterorenoskopy, które wysyłają ultradźwięki i za ich pomocą rozbijają kamienie.

23.Fakoemulsyfikacja, metoda operacji zaćmy polegająca na rozdrobnieniu soczewki za pomocą ultradźwięków i aspiracji powstałych mas soczewkowych.

24.Leczenie chondromalacji rzepki

25.Leczenie chorób reumatycznych

26.Leczenie zwyrodnień stawów

27.Zanieczyszczenia wód, wprowadzone do wód naturalnych organizmy żywe, zanieczyszczenia mechaniczne lub substancje chemiczne, które albo nie są ich naturalnymi składnikami, albo – będąc nimi – występują w stężeniach przekraczających właściwy dla nich zakres. Usuwaniu zanieczyszczeń wód służy: zmiękczanie wody, jej napowietrzanie, chlorowanie, ozonowanie, koagulacja, odpędzanie gazów w wieżach desorpcyjnych, naświetlanie promieniowaniem ultrafioletowym, działanie ultradźwiękami oraz oczyszczanie biochemiczne. Często stosowanymi wskaźnikami jakości wód są biochemiczne zapotrzebowanie tlenu (BZT) i chemiczne zapotrzebowanie tlenu (ChZT).

28.Drążarka, obrabiarka służąca do drążenia otworów lub wgłębień o złożonych kształtach w przedmiotach wykonanych ze stali hartowanych, stopowych, węglików spiekanych i innych materiałów, których obróbka skrawaniem jest bardzo trudna lub nawet niemożliwa. W zależności od stosowanej metody obróbki rozróżnia się drążarki: elektroiskrowe, elektrochemiczne, ultradźwiękowe oraz fotonowe.

29.Obróbka erozyjna, obróbka materiału polegająca na usuwaniu określonej części materiału przy wykorzystaniu zjawiska erozji. Obróbkę erozyjną wykonuje się najczęściej na drążarkach. Obróbkę erozyjną stosuje się głównie do kształtowania materiałów trudno skrawalnych i nieskrawalnych. Rozróżnia się obróbkę erozyjną: elektroerozyjną, strumieniowoerozyjną (np. obróbka fotonowa, jonowa, elektronowa), ultradźwiękową.

30.Odpylacz, urządzenie służące do usuwania cząstek ciał stałych lub cieczy z gazów spalinowych i przemysłowych. W zależności od zasady działania rozróżnia się: (…) odpylacze akustyczne i ultraakustyczne (gaz poddawany jest działaniu fal dźwiękowych (fale akustyczne) lub ultradźwiękowych).

31.Leczenie ostróg piętowych

32.Leczenie choroby sudeckiej

33.Leczenie rozstępów

34.Batymetria jeziora lub zbiornika wodnego polega na pomiarze jego głębokości z jednoczesnym naniesieniem wyników na mapę. Sondowanie głębokości odbywa się w sposób ciągły tzn. sonda przymocowana do deski pływającej jest ciągnięta za łódką i wykonuje pomiar odległości pomiędzy zwierciadłem wody a dnem zbiornika. Echosonda emituje ultradźwięki, które odbijają się od dna zbiornika i następnie rejestrowane są przez odpowiedni sensor, czas upływający od wysłania ultradźwięku do jego ponownej rejestracji jest wprost proporcjonalny do głębokości. Integralną częścią echosondy jest dalmierz, który rejestruje w momencie pomiaru głębokości odległość od brzegu.

35.Elektrohydraulicznie sterowana platforma może być zastosowana w układach ruchu symulatorów samolotów, śmigłowców, pojazdów itp. Umożliwia ona doskonałe odzwierciedlenie stymulacji przedsionkowej zachodzącej podczas ruchu w rzeczywistym obiekcie. System ruchu platformy składa się z sześciu serwonapędów. Impulsy sterujące generowane są komputerowo. W sprzężeniu zwrotnym zostały zastosowane zaawansowane technicznie ultradźwiękowe przetworniki przemieszczeń.

36.Pomocnik parkowania na ultradźwięki (instalowany w samochodach)

37.Usuwanie (odsysanie) tkanki tłuszczowej

38.Autoalarmy, alarmy, czujniki ultradźwiękowe

39.Tester grubości słoniny

40.Leczenie uszkodzonych stawów

41.Leczenie uszkodzonych ścięgien

42.Leczenie „łokcia tenisisty”

43.Leczenie zespołu bolesnego barku

44.Ultradźwiękowy tester ciąży dla świń i owiec

45.Ultradźwiękowy odstraszacz gryzoni

46.Robot często musi poruszać się w terenie pełnym przeszkód. Mogą to być chociażby ściany w pokoju. Rzeczą oczywistą jest to, że robot nie może bezmyślnie wjeżdżać na napotykane przeszkody. W związku z tym należy skonstruować system, który umożliwi mu bezkonfliktowe poruszanie się w terenie. Chyba najprostszym rozwiązaniem jest zastosowanie przełącznika typu reset. Należy go umieścić w przedniej części naszego robota. Gdy podjedzie on np. do ściany, spowoduje to że przełącznik zostanie wciśnięty i robot zacznie np. poruszać się w kierunku przeciwnym. Podobny przełącznik można również zamocować z tyłu robota. Innym, zdecydowanie trudniejszym sposobem jest wykorzystanie podczerwieni lub ultradźwięków. W pierwszym przypadku robot wykorzystuje odbicia podczerwieni od przeszkód. Co jakiś czas z diody nadawczej wysyłany jest sygnał świetlny (podczerwony). Jeżeli napotka on na przeszkodę to odbija się od niej i wraca do diody odbiorczej. Wtedy robot wie, że natrafił na niepożądany obiekt. Bardzo podobnie wygląda system ultradźwiękowy. Ultradźwięk zostaje wysłany i jeżeli powróci do odbiornika, to znaczy że robot natrafił na przeszkodę.

47.Ultradźwiękowe usuwanie kamienia nazębnego

48.Usuwanie blizn

49.Dźwiękowy odstraszacz kretów

50.Leczenie celulitisu

51.Leczenie astmy oskrzelowej

52.Leczenie nadciśnienia pierwotnego

53.Pomiar zawartości wapnia w kości

54.Kontrola bieżąca spawania i sprawdzenie jakości złącz po spawaniu za pomocą metod nieniszczących (Rtg, ultradźwięki, magnetyczne-proszkowe, penetracyjne)

55.Licznik ultradźwiękowy (liczy, ile osób weszło do sali, nie liczy osób wychodzących – dwa czujniki)

56.Biometryczna kontrola dostępu, czyli badanie palców za pomocą ultradźwięków

57.Odczytywanie struktury linii papilarnych za pomocą kamery ultradźwiękowej

58.Badanie podniebienia miękkiego

59.Badanie wad materiałowych

60.Ultradźwiękowe czujki ruchu

61.Płuczki i łaźnie ultradźwiękowe

62.Leczenie nerwobólu nerwu trójdzielnego

63.Leczenie szczękościsku

64.Leczenie przykurczu Dupuytrena

65.Myjki ultradźwiękowe – Nowa technologia mycia za pomocą ultradźwięków zapewnia szybkie i skuteczne oczyszczenie najbardziej niedostępnych miejsc. Energia fali ultradźwiękowej przenika przez każdy materiał usuwając zanieczyszczenia; specjalnie dobrany roztwór wodny środka myjącego wypłukuje je. Są to środki niepalne, nie wybuchowe, nie powodujące korozji, nie zanieczyszczające środowiska. System mycia za pomocą ultradźwięków jest najbardziej skutecznym i dającym najlepsze rezultaty sposobem czyszczenia wałków rastrowych (aniloxów). Jest to metoda nieniszcząca powierzchni i może być stosowana również do form drukowych.

66.Wysokoenergetyczna obróbka ultradźwiękowa drewna i surowców włóknistych

67.Echokardiografia jest to obrazowa metoda badania serca i naczyń krwionośnych za pomocą ultradźwięków. Na ekranie monitora uzyskuje się obraz („echo”) powstający w wyniku odbicia od badanych struktur wewnątrz ciała fali ultradźwiękowej wysyłanej z głowicy aparatu. Zwykle stosuje się ultradźwięki o częstotliwości od 1 do 10 MHz. Istnieje możliwość zarejestrowania obrazu w dowolnym momencie na papierze lub taśmie video.

68.Tester mięsności bydła

69.Leczenie stanów po urazach sportowych

70.Obróbka twardych i kruchych materiałów

71.Spawanie

72.Otrzymywanie stopów różniących się znacznie temperaturami topnienia i gęstością

73.Oczyszczanie dymów

74.Otrzymywanie emulsji, aerozoli

75.Przyspieszenie i wzmaganie wzrostu roślin

76.Badanie akustyki sal widowiskowych

77.Określanie właściwości materiałów lepkosprężystych

78.Radiometry ultradźwiękowe

79.Przetworniki piezoelektryczne

80.Przetworniki umożliwiające wizualizację pola ultradźwiękowego stosowane w optosonice i holografii akustycznej

Posted in Uncategorized | Leave a comment

Fale elektromagnetyczne

Doś Younga-światło ze źródła kierowane jest na przeszkodę z 2 szczelinami.W wyniku dyfrakcji każda ze szczelin staje się źródłem nowej fali.Powstałe fale biegnąc w różnych kierunkach nakładają się na siebie(interferencja)Wynikiem jest powstanie na ekranie na przemian jasnych i ciemnych obszarów.Obszary jasne-wzmocnienie,obszary ciemne-wygaszenie d*sin=n-obszar jasny.r=2n+1/2-obszar ciemny.=d*l/nLl-odległość zmierzona na ekranie pomiędzy wybranym prążkiem a prążkiem zerowym”u”numer prążka,”L”odl.między szczelin.a ekranem.”d”odl.między szczelinami.””długość fali.Widmo-rozkład promieniowania na poszczególne długości fal.Powstaje ono wtedy gdy światło z badanego źródła kierowane jest na układ wielu szczelin.Siatka dyfrakcyjna-nazywamy układ wielu szczelin znajdujących się w jednakowej odległości i mających rozmiary porównywalne do długości fal.Widmo liniowe-widmo składjące się z oddzielnych linii.Różne świecące pierwiastki dają inny rozkład linii widzianych,który jednoznacznie określa rodzaj pierwiastkaWidmo ciągłe-widmo,którego parametry zależą w niewielkim stopniu od odległości fali.Widmo ciągłe powstaje przy przejściu światła białego przez pryzmat.Św o widmie ciągłym wysłane jest przez ciała stałe rozgrzane do wysokiej temp. Św monochromatyczne-światło,które ma jedną ściśle określoną długość faliŚwiatło niemonochrom-światło które jest mieszaniną fal o różnych długościachHipoteza Maxwella-fale których rozchodzenie polega na przemieszczeniu się zmiennych pól elektrycznych i magnetycznych nazywamy falami elektromagnetycznymi.W najprostszym przypadku pojedynczy impuls falowy wytworzony zostanie w czasie ruchu ładunku elektrycznego.Wytworzone zmienne pole elektryczne zgodnie z prawami Maxwella wytwarza zmienne pole magnetyczne,które z kolei wytwarza zmienne pole elektryczne . Jeżeli ładunek wykonuje drgania to szereg impulsów tworzy falę elektromagnetyczną,która biegnie z prędkościa “C”=300.00km/sPrędkość światła-zależy od rodzaju ośrodka większa jest w powietrzu a w wodzie mniejszaPrędkość fali w ośrodku zależy od jej częstości oraz długości w danym ośrodku V=*Częstość danej fali w różnych ośrodka ch są równe. p-w Żeby obliczyć długość fal w różnych ośrodkach to trzeba wykonać doświadczenie Younga badając promień światła biegnący w różnych ośrodkach.Odległość między prążkami jasnymi jest większa wtedy gdy światło biegnie cały czas w powietrzu,a mniejsza gdy w wodzie.Ponieważ długość fali jest wprost proporcjonalna do odległości pomiędzy prążkami na ekranie to w powietrzu gdzie odległośćjest większa długość ma fala świetlna.Prędkość światła zależy od rodzaju ośrodka,większa jest fala w powietrzu a w wodzie mniejszaPromień światła-wąski strumień światła wycięty przez układ szczelin o szerokości 1mmNormalna-prosta prostopadła do powierzchni granicznejPrawo odbicia-kąt padania równy jest kątowi odbicia a promień padający promień odbity i normalna leżą w jednej płaszczyźnieZałanmanie-zjawisko zmiany kierunku rozchodzenia się światła wtedy gdy przechodzi ono pomiędzy różnymi ośrodkami. sin/sin=n-współczyn nik załamania światła-Stosunek kąta padania do sinusa kąta załamania jest wielkością stałą zależną od rodzaju ośrodków i nazywamy go współczynnikiem załamania światła ( n ) . Soczewka-przeżroczysta bryła ograniczona z obu stron powierzchniami kuli lub z jednej strony powierzchnią kuli a z drugiej płaską powierzchnią.Ze względu na kształt soczewki wyróżniamy : dwu wypukłe,płasko-wklęsłe,wypukło-wkęsłe,płasko-wypukłą,dwuwklęsła.Ognisko soczewki-punkt w którym przecinają się promienie przechodzące przez soczewkę które były skierowane równole głe do osi soczewki.Ogniskowa-odległość między środkiem soczewki a ogniskiem soczewkiKąt graniczny-kąt padania dla którego kąt załamania wynosi 90sJeżeli światło skierujemy z ośrodka gęstego ku rzadszemu pod większym kątem od kąta granicznego to zajdzie zjawisko całkowitego wewnętrznego odbiciaRównanie soczewki-1/x+1/y=1/f, h/h=f Powiększenie soczewkiMikroskop-układ 2 soczewek mających wspólną oś optyczną i znajdujących się w odpowiednio dobranej odległości.Powiększenie mikroskopu jest iloczynem powiększeń poszczególnych soczewek.

Posted in Uncategorized | Leave a comment