Hertz i elektromagnetyzm

Naukowe zbadanie zjawisk elektromagnetycznych umożliwiło odkrycie i wykorzystanie fal radiowych.
Około roku 1800 angielski astronom William Herschel (1738-1822) zaczął się, zastanawiać, dlaczego promienie słoneczne padając na ciało ogrzewają je. Herschel przepuścił promień słoneczny przez pryzmat, podobnie jak 100 lat wcześniej uczynił Newton, uzyskując na ekranie ustawionym za pryzmatem widmo barwne. Następnie umieszczał kolejno w odpowiednich obszarach widma termometr i mierzył przyrosty temperatury w różnych jego częściach. E fioletowej części widma temperatura nie zmieniała się, na obszarze czerwieni słupek rtęci zaczął się podnosić. Na ciemnym obszarze sąsiadującym z czerwienią wzrost temperatury był najwyższy, co oznaczało, że właśnie tam wydziela się najwięcej energii. W ten sposób Herschel odkrył promieniowanie podczerwone.
Prawie w tym samym czasie widmo światła słonecznego badał także niemiecki fizyk Johann Wilhelm Ritter (1776-1810). Wiedział on, że światło powoduje redukcję azotanu srebra do postaci metalicznej. Efekt ten jest szczególnie silny jak się okazało, przy naświetlaniu azotanu światłem z niebiesko-fioletowej części widma, a proces przebiega jeszcze szybciej pod działaniem „niewidzialnych promieni” (promieniowania ultrafioletowego).
Faraday i Maxwell
Stał się jasne, że światło to nie tylko promieniowanie widzialne, jednak nikt nie potrafił wówczas wytłumaczyć czym światło jest naprawdę. Pierwsze sugestie pochodziły od angielskiego fizyka Michaela Faraday’a (1791-1867). Odkrył on związek pomiędzy elektrycznością a magnetyzmem. Faraday stwierdził, że wokół drutu przez który przepływa prąd elektryczny powstają takie same linie sił pola jak wokół stałego magnesu.
W 1855 roku szkocki fizyk i matematyk James Clerk Maxwell (1831-1879), na podstawie doświadczalnych prac Faraday’a i innych naukowców, opisał ścisłe matematyczne relacje pomiędzy liniami sił pola magnetycznego, a przepływem czegoś co nazwał „wyimaginowaną
cieczą”, a co dziś nazywamy prądem elektrycznym.
Maxwell kontynuował rozważania dotyczące sposobu, w jaki prąd płynący w pętli z drutu lub statyczny ładunek elektryczny na izolowanej płycie mogą wyindukować odpowiednio podobny przepływ prądu w jednej pętli lub statyczny ładunek elektryczny na innej płycie. Faraday nazwał wszystko, co może oddzielać, izolować, takie dwa układy przewodników dielektrykiem, niezależnie czy byłaby to płyta szklana, woskowa czy też powietrze. Maxwell założył, że siły elektryczne przechodzą przez taki dielektryk podobnie jak siły sprężystości przez sprężynę. Określił przy tym pewną własność dielektryków – „elastyczność”, czyli podatność elektryczną. Jednocześnie siły elektryczne, odpowiadające ciśnieniu maxwellowskiej „wyimaginowanej cieczy”, pozostawać miały stałe. Ciecz ta była według niego nieściśliwa i wyłącznie „elastyczność” dielektryka odpowiadać miała za jej przenoszenie z jednego miejsca na drugie.
Teoria falowa.
Siły elektryczne miały być według Maxwella przenoszone na zasadzie falowej. Gdy wrzucamy kamień do stawu, wokół miejsca, w którym wpadł do wody tworzą się fale, które przenoszą energię na dużą odległość od miejsca upadku. Korek pływający na wodzie zaczyna podskakiwać na falach, mimo że nie miał żadnej bezpośredniej styczności z wrzuconym kamieniem, który dostarczył układowi energii. Różnica między falami na wodzie a falami elektromagnetycznymi polegała na tym, że fale maxwellowskie mogły się rozchodzić w próżni. Właściwie w czasach Maxwella uważano, że rozchodzę się one w tzw. eterze. Miał on według ówczesnych teorii wypełniać próżnię i stanowić ośrodek, w którym rozchodziły się fale elektromagnetyczne.
Maxwell wykonał szczegółowe obliczenia mechaniki tychże fal i pokazał, że wektor pola elektrycznego zmienia się w kierunku prostopadłym do kierunku rozchodzenia się fali, a jednocześnie w kierunku prostopadłym do tych obu drga wektor pola magnetycznego. Stwierdził, że fale elektromagnetyczne mają wiele własności identycznych z właściwościami światła. Maxwell opublikował fundamentalną teorię elektromagnetyzmu, zwieńczoną czterema słynnymi równaniami, w roku 1864. Jednak dopiero w 1887 roku, Niemiec Heinrich Rudolf Hertz po raz pierwszy zademonstrował działanie fal elektromagnetycznych.
Hertz – młodość.
Hertz urodził się w Hamburgu w roku 1857 i w wieku 20 lat rozpoczął w Berlinie studia pod kierunkiem znakomitego fizyka Hermanna von Helmholtza (1821-1894). Helmholzt twierdził, że nowa teoria Maxwella potrzebuje potwierdzenia eksperymentalnego i ustanowił nagrodę dla pierwszego, kto tego dokona.
W 1883 roku Hertz został wykładowcą w Kilonii, gdzie większość swego czasu poświęcał studiom nad równaniami Maxwella. W wieku 28 lat, w 1885 roku został zatrudniony na stanowisku profesora fizyki na Politechnice w Karlsruhe. Rozpoczął tam prace eksperymentalne. Zbudował „nadajnik” złożony z dwóch metalowych prętów, których końce były oddzielone. Wolne końce prętów przyłączył do przeciwległych wyjść dużej cewki indukcyjnej. Po włączeniu prądu pomiędzy prętami pojawiało się oscylujące wyładowanie elektryczne. W pewnej odległości od tego „nadajnika”, po drugiej stronie dużego pokoju Hertz ustawił „odbiornik”. Były to 2 druty z małą przerwą pomiędzy końcami. Zgodnie z przewidywaniami, gdy „nadajnik” pracował, w obszarze „odbiornika” pojawiał się niewielkie wyładowanie.
Zmienne pole elektryczne „nadajnika” generowało falę elektromagnetyczną, która indukowała w obwodzie „odbiornika” zmienny prąd elektryczny. Hertz udowodnił, że zgodnie z przewidywaniami Maxwella pole elektryczne drga w kierunku prostopadłym do kierunku rozchodzenia się fali elektromagnetycznej. Gdy przerwa „odbiornika” ustawiona była prostopadle do prostej łączącej odbiornik z nadajnikiem, wyładowanie pojawiało się, lecz gdy ustawiono ją wzdłuż tej prostej, wyładowań nie było.
Odkrycie fal radiowych.
By udowodnić falową naturę promieniowania elektromagnetycznego, Hertz zawiesił na odległej ścianie pokoju dużą płytę cynkową. Jeśli promieniowanie byłoby falą, to po odbiciu od płyty interferowałoby z promieniowaniem biegnącym bezpośrednio od nadajnika, powodując miejscowe zaniki i wzmocnienia natężenia, które rejestrowały odbiorniki. Tak było w istocie. Hertz wykazał także, że promieniowanie elektromagnetyczne rozchodzi się z prędkością światła.
Hertz odkrył fale radiowe o długości znacznie większej niż fale świetlne. Dziś wiemy, że promieniowanie elektromagnetyczne ma ciągłe spektrum, poczynając od fal radiowych o małej częstotliwości i dużej długości, poprzez krótsze fale promieniowania podczerwonego, widzialnego, nadfioletowego kończąc na wyjątkowo krótkich falach promieniowania rentgenowskiego oraz promieniowania gamma.
W 1889 roku Hertz objął stanowisko profesora fizyki Uniwersytetu w Bonn. Tam prowadził badania naukowe na tzw. promieniowanie katodowe. W 1896 roku Gugiliemo Marconi (1874-1937) opatentował swój „telegraf bez drutu”. Hertz wykazał, że promieniowanie katodowe jest w stanie przejść przez cienką folię metalową, jednak wkrótce zmarł w 1894 roku. Żył zaledwie 37 lat. W rok po jego śmierci inny niemiecki fizyk Wilhelm Rontgen (1845-1932), odkrył promienie X, zwane również promieniami rentgena, będące inną formą promieniowania elektromagnetycznego. Prace Hertza uczczono, nazywając jego nazwiskiem jednostkę częstotliwości w międzynarodowym układzie SI – Hertz (skrót HZ).

Posted in Uncategorized | Leave a comment

Gwiazdy

Do obserwatora na Ziemi dochodzi promieniowanie wysyłane przez zewnętrzne warstwy gwiazdowe, noszące nazwę atmosfery gwiazdy. Wraz z głębokością warstwy gazowe atmosfery stają się coraz mniej przezroczyste, aż wreszcie w pewnej głębokości stają się one całkowicie nieprzezroczyste dla promieniowania wychodzącego z warstw głębiej położonych. Atmosfera gwiazdowa przechodzi tu stopniowo w niedostępne do bezpośrednich badań wnętrze gwiazdy. Gwiazdy możemy uważać w całości za kule gazowe. Nazwa “kula” nie oznacza bynajmniej, że gwiazdy mają zawsze postać geometrycznych kul. Mogą mieć one kształt elipsoidalny. Dla uproszczenia rozważań uznaje się gwiazdy jako kule gazowe. Wnętrze takiej kuli ma bardzo wysoka temperaturę i dlatego mogą zachodzić w niej reakcje termojądrowe, będące źródłem promieniowania gwiazd. Od wnętrza płynie ku warstwom zewnętrznym strumień energii, będący zasadniczym motorem zjawisk fizycznych zachodzących w atmosferze gwiazdy. Zewnętrzna warstwa gazów otaczających gwiazdę jest tak gorąca, że wygląda jak gotująca się w czajniku woda.
W centralnej części gwiazdy-jądrze-temperatura i ciśnienie są ogromnie wysokie. Jądra atomów wodoru zderzają się tam z taką siłą, że łączą się za sobą. W procesie tym, zwanym reakcją jądrową, powstaje ogromna ilość energii w postaci promieniowania. Dzięki reakcjom termojądrowym gwiazdy świecą.
Gwiazdy mają różne kolory. Gwiazdy gorące świecą światłem biało-niebieskim. Są to gwiazdy młode. Inne świecą światłem czerwonym. Gwiazdy czerwone są chłodniejsze od niebieskich zwykle starsze od nich. Gwiazdy żółte i pomarańczowe są gwiazdami w „średnim wieku”. Kolor gwiazdy zależy od jej temperatury, wielkości i od tego, jak szybko powstaje w niej energia.
Szybkość, z jaką gwiazda wysyła energię, nazywamy mocą promieniowania. Gwiazdy mają różne rozmiary i zawierają różne ilości gazu. Im bardziej masywna jest gwiazda, tym większa jest jej moc promieniowania. Obserwując gwiazdy widzimy, że każda z nich ma inną jasność. Obserwowaną jasność gwiazdy nazywamy jej wielkością gwiazdową. Zależy ona od mocy promieniowania gwiazd, ale też od odległości gwiazdy od nas. Ponieważ gwiazdy znajdują się w różnych odległościach od Ziemi, trudno jest porównać ich rzeczywistą jasność.
Uczeni obliczyli, jaka byłaby jasność każdej gwiazdy, gdyby wszystkie znajdowały się w tej samej odległości od nas. Tak obliczoną jasność nazwano jasnością absolutną albo absolutną wielkością gwiazdową. Oczywiście, jasność absolutna gwiazd bardzo odległych jest większa niż ich jasność obserwowana.
Gwiazdy rozpoczynają swoje życie jako chmury pyłu i gazu zwane mgławicami. W wirującej mgławicy założonej z pyłu i gazów może powstać skupienie materii zwane protogwiazdą. Siła grawitacji protogwiazdy przyciąga coraz więcej materii. Protogwiazda staje się coraz większa. Jednocześnie rośnie jej temperatura i jasność. Siła grawitacji powoduje przyciąganie coraz większej ilości materii jednocześnie coraz większe jej zagęszczenie. Jądro proto-gwiazdy ogrzewa się coraz bardziej i zaczyna świecić na czerwono. W końcu ciśnienie i temperatura w jej wnętrzu są tak duże, że zaczyna zachodzić reakcja termojądrowa i gwiazda zaczyna wysyłać energię w postaci światła.
Po upływie milionów, a nawet miliardów lat, gwiazda zaczyna „spalać” znajdujące się w niej cięższe gazy. Stopniowo gwiazda wysyła coraz mniej energii i zaczyna stygnąć Gwiazdy mniej masywne świecą dłużej niż bardziej nasywne, ale jedne i drugie muszą w końcu umrzeć.
Niektóre z gwiazd są tak nietypowe, że „opierają się” temu procesowi. Są to tzw. nadolbrzymy-ogromne i bardzo jasne gwiazdy. Jedną z najbardziej znanych jest Betelgeuse, czerwony nadolbrzym znajdujący się w odległości około 520 lat świetlnych od Ziemi. Betelgeuse jest gwiazdą zimniejszą od innych, ale bardzo jasną, ponieważ jej powierzchnia jest tak duża, że gwiazda wysyła duże ilości energii. Niebieski nadolbrzym Rigel świeci tak jasno, że można go obserwować, gołym okiem, choć znajduje się w odległości 900 lat świetlnych.
We wnętrzu nadolbrzyma ciśnienie może scalić nawet ciężkie cząsteczki, tworząc żelazo. W tym momencie gwiazda zapada się w ciągu sekundy, a potem eksploduje przekształcając się w supernową. Supernowa może zapaść się w pulsar, gwiazdę neutronową, która pulsuje promieniowaniem jak latarnia morska obracając się ok. 30 razy na sekundę,
Większość gwiazd posiada takie rozmiary jak Słońce, tzn. średnicę 1,4 miliona km. Ale gwiazdy-olbrzymy, takie jak Aldebaran są 20 do 100 razy większe. Nadolbrzymy są ogromne. Antares jest 330 razy większy od Słońca, a w systemie podwójnych gwiazd Epsilon Auriga można spotkać gwiazdę o średnicy 3000 milionów km. Gdyby tę gwiazde wyobrazić sobie jako piłkę futbolową, Słońce miałoby rozmiary zmienka fasoli. Istnieją również maleńkie gwiazdy. Niektóre gwiazdy-karły są mniejsze od Ziemi. Gwiazdy neutronowe mogą liczyć tylko 15 km średnicy, a mimo to zawierać tyle masy, co Słońce. Są tak gęste, że łyżeczka od herbaty ich masy może ważyć kilka ton.
GWIAZDOZBIORY
Starożytni astronomowie zauważyli, że niektóre gwiazdy tworzą na niebie wzory i nadali każdemu układowi nazwę, taką jak Wielka Niedźwiedzica, Orion i Łowica. Obecnie astronomowie rozpoznają 88 gwiazdozbiorów. Nadają jaśniejszym gwiazdom w każdym z nich grecką literę, taką jak alfa lub beta. Tak więc najjaśniejszą gwiazdą w gwiazdozbiorze Centaura jest Alfa Centauri.

Posted in Uncategorized | Leave a comment

Fale elektromagnetyczne

Fale elektromagnetyczne znalazły olbrzymie zastosowanie przede wszystkim w urządzeniach takich jak: radia, telewizja, radary. Trudno sobie wyobrazić obecnie życie bez tych wszystkich urządzeń, które uważamy za oczywiste i naturalne, a ich niezbędność zauważamy, gdy w naszym mieszkaniu zabraknie prądu. Każde państwo dąży do rozwoju cywilizacyjnego, a poziom ten zależy przede wszystkim od transportu i prędkości przesyłu informacji. Informacja ma olbrzymią siłę rynkową dla wielkich firm, ale też nie mniejsze znaczenie dla zwykłego obywatela. W erze miniaturyzacji, kiedy telewizory są wielkości kalkulatorów, a odbiorniki radiowe wielkości broszek – trzeba sobie zdać sprawę, że nie byłoby tego, gdyby nie genialny szkocki fizyk o otwartym umyśle matematycznym.

Fale radiowe
Fale radiowe są to fale elektromagnetyczne wykorzystywane w łączności radiowej. Ze względu na długość fali (czy też częstotliwość) rozróżnia się poszczególne typy fal radiowych. Istnieją dwa podziały: tradycyjny i dekadowy, zalecany przez Regulamin Radiokomunikacyjny.

Promienie X
Promieniowanie X jest podobnie do światła widzialnego, lecz o dużo większej energii. Promieniowanie to jest „przenikliwe” dla ciał o lekkich atomach. Cięższe atomy (np. metali) absorbują to promieniowanie, dzięki czemu widzimy nasze kości na zdjęciach Rentgenowskich. Wykorzystuje się je w medycynie (prześwietlenia i radioterapia nowotworowa).

Promienie Gamma
Promieniowanie o długościach mniejszych od 10-10m. Emitowane przez promieniotwórcze lub wzbudzone jądra atomów. Promieniowanie to jest bardzo przenikliwe i szkodliwe dla organizmów żywych. Promieniowanie powstaje w wyniku rozpadu atomów.

Podczerwień
Niewidzialne promieniowanie elektromagnetyczne emitowane jest przez rozgrzane ciała i niektóre lampy wyładownicze. Promieniowanie podczerwone stosowane jest w analizach chemicznych, lotnictwie, diatermii, suszeniu, obserwacji w ciemności i ogrzewaniu.

Nadfiolet
Inaczej zwane ultrafioletem (UV) fale elektromagnetyczne. Fale te wywołują fluorescencję, fotoluminescencję. Stosowane w fotografice, wykrywaczy fałszywych banknotów i kwarcówkach. W nadmiarze promieniowanie to jest szkodliwe dla organizmów żywych.

Mikrofale
Są to fale elektromagnetyczne o długości 0,1 mm–1 m. Źródłami tych fal są klistrony, magnetrony i inne obwody półprzewodnikowe. Stosowane są w radiolokacji, kuchenkach, medycynie, stereoskopii mikrofalowej.

Światło
Promieniowanie elektromagnetyczne (fale elektromagnetyczne) o długości fali zawartej w przedziale 380-780 nm. Światło widzialne wywołuje wrażenia barwne, a światło białe jest mieszaniną świateł o różnej długości fal. Światło w próżni rozchodzi się z jednakową prędkością w każdym układzie odniesienia. Zjawiska związane z rozchodzeniem się światła bada optyka.

Posted in Uncategorized | Leave a comment

Fale elekromagmnetyczne w telekomunikacji

Fale elektromagnetyczne – rozprzestrzenianie się zaburzenia elektromagnetycznego w postaci zmiennego pola elektrycznego i magnetycznego w środowisku otaczającym źródło tych zaburzeń lub w próżni, którym towarzyszy przenoszenie się energii elektromagnetycznej. Fala elektromagnetyczna w ośrodku jednorodnym jest falą poprzeczną. Najprostszą falą elektromagnetyczną jest fala monochromatyczna. W zależności od kształtu powierzchni falowej rozróżnia się np. fale kuliste, cylindryczne, płaskie i inne. Długości fal elektromagnetycznych mieszczą się w szerokich granicach. Wszystkie rodzaje tych fal, niezależnie od ich długości ulegają tłumieniu, odbiciu, załamaniu, dyfrakcji, interferencji itd. Jednak ze zmniejszeniem się długości wykazują w coraz słabszym stopniu cechy falowe, a w większym korpuskularne. Wykrycie fal elektromagnetycznych wymaga stosowania odpowiednich detektorów przetwarzających energię elektromagnetyczna w inne formy energii, np. dla fal radiowych stosuje się detektory takie jak termopary, bolometry, prostowniki. Fale elektromagnetyczne bardzo krótkie wykrywane są metodami jonizacyjnymi lub fotochemicznymi. Fale elektromagnetyczne znalazły szerokie zastosowanie m.in. do badań mikrostruktury materii i przestrzeni kosmicznej.
W 1887 roku Niemiec Henryk Hertz zademonstrował publicznie nadawanie i odbiór fal elektromagnetycznych. Jego nadajnik wytwarzał prąd elektryczny, którego kierunek przepływu zmieniał się gwałtownie przy przeskoku iskry między elektrodami. Szybkozmienny prąd elektryczny zmuszał dwie płyty do emitowania fal radiowych, które były natychmiast rejestrowane przez Hertza za pomocą oddalonego o 3 metry odbiornika. Składał się on z pętli z drutu z przerwą pomiędzy końcami. W zaciemnionym pomieszczeniu było doskonale widoczne, gdy pomiędzy końcami drutu odbiornika przeskakiwały iskry, kiedy eksperymentator włączał nadajnik. To fal radiowe odbierane przez pętle powodowały, że płynął w nich prąd, co owocowało przeskokiem iskry w miejscu, gdzie obwód był przerwany.
Fale elektromagnetyczne znalazły szerokie zastosowanie między innymi w telekomunikacji. Telekomunikacją nazywa się dziedzinę zajmującą się przekazywaniem na odległość dźwięków, obrazów i sygnałów. Obejmuje ona telefonię, telegrafię, radiofonię, radiolokację, telewizję oraz telefonię komórkową.

TELEFONIA

W 1876 roku Alexander Grahama Bell jako pierwszy opatentował urządzenie, za pomocą którego można przesyłać na odległość mowę. W mikrofonie jego telefonu fale dźwiękowe padały na giętką membranę, do której przymocowano magnes stały. Membrana z magnesem wibrowały, co dzięki zjawisku indukcji elektromagnetycznej, powodowało wytwarzanie w znajdującej się tuż obok cewce zmiennego prądu, którego natężenie odpowiadało zmianom ciśnienia fali akustycznej. Ten prąd przesyłano kablem do odbiornika, czyli słuchawki, gdzie przechodził przez uzwojenie elektromagnesu. Zmienny prąd powodował zmienne pole magnetyczne, w którym wibrowała ferromagnetyczna membrana, odtwarzając oryginalny dźwięk. Bellowski nadajnik wytwarzał jedynie słaby sygnał i nie było wówczas metody jego wzmocnienia. Znacznie lepsze efekty uzyskał amerykański wynalazca, Thomas Alva Edison. W 1878 roku ulepszył urządzenie Bella, wprowadzając mikrofon węglowy, w którym drgania membrany pobudzanej falą akustyczną powodowały zmiany ciśnienia działającego na pojemnik wypełniony granulatem węglowym. Zmiany ciśnienia były przyczyną zmian oporu elektrycznego pojemnika, który był włączony w obwód zasilany z baterii. Dzięki temu natężeniu prądu płynącego obwodzie było modulowanie zgodnie ze zmianami ciśnienia powietrza, wytwarzanymi przez falę akustyczną. Odbiornik – słuchawka był prawie identyczny jak ten w oryginalnym rozwiązaniu Bella.
Aż do niedawna większość aparatów telefonicznych byłą wyposażona w mikrofony węglowe. Ostatnio większość telefonów ma mikrofony pojemnościowe, których mikrofon zawiera pewien stały ładunek elektryczny. Pozwalają one uzyskać znaczne lepszy stosunek sygnału do szumu, a przez to lepszą jakość odtwarzanego dźwięku.

TELEGRAFIA

Pierwszy telegraficzny system przesyłania informacji stworzyli w 1837 roku dwaj Anglicy, Charles Wheatstone i William Cooke. Odbiornik telegraficzny ich pomysłu składał się z pięciu igieł magnetycznych, umieszczonych na planszy z wypisanymi literami alfabetu. Nadawany sygnał odchylał dwie z igieł, które wskazywały na jedną z liter. Dwa lata później Wheatstone opracował system dwugłowy, w którym numer odchylanej igły oraz kierunek wychylenia jednoznacznie wskazywał nadawaną literę. Do nadawania i interpretacji sygnałów potrzeba był wykwalifikowanych i zręcznych operatorów, lecz system ten był wprowadzony do użytku, jako że wymagał niewielkiej ilości drutu. W 1840 r. wynalazca zbudował tak zwany telegraf „ABC”, w którym elektromagnes uruchamiał mechanizm zegarowy obracający tarczą z literami. Operator czekał, aż w okienku pojawi się żądana litera i wtedy nadawał sygnał, który był odbierany gdy na urządzeniu odbiorczym pojawiała się ta sama litera.
W czasie gdy Wheatstone i Cooke budowali telegraf w Anglii, w Stanach Zjednoczonych eksperymentował z podobnym urządzeniem malarz Samuel Morse. Jego pomysł polegał na tym, by każdą literę zaszyfrować w postaci kombinacji krótkich i długich sygnałów. Sygnały przesyłano po drucie, naciskając w odpowiedni sposób przełącznik, zwany kluczem. Odbiornik rejestrował sygnały na papierowej taśmie pod postacią kresek i kropek, które należało następnie odczytać. Szyfr ten zyskał sobie wkrótce nazwę alfabetu Morse’a.
Z początku operatorów szkolono w odczytywaniu szyfru z taśm papierowych, lecz w praktyce operatorzy byli w stanie łatwo odczytać treść przekazu, wsłuchując się w trzaski wydawane przez odbiornik przy zapisywaniu taśmy. Zmieniono więc formę odbiornika, wprowadzając proste urządzenie zwane stukawką, które wydawało wyraźnie różne dźwięki, gdy żelazna sztabka była przyciągana i puszczana przez elektromagnes. W ten sposób umożliwiono łatwiejszą identyfikację początku i końca sygnału, co czyniło rozszyfrowanie wiadomości jeszcze prostszym.
Gdy telegraf rozpowszechnił się, problemem stało się opóźnienia wynikające z konieczności oczekiwania, aż zwolni się linia. Mimo wzrastającej szybko ilości linii telegraficznych, należało znaleźć sposób na szybkie, efektywne przesyłanie informacji. Rozwiązanie znalazł znany już nam Anglik Charles Wheatstont.
Jego pomysł był bardzo prosty. Operator kodował wiadomość w alfabecie Morse’a na maszynie, która perforowała w odpowiedni sposób taśmę papierową. Następnie taśma była przepuszczana z dużą prędkością przez specjalny nadajnik, który przypisywał otworom w taśmie sygnały elektryczne. Po drugiej stronie linii inny aparat odczytywał nadawane sygnały i zapisywał w postaci kropek i kresek na papierowej taśmie. Zautomatyzowanie nadawania i odbioru sygnałów pozwoliło na przesyłanie paruset słów w ciągu minuty, podczas gdy sprawny i dobrze wyszkolony operator był w stanie nadać w tym czasie do 30 słów. Efekt był taki, że w tym samym czasie można było nadać tym samym kablem znacznie więcej informacji.
Z początku operatorzy musieli znać alfabet Morse’a. Lecz już wkrótce wiadomości kodowane były automatycznie. Wystukiwano wiadomość na klawiaturze przypominającej maszynę do pisania, która sama zmieniała ją na układ kropek i kresek. Z drugiej strony maszyna odbiorcza także dokonywała konwersji z alfabetu Morse’a na normalne litery i wypisywała wiadomość na papierowej taśmie w postaci ciągu liter. Teraz należało tylko odpowiednio ją pociąć na pojedyncze wyrazy, nakleić na formularze i dostarczyć do adresata. Z ego typu aparatów wyewoluowały dalekopisy.

RADIOFONIA

Badania rozpoczęte przez Hertza były kontynuowane przez wielu naukowców i inżynierów z całego świata. Najbardziej zasłużył się w historii radiofonii Włoch Guglielmo Marconi, w czerwcu 1896 roku Marconi opatentował pierwszy nadający się do praktycznego użytku system radiowy. Za pomocą nadajnika i odbiornika można było porozumiewać się alfabetem Morse’a na odległość na początku zaledwie około 3 kilometrów, ale do nawiązania łączności nie był potrzebny drut!
Detektor zastosowany przez Marconiego został wynaleziony w 1890 przez Edouarda Branleya z Paryskiego Uniwersytetu Katolickiego. Składał się on ze szklanej rury wypełnionej opiłkami metalowymi. Normalnie opór między końcami rury był stosunkowo wysoki, tak więc obwodzie mógł płynąć niewielki tylko prąd. Jednak fale radiowe o dostatecznym natężeniu powodowały, że opór elektryczny w rurze spadał gwałtownie, umożliwiając przepływ przez obwód dużego prądu. Prąd ten uruchamiał dzwonek lub stukawkę telegrafu, która odbierała nadawany sygnał.
Po skonstruowaniu niezawodnego systemu, Marconi skoncentrował się na zwiększeniu jego zasięgu. Rozpoczynał z przesyłem sygnałów na odległość paru metrów, lecz już wkrótce udało mu się nawiązywać łączność na odległość kilku kilometrów. To z kolej znaczyło, że jego system nadaje się dla potrzeb telegrafii. W 1896 roku udało mu się połączyć siecią radiową kilka budynków w Londynie, a w roku następnym powstało 13 km połączenie w poprzek Kanału Bristolskiego. Jeszcze w tym samym roku otworzono 29 km połączenie radiowe z Poole w hrabstwie Gorset na Wyspę Wight.
Także w 1897 roku angielski fizyk Olivier Lodge wprowadził system strojenia, czyli syntonię. Obwód zawierający kondensator i cewkę indukcyjną służył do regulacji częstotliwości wysyłanych fal elektromagnetycznych. W odbiorniku podobny obwód odbierał fale o określonej częstotliwości. Ten system umożliwił jednocześnie nadawanie różnych informacji na różnych częstotliwościach, tak że transmisje nie zakłócały się wzajemnie. Marconi zaczął wkrótce wykorzystywać tę zasadę w swoim sprzęcie.
Do 1899 roku Marconiemu udało się uzyskać łączność na dystansie około 50 km, tak więc połączenie radiowe Wielkiej Brytanii z Francją poprzez kanał La Manche przestało być problemem. Lecz jego triumf nadszedł w grudniu1901 roku, gdy fale radiowe przeleciały ponad Atlantykiem. Odbiornik ustawiony w St. John na Nowej Funlandii odebrał sygnał nadany z Poldhu w Kornwalii. Miejsca te dzieliła odległość ponad 3000 kilometrów. W rezultacie aparatura radiowa zaczęła być instalowana na statkach, dzięki czemu mogły one pozostawać w łączności z lądem i wzywać pomocy w razie niebezpieczeństwa.
Gdy technika radiowa przełamywała ograniczenia konwencjonalnej telegrafii, kanadyjski fizyk Reginald Fessenden rozpoczął prace nad kolejnym zagadnieniem. Był nim telefon bez drutu, urządzenie, którego działanie polegało na transmisji nie prostych sygnałów, sygnałów dzwięków.
Pomysłem leżącym u podstaw przekazywania dźwięku za pomocą fal radiowych było zastosowanie mikrofonu do ich modulowania. Fessenden rozpoczął pracę w 1900 roku od prób transmisji na niewielkich odległościach. Ówczesne odbiorniki radiotelegraficzne były niekiedy wyposażone w słuchawki, by operatorzy mogli słuchać „kresek” i „kropek” w przychodzących komunikatach.
Nadajniki iskrowe produkowały sygnał bardzo zaszumiony, który z kolej powodował znaczne zakłócenie emitowanej fali nośnej. Z tego powodu Fessenden przeprowadzał swe późniejsze eksperymenty z użyciem alternatora (generatora prądu przemiennego), specjalnie zaprojektowanego do wytwarzania szybko zmiennego prądu wymaganego w nadajniku. W tym samym czasie powstały pierwsze lampy elektronowe, które mogły być z powodzeniem wykorzystane do ulepszenia metod nadawania i odbioru fal elektromagnetycznych. Ich zastosowanie rozpoczęło rozwój elektroniki.
Triody (lampy elektronowe trójelektrodowe), wynalezione na przełomie 1906-1907 r. przez Amerykanina Lee de Foresta, były używane do wytwarzania czystego sygnału nośnego dużej częstotliwości, następnie do jego zmodulowania sygnałem dźwiękowym, a na końcu do wzmocnienia całości przed wyemitowaniem przez antenę nadajnika.
Lampy były także wykorzystywane także w odbiornikach radiowych do wzmacniania sygnału odbieranego przez antenę, separacji sygnału modulującego od fali nośnej oraz do wzmocnienia sygnału modulującego przed odtworzeniem go na słuchawkach lub głośniku odbiornika.
Gdy w latach dwudziestych XX wieku rozpoczęto nadawanie audycji radiowych, ludzie słuchali ich za pomocą słuchawek podłączonych bezpośrednio do odbiornika kryształowego. Wewnątrz słuchawek elektromagnes, zasilany energią fali radiowej, powodował drgania cienkiej metalowej płytki zwanej diafragmą, które to drgania wytwarzały dźwięki.
Odbiorniki kryształowe zapewniały zupełnie przyzwoitą jakość odbioru, a poza tym były bardzo wygodne, gdyż nie wymagały żadnego źródła zasilania czy to sieciowego, czy bateryjnego. Do wytwarzania dźwięku używały energii fali radiowej „chwytanej „ przez antenę. Jednak powodowało to, że aby móc słuchać oddalonych stacji o słabym sygnale, należało używać bardzo długich anten.
Inną wadą odbiorników tego typu była słaba rozdzielczość. Kondensator lub cewka w obwodzie strojonym odbiornika były regulowane tak, aby dostroić się do częstotliwości, na której nadawała wybrana stacja. Jednak proste obwody nie były w stanie zupełnie wyeliminować sygnałów o zbliżonych częstotliwościach. Problem ten stawał się coraz poważniejszy wraz ze wzrostem liczby nadających stacji. Zmiany konstrukcyjne polepszające rozdzielczość doprowadzały do znacznego spadku czułości, a to oznaczało cichszy odbiór audycji. Sytuację poprawiło wprowadzenie odbiorników lampowych, w których do wzmacniania sygnałów zastosowano lampy elektronowe. Można było produkować odbiorniki charakteryzujące się zarówno wysoką czułością jak i rozdzielczością. Pozwoliło to na zastosowanie w radiu głośnika, tak aby każda osoba przebywająca w pomieszczeniu mogła słuchać audycji.

RADIOLOKACJA

Już pionierzy radiofonii zauważyli, że odbieranym przez nich sygnałom nierzadko towarzyszy echo. Brało się to stąd, że do odbiornika dochodziły również fale odbite od różnych obiektów. Miały one do przebycia dłuższą drogę niż fale nie odbite, więc nadchodziły później.
W 1922 roku Taylor i Young, dwaj amerykańscy naukowcy związani z marynarką Stanów Zjednoczonych, prowadzili eksperymenty nad komunikacją radiową i zauważyli, że nadawane przez nich fale odbijają się od statku znajdującego się na rzece. W 1930 Young i Hayland zdołali zarejestrować fale radiowe odbite od samolotu. Już wkrótce potem potrafili oni metodą odbitych fal radiowych wykrywać samoloty znajdujące się w promieniu do 80 km.
Jednakże metoda Younga i Haylande pozwalała określić wyłącznie kierunek, w którym szukany obiekt się znajdował. Odległość od wykrytego obiektu pozostawał nieznana. Ich następcy wkrótce odkryli metodę pomiaru dystansu. Polegała ona po prostu na pomiarze czasu przelotu wysłanego sygnału do obiektu i z powrotem. Prędkość rozchodzenia się fal radiowych byłą znana (jest to prędkość światła, wynosząca około 300000 km/s), tak więc obliczenie prędkości było proste. Prace eksperymentalne oraz ciągły postęp w elektronice doprowadziły do powstania, wciągu kilku zaledwie lat, systemów radarowych nadających się do praktycznego wykorzystania.
W Wielkiej Brytanii prace nad rozwojem radaru podjął we wczesnych latach 30. fizyk Robert Watson-Watt. W rezultacie wokół wybrzeży brytyjskich powstał przed II wojną światową łacnych stacji radarowych. Stacje te wcześnie ostrzegały o zbliżających się samolotach wydatnie przyczyniły się do ostatecznego sukcesu Brytyjczyków podczas bitwy o Anglię.
Od czasu zakończenia wojny radar wykorzystywano coraz szerzej, zarówno w celach militarnych, jak i cywilnych. Radar stał się szybko kluczowym urządzeniem w centrach kontroli lotów samolotów pasażerskich.
Typowy współczesny radar składa się z anteny wysyłającej pulsujące sygnały radiowe w postaci wąskie, kierunkowej wiązki. Antena obraca się ciągle, tak więc sygnał omiata całą przestrzeń wokół. Po wysłaniu każdego impulsu, układ automatycznie przełącza się na odbiór sygnału odbitego, którego charakterystyka częstotliwościowa jest identyczna z charakterystyką impulsu wysyłanego. Układ automatycznie mierzy odległość od odszukanego obiekt. Na ekranie okrągłej lampy oscyloskopowej sygnały odbite reprezentowane są w postaci jasnych plam. Środek ekranu odpowiada pozycji radaru. Samoloty pojawiają się na ekranie jako świecące punkty. Operator może bezzwłocznie określić zarówno kierunek lotu, jak i odległość od obiektu pojawiającego się w zasięgu urządzenia.
Efektem Dopplera nazywamy pozorną zmianę częstotliwości fali wysyłanej przez obiekt poruszający się względem obserwatora. Przykładowo, rejestrowany przez nas ton wydawanego przez pociąg sygnału dźwiękowego zmienia się nagle, gdy ten przejeżdża obok i zaczyna się oddalać. Gdy pociąg zbliża się do nas, częstotliwość wysyłanej przez niego fali dźwiękowej jest większa i wyższy jest ton, który słyszymy. Gdy pociąg nas mija, to emitowana przezeń fala dźwiękowa ma częstotliwość mniejszą i rejestrujemy ton niższy. Podobne zjawisko występuje również w przypadku fal elektromagnetycznych.
Także gdy fala radiowa odbija się od ruchomego obiektu, następuje zmiana jej częstotliwości. Pozwala to na łatwe rozróżnienie celów ruchomych i stacjonarnych. W większości radarowych systemów obrony powietrznej rejestrowane są wyłącznie obiekty ruchome, powodujące zmianę częstotliwości fali radiowej. W ten sposób wyeliminowane są sygnały odbite od budynków i innych przeszkód terenowych, co znacznie upraszcza analizę obrazu. W niektórych urządzeniach na podstawie zmian częstotliwości określana jest również prędkość obserwowanego obiektu.
Radary instalowane na pokładach samolotów ostrzegają pilotów przed przeszkodami terenowymi. Umożliwiają także śledzenie rzeźby terenu poprzez pokrywę chmur, co przydaje się w nawigacji. Podobnie radary na statkach umożliwiają śledzenie ruchów innych jednostek przy słabej widoczności. W portach radary są często wykorzystywane do prowadzenia statków. Meteorolodzy za pomocą radarów śledzą przemieszczanie się huraganów. Radar służy także jako pomocnicze urządzenie do badań Księżyca.

TELEWIZJA

Idea telewizji pochodzi od dwóch brytyjskich uczonych Ayrtona i Perry’ego. W latach 70. XIX wieku zbudowano pierwsze fotokomórki, które mogły zamieniać światło na sygnały elektryczne. Ayrton i Perry zaproponowali użycie układu takich fotokomórek pokrywających pewną powierzchnie do zapisu zmian natężenia oświetlenia generowanych przez obraz jakiegoś przedmiotu, rzucany na nie poprzez układ optyczny. Im więcej światła pada na fotokomórkę, tym większy prąd ona wytwarza. Prąd generowany przez daną komórkę służyć mógłby do zapalania żaróweczek w odpowiednim układzie wyświetlającym, na którym można by było przesłać obraz przedmiotu. Zaproponowana w roku 1880 idea nie doczekała się realizacji, a to z tego powodu, że prąd wytwarzany w fotokomórce był zbyt słaby, aby umożliwić pracę jakiekolwiek żaróweczki. Wówczas nie znano jeszcze żadnej metody wzmocnienia sygnału prądowego.
Następny wielki krok ku telewizji wykonał Niemiec Paul Nipkow. W 1884 r. zaproponował istotną zmianę systemu – zamianę układ ogniw i żaróweczek na pojedyncze ogniwo i pojedyncze źródło światła jako odbiornik. Możliwe to był dzięki zastosowaniu „dysku skanującego”, czyli wirującej tarczy z odpowiednio rozmieszczonymi otworkami. Wirujący dysk umożliwiał dotarcie do fotokomórki światłu z różnych partii obrazu w pewnej sekwencji czasowej, określonej poprzez rozkład otworów. W ten sposób cały obraz był zapisywany przez czas pełnego obrotu dysku w postaci impulsów elektrycznych. Teoria głosiła, że obraz może zostać odtworzony dzięki źródłu światła sterowanemu wytworzonym prądem oraz wirującemu z taką samą prędkością identycznemu dyskowi. Aby zaistniało złudzenie oglądania pełnego obrazu, a nie serii impulsów świetlnych, prędkość obrotowa dysku musiałaby być odpowiednio duża, by okres jego obrotu był krótszy od bezwładności ludzkiego oka. System Nipkowa nie doczekał się praktycznej realizacji ze względu na brak możliwości wzmacniania sygnałów prądowych.
Działające systemy telewizyjne musiały poczekać na wynalazek triody – lampy elektronowej, która mogła być użyta jako wzmacniacz sygnału elektrycznego. Wynaleziona w 1906 r. przez Amerykanina Lee de Foresta lampa umożliwiła Szkotowi Johnowi Logie Bairdowi budowę systemu telewizji opartego na pomyśle Nipkowa. W roku 1926 Baird mógł już zademonstrować pierwszy system przesyłania obrazów za pomocą fal radiowych. W 1932 roku BBC zgodziła się rozpocząć serię eksperymentalnych transmisji telewizyjnych.
Do czasu rozpoczęcia regularnych transmisji w 1936 roku BBC zaadaptowało inny system stworzony przez kompanię American Marconi/EMI. System ten był całkowicie elektryczny, nie wymagał stosowania żadnych elementów ruchomych, co czyniło go znacznie pewniejszym od mechanicznego systemu Barda. Obrazy były odtwarzane skanującą wiązką elektronową padającą na ekran luminescencyjny w lampie kineskopowej. Z początku ekran dzielono na 405 linii poziomych, po których odbywało się skanowanie, lecz potem ich ilość zwiększono do 625 (525 w USA). Dawało to znacznie lepsze rezultaty niż system mechaniczny, wykorzystujący zaledwie 30 linii.
Program telewizyjny jest, podobnie jak programy radiowe w UKF, nadawany metodą modulacji częstotliwości, co znaczy, że sygnał telewizyjny zmienia częstotliwość fali nośnej. Oznacza to, że każda stacja zajmuje pewne pasmo częstotliwości fali nośnej. Dla standardowej telewizji szerokość pasma wynosi około 8 Mhz – tyle miejsca zajmuje każdy kanał telewizyjny, na którym transmituje się sygnał modulujący o częstotliwości rzędu zaledwie dziesiątych części megaherca. Poprawienie jakości obrazu wymaga zawarcia w sygnale modulującym większej ilości informacji, co z kolei oznaczałoby wzrost szerokości pasma telewizyjnego.
W latach 80. zastosowano inne metody przesyłania sygnałów TV – telewizję kablową oraz satelitarna. Telewizja kablowa przesyła sygnał światłowodem bezpośrednio do domu. W ten sposób można przesłać znacznie więcej kanałów niż z użyciem fal radiowych. Telewizja satelitarna wykorzystuje specjalne satelity telekomunikacyjne umieszczone na orbitach geostacjonarnych nad pewnymi punktami na powierzchni Ziemi. Telewizja satelitarna wykorzystuje częstotliwości mikrofalowe, znacznie wyższe niż używane przez tradycyjną telewizję „naziemną”.

TELEFONY KOMÓRKOWE

W ostatnich latach trwa bardzo intensywny rozwój sieci telefonii komórkowej. Małe przenośne aparaty, zasilane bateriami, umożliwiają przeprowadzenie rozmowy z prawie dowolnego miejsca stały się już normalnym zjawiskiem. Rozmowa jest transmitowana w postaci fal radiowych do najbliższej stacji nadawczo-odbiorczej, obsługującej niewielki obszar, tzw. komórkę. Gdy przemieszczamy się z obszaru jednej komórki do innej, to obsługa naszej rozmowy jest automatycznie przekazywana z jednej stacji nadawczo-odbiorczej do następnej. Ze stacji rozmowa jest transmitowana poprzez specjalną centralę normalną siecią telefoniczną do telefonu stacjonarnego, lub do innej stacji nadawczo-odbiorczej i z niej, za pomocą fal radiowych, do aparatu komórkowego.

Posted in Uncategorized | Leave a comment

Elektrownie atomowe

Rozwój techniki w drugiej połowie XIX wieku i powstanie ogromnej ilości urządzeń elektrycznych wymusił rozwój elektrowni, których zadaniem jest dostarczać prąd elektryczny do poszczególnych odbiorców. Elektrownie mogą pobierać energię potrzebną do wytworzenia prądu z różnych źródeł. Mogą być to elektrownie cieplne, które ciepło wytworzone podczas spalania paliw kopalnych zamieniają na energię prądu; mogą być wiatrowe, słoneczne, geotermalne itd. W latach czterdziestych w związku z powstaniem pierwszych reaktorów powstał nowy typ elektrowni – elektrownie jądrowe. W elektrowni jądrowej enegię uzyskujemy nie ze spalania paliw kopalnych, lecz z rozszczepiania jąder atomowych. Kocioł zostaje tu zastąpiony reaktorem jądrowym, czyli urządzeniem, w którym wytwarzana jest energia jądrowa. W reaktorze przebiega kontrolowana reakcja łańcuchowa, podczas której rozszczepiane jest tyle jąder, ile potrzeba do wytworzenia energii elektrycznej.
Reaktor wodny wrzący
W reaktorze wodnym wrzącym zamieniamy wodę w parę za pomocą energii jądrowej. Następuje to w zbiorniku ciśnieniowym reaktora. Para pod ciśnieniem około 7MPa napędza turbinę, która dostarcza generatorowi energii potrzebną do wytworzenia prądu. We wspomnianym zbiorniku ciśnieniowym reaktora, który w omawianym przykładzie posiada ścianki o grubości 16 cm, znajduje się rdzeń reaktora, przez który przepływa woda doprowadzana do wrzenia. Rdzeń reaktora składa się z około 800 elementów paliwowych. Każdy element paliwowy znajduje się w blaszanym pojemniku, do którego woda dostaje sie przez otwór w spodzie. Woda wypełnia pojemnik i styka się z 64 prętami paliwowymi, czyli prętami wykonanymi np. z rozszczepialnego uranu. Pręty składają się zazwyczaj ze wzbogaconego uranu w postaci dwutlenku uranu (UO2). Podczas rozszczepiania jąder uranu wydziela się duża ilość energii, którą w formie ciepła odbiera woda chłodząca (chłodziwo). Woda służy też jednocześnie jako moderator (hamuje więc do tego stopnia prędkie neutrony, powstałe podczas każdego rozszczepienia jądra, że same mogą powodować dalsze rozszczepienia). Gdyby wszystkie powstałe w tej reakcji neutrony przyczyniały się do dalszego rozszczepiania, reaktor wyszedłby spod kontroli i wytwarzałby za dużo energii – stałby się wybuchającą bombą atomową. Aby temu zapobiec, każdy reaktor zawiera takie materiały, jak bor lub kadm, które absorbują (pochłaniają) neutrony, w takim stopniu, aby reakcja nie wymknęła się spod kontroli, ale też by nie “zgasła”. Neutrony pochłaniane są przez wspomniane materiały, które tworzą pręty sterujące, które są wsuwane do reaktora mniej lub bardzej głęboko – w zależności od potrzeb. Bardziej wysunięte to mniejsze pochłanianie i większa ilość rozszczepień. Mniej wysunięte to spowolniona reakcja. Wsuwaniem i wysuwaniem prętów łatwo można kontrolować reakcję, a w razie potrzeby zadusić. Pręty, ze względu na znaczną szybkość reakcji jądrowych i konieczność jeszcze szybszego reagowania, posiadają sterowanie automatyczne. Podczas pierwszego uruchomienia reaktora trzeba dostarczyć neutronów z zewnętrznego źródła. Po chwilowym zatrzymaniu reakcji nie jest to konieczne. Elementy paliwowe dostarczają wtedy dostatecznej ilości neutrnów, aby uruchomić reakcję jądrową przez wysunięcie prętów sterujących.
Reaktor wodny ciśnieniowy
W reaktorze wodnym ciśnieniowym woda stykająca się z rdzeniem reaktora nie gotuje się. Unie możliwia jej to ogromne ciśnienie – rzędu 15 MPa. Woda ta krąży w obiegu pierwotnym i w odpowiedniej wytwornicy pary ogrzewa wodę obiegu wtórnego, a zatem nie styka się z nią bezpośrednio. Woda obiegu pierwotnego schładza się przy tym z 330C do 290C. Podczas gdy woda obiegu wtórnego wrze i wytworzoną parą napędza turbinę i generator, to woda obiegu pierwotnego, ciągle w stanie ciekłym, jest pompowana do rdzenia, gdzie ponownie ogrzewa się do 330C. Odpowiedni regulator ciśnienia zapewni stałe ciśnienie tej wody. Typowy reaktor wodny ciśnieniowy o mocy 1300 MW ma rdzeń zawierający około 200 elementów paliwowych po 300 prętów paliwowych każdy. Sterowanie reaktorem odbywa się z jednej strony przez zmianę stężenia roztworu boru (pochłaniającego neutrony) w wodzie obiegu pierwotnego, z drugiej strony zaś przez pręty regulacyjne, zawierające kadm, które, jak już poprzednio jest wspomniane, można wsuwać i wysuwać. Woda także jest tu spowalniaczem. Gdy reaktor nadmiermie się nagrzewa, to gęstość wody maleje. Tym samym prędkie neutrony są słabiej wyhamowywane, liczba rozszczepień dostarczających energii maleje i cały układ się ochładza. Reaktor taki, podobnie jak i wrzący, nosi nazwę lekkiego ponieważ stosuje się w nim “zwykłą” wodę, a nie “ciężką”.
Reaktor powielający
Jądra U-238 mogą wchłaniać neutrony, przemieniając się przy tym w jądra plutonu, które można łatwo rozszczepić i wykorzystać do produkcji energii. Reaktor powielając wykorzystuje tą własność. Jako materiał rozszczepialny jest w nim stosowany Pu-239, który podczas rozpadu produkuje 2 lub 3 neutrony. Jeden z nich jest potrzebny do podtrzymania reakcji łańcuchowej, podczas gdy pozostałe są przekazywane do jąder U-238, które przemieniają się w Pu-239. Tak powstaje nowe paliwo. Reaktor wytwarza w ten sposób nowe paliwo. W optymalnym przypadku może wytworzyć nawet więcej paliwa niż sam zużył. Ten proces zachodzi także w innnych typach reaktorów, ale w marginalnych ilościach. Zasoby U-238 są znaczne, więc powszechnie uważa się, że w przyszłości takie reaktory odegrają duża role w wytwarzaniu energii. Technika ta, dzięki wykorzystywaniu nierozszczepialnego U-238, jest sześćdziesięciokrotnie bardziej wydajna od tradycyjnej uranowej. Przemiana U-238 w Pu przebiega lepiej z neutronami prędkimi niż wolnymi. W reaktorze prędkim powielającym wykorzystuje się właśnie te prędkie neutrony do procesu powielania. Przy małej zawartości plutonu proces przebiegiałby ze zbyt małą wydajnością, stąd w owych reakcjach elementy paliwowe zajmują 20-30% plutonu i 70-80 % U-238. Jest prawie 10-krotnie więcej materiału rozszczepialnego niż we wcześniejszych typach reaktorów, więc istnieje wiele niebezpieczeństw i trudności technicznych związanych z budową i eksploatacją takich siłowni. Reaktor składa się z elementów paliwowych, w których wytwarzana jest energia oraz z elementów powielających, gdzie powstaje nowe paliwo. Z powodu obecności dużej ilości materiału rozszczepialnego wytwarzanie ciepła w elementach paliwowych jest bardziej intensywne. Dlatego ochładza się taki reaktor ciekłym sodem, który dobrze przewodzi ciepło, ale w przeciwieństwie do wody słabo hamuje neutrony. Są więc one ciągle prędkie. Obieg pierwotny ciekłego sodu ogrzewa ciekły sód w obiegu wtórnym. Ten doprowadza do wrzenia, a wytworzona para napędza urządzenia produkujące prąd.
Reaktor wysokotemperaturowy

Reaktor taki zużywa jako urowiec energetyczny obok uranu także tor-232, który w trakcie pracy reaktora pochłania neutrony i przemienia się z rozszczepialny U-233. Stosowane paliwo ma postać drobnych granulek, które następnie zasklepia się w kulach grafitowych wielkości piłki tenisowej. Grafit służy jako moderator hamujący neutrony. Wytworzone w reaktorze ciepło podgrzewa gaz – na przykład obojętny chemicznie hel – do około 900C. Gaz ten z kolei odparowywuje wodę, która napędza turbinę. Reaktor taki posiada wysoką sprawność.
Reaktor niejednorodny ze spowalniaczem stałym
Procesy reakcji jądrowych przeprowadza się w tzw. reaktorach jądrowych. Paliwem do reaktorów jądrowych są pręty, ruru, blachy uranowe lub plutonowe (92233U, 92235U, 94239Pu). Paliwo jądrowe w takich reaktorach rozmieszczone jest w masie ciekłego (np. wody lub ciężkiej) wody lub stałego spowalniacza, tworząc rdzeń lub strefę aktywną reaktora. Gdy paliwo tworzy ze spowalniaczem niejednorodną masę, wtedy taki reaktor nazywamy niejednorodnym (heterogenicznym). Rdzeń otoczony jest warstwą materiału odbijającego neutrony – tzw. zwierciadłem lub neutronem. Jako zwierciadło może służyć grafit, woda, woda ciężka, BeO). Zadaniem zwieciadła jest zmniejszenie masy paliwa jądrowego do wartości mniejszej od masy krytycznej, która byłaby potrzebna w reaktorze bez zwierciadła. Osłona wykonana z betonu ma chronić obsługę przed szkodliwym promieniowaniem. Ciepło wytwarzane w reaktorze jest odprowadzane za pośrednictwem cieczy chłodzącej (ciało ogrzewane w reaktorze to chłodziwo). Aby zapobiec przedostawania się produktów rozszczepiania do chłodziwa pręty paliwowe są umieszczone w osłonie wykonananej z materiałów możliwie jak najmniej pochłaniającej neutrony (magnez, cyrkon i stopy). Chłodziwo oddaje ciepło w wymienniku ciepła innej łatwo wrzącej substancji. Chłodziwem może być woda, powietrze, dwutlenek węgla, oraz ciekłe metale (sód, rzadziej potas i ich stopy). Do pompowania ciekłych metali stosowane są pompy elektromagnetyczne, działające na zasadzie oddziaływania magnetycznego na ciekły metal, przez który płynie prąd elektryczny. Zaletą tych pomp jest to, że nie posiadają częściruchomych, podatnych na uszkodzenia. Do kierowania pracą reaktora służą pręty sterujące. Są one wykonane z metali o dużym przekroju czynnym ( silnie pochłaniające neutrony), np. kadmu, baru lub hafnu. Mogą być wsuwane do wnętzra reaktora lub wysuwane. Gdy pręty są wsunięte, to wówczas na wskutek silnego pochłaniania neutronów reakcja zostaje zahamowana. Im bardziej są wysunięte tym szybsza i gwałtowniejsza reakcja jądrowa. Reakcje jądrowe zachodzą bardzo szybko, więc potrzebna jest automatyczna regulacja wysunięcia prętów w zależności od liczby powstałych neutronów. W każdym reaktorze są kanały do wytwarzania izotopów promieniotwórczych. W reaktorach, których głównym zadaniem jest wytwarzanie energii jest to uboczny produkt, ale niektóre reaktory (np. polskie Świerk i Ewa), służą głównie do tego.
Reaktor jednorodny
W tym przypadku rdzeń reaktora jest wypełniony roztworem wodnym jakiegoś pierwiastka, będącego paliwem jądrowym, np siarczanu uranylu UO2SO4, lub inną cieczą, a nawey proszkiem. Zaletami takiego reaktora uniknięcie trudnej i kosztownej produkcji prętów paliwowych i kłopotów związanych z wymianą prętów. We wszystkich tych reaktorach występują dwa obiehi, co ma chronić obsługę reaktora przed promieniowaniem: pierwotny-przechodzący przez reaktor i wtórny z turbiną parową

Posted in Uncategorized | Leave a comment

Opisz, jakie korzyści płyną z finansowania badań naukowych z budżetu państwa

Fizyka to nauka przyrodnicza zajmująca się badaniem właściwości materii i zjawisk w niej zachodzących oraz wykrywaniem ogólnych praw, którym zjawiska podlegają. Fizyka doświadczalna (eksperymentalna) zajmuje się jakościowym wykrywaniem zjawisk i ich ilościowym badaniem za pomocą odpowiedniej aparatury. Zadaniem fizyki teoretycznej jest matematyczne opracowanie wyników doświadczalnych, natomiast atomowej- badanie budowy i właściwości atomów. Kolejnymi działami są: fizyka jądrowa, zajmująca się badaniem budowy i właściwości jąder atomowych oraz badaniem reakcji jądrowych; fizyka molekularna (cząsteczkowa) trudni się badaniem budowy molekuł (cząsteczek) i ich właściwości. Niewątpliwie w każdej z tych dziedzin potrzebne są pewne urządzenia i aparatura. Zadaniem państwa jest zapewnienie płynności finansowej ośrodkom badawczym, uniwersytetom oraz wszelkim podmiotom zajmującym się badaniami naukowymi. Jednakże, w obliczu deficytu budżetowego często osoby rządzące starają się ominąć konieczność dotacji na te cele, często nie zdając sobie sprawy z błędów jakie w ten sposób popełniają i jak ograniczają zdolnych polskich naukowców i zaprzepaszczając ich szanse na sukcesy.
Już dawno minęły czasy, gdy do pracy fizykom wystarczały ołówki i zwykłe kartki papieru. Problemy, jakimi zajmują się fizycy, wymagają stosowania zaawansowanych technologii komputerowych i skomplikowanych programów. Obliczenia matematyczne są tak złożone, że konieczne jest posiadanie maszyn umożliwiających ich wykonanie. Komputer stanowi jedno z najpotrzebniejszych urządzeń w pracy fizyka teoretyka. Dzięki przesyłaniu danych za pomocą sieci komputerowych fizycy mogliby kontaktować się z fizykami-obcokrajowcami i uczestniczyć w opracowywaniu danych uzyskanych z doświadczeń np. w tak odległym miejscu jak Laboratorium im. Fermiego w Batavii pod Chicago. Do prowadzenia badań i doświadczeń konieczne jest użycie skomplikowanej aparatury i urządzeń.
Niektórzy uważają, że państwo nie może finansować badań fizyków. Sądzą, że istnieją bardziej naglące potrzeby. Ja jednak nie zgadzam się z nimi. Często znajdują się malkontenci, którzy sądzą, że dotacje dla badań naukowych są bezzasadne i jest to właściwie strata publicznych środków finansowych, gdyż naukowcy i tak niczego nie osiągną. Osoby te grubo się mylą, gdyż już Johann Wolfgang Goethe mawiał: „Wiele tracimy wskutek tego, że przedwcześnie uznajemy coś za stracone”.
Uważam, że w każdym budżecie, nawet tym nieokazałym, powinno starczyć pieniędzy na zakup komputerów dla fizyków teoretyków. Można by długo wymieniać urządzenia potrzebne urządzenia: lasery, spektografy, pompy próżniowe, urządzenia do uzyskiwania niskich temperatur, piece do hodowli kryształów, urządzenia do produkcji mikroprocesorów, światłowody i wiele innych. Niewątpliwie są one do pracy potrzebne, a czasami wręcz niezbędne. Wiadomą rzeczą jest, że na zakup niektórych sprzętów potrzeba większej gotówki, która powinna być gromadzona zgodnie z długofalowym planem.
Nowe technologie udoskonalone przez naukowców mogą powodować oszczędności w całej gospodarce. Rząd będzie wydawał mniej pieniędzy dzięki zastosowaniu w różnych gałęziach przemysłu wydajniejszych maszyn i urządzeń. Może również wzbogacić się, gdy w naszym kraju będą produkowane najnowsze, urządzenia będące wynikiem badań polskich naukowców. W ten sposób, poprzez otwieranie nowych zakładów produkujących ten osprzęt, może zmniejszyć się bezrobocie i poprawić infrastruktura gospodarcza.
Polska może zyskać prestiż na arenie międzynarodowej. Naukowcy dotowani przez państwo będą kojarzeni z naszym krajem. Ich odkrycia rozsławią dobre imię naszego państwa, a ich wynalazki mogą stać się użyteczne dla całego świata. Wyniki badań tych pracowników nauki mogą okazać się pomocne w konstruowaniu nowych przedmiotów, niejednokrotnie będących w stanie ułatwić życie wielu osobom.
Fizycy otrzymujący odpowiednio wysokie stypendia naukowe nie musieliby wyjeżdżać do bogatszych krajów- a są tam niezwykle cenionymi pracownikami. Kraje, będące potentatami finansowi nie będą mogły przypisać sobie odkrycia naszego rodaka (ewentualny wynalazek dodałby im niewątpliwego splendoru). Obecnie bowiem coraz trudniej zaskoczyć konkurentów, dlatego nie należy marnować szans na unikatowość i pierwszeństwo odkryć i badań Polaków.Nauka finansowana przez budżet państwa będzie jednocześnie promować naukę jako jedną ze społecznej działalności państwa. Odkrycia i osiągnięcia przyczynią się do rozpowszechniania wiedzy o badaniach. Mogą zachęcić do pracy potencjalnych przyszłych naukowców, chcących osiągnąć wiele i odpowiednio do tego zmotywowanych i zachęconych. Nic tak mocno nie przemawia do wyobraźni, jak konkretne posunięcia.
Rozwój badań naukowych w dziedzinie fizyki może przyczynić się do poprawy naszego zdrowia. Polacy mogą unowocześniać takie urządzenia jak tomografy, elektroencefalografy czy ultrasonografy. Dzięki temu diagnostyka chorób stosowana odpowiednio wcześniej może przyczynić się do dokładniejszego rozpoznania, a tym samym właściwie ukierunkowanego leczenia wielu schorzeń.
Również międzynarodowe fundusze i organizacje dostrzegając zaangażowanie rządu w naukę, mogą nas wspomóc. Wtedy badania mogą być jeszcze bardziej szczegółowe i dokładne. Ich wyniki zaś będą niejako wspólną własnością udziałowców, a osiągnięcia- wspólnym sukcesem w niejednokrotnie wielowiekowych zmaganiach ze światem i jego prawami.
Nowe rozwiązania technologiczne mogą być udostępniane innym państwom. Przyniosłoby to korzyści finansowe. Kraje te także chętniej udostępniałyby nam swe najnowsze odkrycia. Bez takiej współpracy trudno wyobrazić sobie funkcjonowanie państwa na arenie międzynarodowej. Współpraca ta podniosłaby ocenę Polski w oczach innych.
Fizycy posiadający odpowiedni sprzęt i warunki do pracy nie byliby gorsi od swoich kolegów pochodzących z zamożniejszych krajów. Nie odstawaliby oni od nich, co zapewniłoby harmonijność i paralelizm ich naukowych dociekań. Przeciwnikom dotacji na rzecz nauki wydawać by się mogło, iż w Polsce nie istnieje potrzeba prowadzenia badań z użyciem własnych, skomplikowanych aparatur, gdyż można korzystać z tych międzynarodowych. Jako przykład oponenci mogą podać kazus przynależności Polski i innych krajów do CERN (Europejskiego Laboratorium Cząstek Elementarnych), w wyniku której korzysta się z rezultatów badań przeprowadzanych w akceleratorach europejskich, np. w Genewie. W ten sposób problem budowy polskiego akceleratora nie będzie rozpatrywany. Właśnie takie przekonania mogą okazać się błędne, gdyż w ten sposób całkowicie ogranicza się plany i zamierzenia naukowców. Nie należy więc w takich sytuacjach ograniczać się do minimalizmu, a zdecydowanie skłaniać się w kierunku ambitnych zamierzeń.
Poprzez wymianę doświadczeń sytuacja Polski może się poprawić. Będziemy postrzegani jako państwo przeznaczające środki na właściwe cele. Ułatwi to integrację z innymi krajami i sprawi, że staniemy się równorzędnymi partnerami. Nie będziemy wówczas traktowani jak naród, który nie interesuje się nauką i nie stara się zapewnić jej należytego rozwoju.
Badania finansowane z budżetu mogą być efektywniejsze niż te ,,na własną rękę”, nieprofesjonalne i niedokładne, do jakich prowadzenia zmuszeni są często dość ubodzy naukowcy. Byłyby one zorganizowane bardziej profesjonalnie, z wykorzystaniem wszelkich dostępnych środków.
Reasumując: finansowanie badań naukowych z budżetu państwa może być bardzo korzystne. Mogą na tym zyskać naukowcy, państwo, inne kraje, a także my sami. Dlatego warto do tego tematu wracać, popierać wszelkie podejmowane w tej dziedzinie kroki ustawodawcze i prawodawcze. Uregulowania prawne są w tej kwestii konieczne i niezbędne, będą one bowiem gwarantem zrealizowania przez państwo jego powinności wobec nauki. Niewątpliwie korzystne dla państwa byłoby szczodre i hojne dotowanie nauki, a szczególnie fizyki. Albert Einstein powiedział: „Wszyscy wiedzą, że czegoś się nie da zrobić i przychodzi taki jeden, który nie wie, że się nie da i on właśnie to robi”, co potwierdza konieczność roztaczania opieki nad rodzimymi naukowcami-fizykami. To właśnie oni mogą odkryć to, co było przedmiotem badań ludzkości przez wiele lat. Nauka jest naszą przyszłością i tylko jej rozwój może zapewnić nam lepsze życie.

Posted in Uncategorized | Leave a comment

Głośność i natężenie dźwięku, czyli od ciszy do hałasu

Ucho zbiera energię tylko z obszaru jaki samo zajmuje, więc dla wrażenia głośności istotna jest energia padająca w jednostce czasu na jednostkę powierzchni.
Charakterystyczną cechą dźwięku jest natężenie. Natężenie wrażenia słuchowego przedstawia stosunek energii przenoszonej przez falę głosową w jednostce czasu przez powierzchnię.

Tutaj:
I – natężenie dźwięku – jednostką jest “wat na metr kwadrat” [W/m2].
S – pole powierzchni, na którą pada energia dźwiękowa wyrażone w “metrach kwadratowych” [m2].
P – moc fali dźwiękowej w watach [W]

Jednak to dopiero początek problemów związanych z pojęciem głośności, bo okazuje się, że wcale 2 razy większe natężenie dźwięku nie jest przez nas odbierane jako 2 razy głośniejszy dźwięk. Ucho logarytmuje natężenie dźwięku, co powoduje, że 2 razy większe natężenie dźwięku odpowiada zwiększeniu głośności o wielkość proporcjonalną do “logarytmu z dwóch”. Dlatego wprowadza się jednostkę zwaną poziomem natężenia dźwięku. Wzorcową częstotliwością jest v=1000Hz Dla niej próg słyszalności wynosi 10-12 W*m2 To natężenie oznacza się I0. Jest to punkt zerowy nowej skali. Natężenie 10 razy większe wynosi I1=I0*101; sto razy większe I1=I0*102 itd.
Natężenie progu słyszalności ma poziom natężenia 0 dB. Z kolei bardzo głośny słyszalny dźwięk ma poziom głośności w okolicy 100 dB; 120dB to tzw. próg bólu, czyli głośność przy której ucho nie słyszy tylko “boli”.

Ale to jeszcze nie koniec problemów z głośnością. Okazuje się, że człowiek nie wszystkie dźwięki o tym samym poziomie głośności słyszy jednakowo dobrze. Dźwięki bardzo niskie i bardzo wysokie są słyszane słabo, za to tony o częstotliwościach od 1KHz do 5KHz (mniej więcej zakres mowy ludzkiej) są słyszane wyjątkowo dobrze.
Np. ton 10 dB mający częstotliwość 1000 Hz będzie przez większość ludzi słyszalny (będzie ona odbierany jako głośny), ale ton 10dB o częstotliwości 25Hz chyba wszyscy “odbierzemy” jako ciszę.

Na rysunku obszar zakreskowany na niebiesko jest “obszarem słyszalności”. Dźwięki z zakresu pod tym obszarem są zbyt ciche, aby mogły być słyszalne, dźwięki powyżej tego obszaru są tak głośne, że nie daje się ich wyróżnić jako dźwięk (człowiek nie rozróżnia ich wysokości i barwy, czując jedynie ból w uszach)

Jaką więc jednostkę wprowadzić, aby rzeczywiście dwa różne dźwięki odbierane jako tak samo głośne miały ten sam “atrybut głośności”?
Rozwiązanie jest jedno – trzeba przebadać dużą grupę ludzi, i posługując się metodami statystycznymi ustalić, jak średnio są przez nich słyszalne różne głośności i różne częstotliwości dźwięku (tzw. audiogram). Wyniki publikuje się w postaci tabeli przeliczników. W ten sposób powstaje nowa jednostka głośności zwana fonem.

I jeszcze jeden problem – jak zależy natężenie dźwięku od jego amplitudy?

Żeby sprawy nie komplikować podam nie ścisłą zależność, lecz proporcjonalność, która jest słuszna dla każdego rodzaju amplitudy. Otóż:

natężenie dźwięku jest proporcjonalne do kwadratu amplitudy fali dźwiękowej

Jak dokładnie jest zdefiniowany fon?
Ton 1000Hz mający X decybeli ma tyle samo (czyli X) fonów. Np. ton 1000 hercowy o poziomie natężenia 40dB będzie miał też 40 fonów. A ton np. 200 Hz?
Żeby stwierdzić ile ton 200 Hz ma fonów, trzeba sprawdzić jaki ton 1000Hz daje takie samo wrażenie głośności. Okazuje się, że ton 200Hz i 40dB jest słyszalny mniej więcej tak samo głośno jak ton 1000Hz i 30 dB. Dlatego 40-to decybelowy ton 200Hz ma głośność 30 fonów.
Niektóre typowe głośności dźwięków w fonach

- 20 – 30 fonów: cichy szelest liści, szum lodówki
- 50 fonów – cicha mowa
- 70 fonów – uczniowie szkoły podstawowej w czasie przerwie międzylekcyjnej
- 90 fonów – ruch uliczny w godzinach szczytu tuż przy ruchliwej trasie
- 100 -110 fonów – głośna dyskoteka, fortissimo orkiestry
- 120 fonów – granica bólu

A oto dwa ciekawe doświadczenia z akustyki
Interferencja fal dźwiękowych
Spróbuj na sprzęcie stereo słuchać dźwięku wydobywającego się z dwóch kolumn. Efekt da się zauważyć, jeżeli będziemy przesuwać głowę nieco dalej i bliżej głośników (jednak możliwie blisko ich osi symetrii). Da się wtedy zauważyć miejsca z wyciszonym dźwiękiem (interferencja destruktywna) i głośniejsze (interferencja konstruktywna).
Dudnienia
Zjawisko dudnień powstaje wtedy, gdy jednocześnie słuchamy dźwięków nieznacznie różniących się częstotliwościami. Uzyskuje się wtedy efekt falowania dźwięku o uśrednionej częstotliwości.
Dudnienia też są rodzajem interferencji
Ultradźwięki, czyli dźwięki, których nie słychać
Ultradźwięki są to drgania ośrodka zachodzące z częstotliwościami większymi niż 20KHz (dźwięki powyżej 1GHz nazywa się je niekiedy hiperdźwiękami). Drgania te są niesłyszalne dla ludzi, jednak słyszą je m.in. psy, nietoperze, delfiny.
Wytwarzanie ultradźwięków
Wytwarzanie tak szybkich drgań jest możliwe tylko wtedy, gdy przedmiot drgający jest mały i lekki (niech ktoś spróbuje “machać” 30 tysięcy razy na sekundę dużym, ciężkim przedmiotem…)
Jak więc uzyskuje się tak szybkie drgania?
Mechaniczne źródła ultradźwięków
Nazwa urządzenia Jak działa?
piszczałka ultradźwiękowa Galtona – przywoływacz psóww bardzo małej rurce piszczałki powietrze drga z o wiele większą częstotliwością niż w dużej rurze organów koncertowych.
generator piezoelektrycznysą materiały (kryształy piezoelektryczne), które zmieniają swoje wymiary po przyłożeniu do nich napięcia Jeżeli to napięcie zmienia się bardzo szybko, wtedy kryształ bardzo szybko się kurczy i rozszerza, przez co generuje ultradźwięki
generator magnetostrykcyjnyzjawisko jest podobne do piezoelektrycznego, tylko, że w tym wypadku ruch w generatorze wywoływany jest przez szybko zmienne pole magnetyczne

Czy wiesz, że słonie porozumiewają się ze sobą za pomocą infradźwięków? Ten sposób komunikacji ma dwie zalety – zasięg wielu kilometrów i brak osłabiania przez przeszkody terenowe, ponieważ infradźwięków właściwie nie da się ekranować, a pochłanianie ich też zachodzi w mniejszym stopniu, niż dla dźwięków słyszalnych przez ludzi.
Zastosowanie ultradźwięków
Ultradźwięki mają szerokie zastosowanie w medycynie i technice.
Oto przykłady zastosowań:
- ultrasonograf “prześwietla” ultradźwiękami ciało człowieka
- ogniskując ultradźwięki można drganiami pobudzić określony narząd
- prześwietlanie ultradźwiękami materiałów pozwala na wykrycie w nich wad
- sondy ultradźwiękowe mierzą głębokość mórz
- wysokoenergetyczną wiązką ultradźwiękową można przecinać i wiercić i oczyszczać przedmioty

Posted in Uncategorized | Leave a comment

Optyka – zwierciadła

Zjawisko rozproszenia światła- polega na odbiciu światła w różnych kierunkach od nierównej powierzchni.
Obraz pozorny powst. w wyniku przecięcia się przedłużeń promieni odbitych. Nie można go otrzymać na ekranie.
Obrazy otrzymywane przy użyciu zwierciadeł płaskich są pozorne, mają tę samą wielkość co przedmioty, są symetryczne względem powierzchni odbijającej i nie są odwrócone.# Ogniskowa F zwierciadła kulistego wklęsłego to taki punkt leżący na osi głównej, w którym przecinają się wszystkie promienie odbite od zwierciadła, przed odbiciem biegnące równolegle do osi optycznej.
Odległość ogniska F od zwierciadła jest to ogniskowa. Oznacza- f. Jedn. f=m .# Ogniskowa f zwierciadła jest równa w przybliżeniu połowie promienia krzywizny zwierciadła r:f~=r/2.
Obrazem rzeczywistym nazywa się obraz, który powstaje w wyniku przecięcia promieni odbitych i można go zobaczyć na ekranie.# P=h1/h2 ;gdzie: p- powiększenie obrazu, h1- wys.przedmiotu; h2- wys.obrazu.
Równanie równania wklęsłego- zależność: 1/x+1/y+1/f~= 2/r ;gdzie: x-odl. Przedmiotu od zwier.; y- odl. Obrazu od zwier.; f- ogniskowa zwier.; r- promień krzywizny zwier.;
Zwierciadłem kulistym wypukłym nazywa się czaszę wycięto z powierzchni kulistej, pokrytą od zewnętrznej strony warstwą subs. odbijającą.# Ogniskiem pozornym nazywa się punkt przecięcia się przedłużeń promieni odbitych, które przed odbiciem biegły równolegle do osi optycznej zwierciadła.
Zwierciadło- gładka powierzchnia, prawie w całości odbijająca promienie świetlne.# Zwierciadło płaskie- zwierciadło, którego pow. Odbijająca jest płaszczyzna.
Ognisko zwierciadła lulistego wklęsłego- punkt leżacy na osi głównej, w którym przecinają się wszystkie promienie odbite od zwierciadła, przed odbiciem biegnące równolegle do osi opt # Ognisko pozorne zwierciadła kulistego wypukłego- punkt przecięcia przedłużeń promieni odbitych od zwierciadła od zwierciadła, które przed odbiciem biegły równ. Do osi głównej.# Światło rozchodzi się prostoliniowo wewnątrz ośrodka jednorodnego, tzn. takiego, który w całej objętości ma jednakowe właściwości fizykochem. # Promień padający na granicę dwóch ośrodków, normalna oraz promie załamany leżą w jednej płaszczyźnie. Wielkości kątów padania i załamania względem siebie zależą od prędkości rozchodzenia się światła w ośrodku.# N=v1/v2 gdzi: v1, v2- prędkości rozch. się św. W oś.; n- współczynnik załamania światła ośrodka drugiego względem pierwszego.# Płytka równoległościenna powoduje równoległe przesunięcie wiązki światła. Przesunięcie jest tym większe im większy jest kąt padania promienia świetlnego na płytką, im grubsza jest płytka i im większy jest współczynnik załamania światła.# Załamanie światła- zjawisko zmiany kierunku promienia św. na granicy dwóch ośrodków. # Pryzmat- bryła szklana w kształcie graniastosłupa o podstawie trójkąta
Kąt łamiący pryzmatu- kąt pomiędzy dwiema płaszczyznami pryzmatu.
Pryzmat na skutek zachodzącego w nim dwukrotnego załamania światła powoduje rozszczepienie się światła białego na pojedyńcze barwy monochromatyczne, którym odpowiadają fle elektromagnetyczne o dł. 380-770 nm, dając na ekranie barwne widmo.

Posted in Uncategorized | Leave a comment

Optyka i światła

=v/f=v*T ;gdzie - dł.fali, v- pręd., f- częst., T- okres.# Światło fiolet- najwięk. Częst. Najmn. Dł. ; św. Cze rw. Odwrotnie.# Światło przenosi energię od źródła do odbiorcy.# Źródłem światła jest każde ciało wysyłające promieniowanie kosztem innej energii i odbierane przez zmysł wzroku.
Światło ma dwoistą naturę: falową i korpuskularną(zjawisko fotoelektryczne). Jest równocześnie falą elektomagn. Oraz strumieniem cząstek (kwantów), zwanych fotonami. Fala elektromag.- rozchodzące się w przestrzeni zaburzenie pól elektr. i magn..# C= 299 792 km/s~300 000km/s -prędkość światła
Światło- fala elektromagn. O dł. 380-770 nm.
Foton- cząstka będąca kwantem, czyli porcją promieniowania elektomagnet. # Ch. Huygens-zasada: śwaitło rozchodzi się po liniach prostych, gdy nie trafia na przeszkody lub gdy przeszkody, które napotyka, albo szczeliny, przez które przechodzi, są duże w porównaniu z dł. Fali . Każdy punkt ośrodka, do którego dotrze światło, staje się źródłem nowej fali świetelnej cząstkowej.
Th. Young- zjawisko interferencji(nakładania się fali) fal.
Dyfrakcja- ugięcie fali. # fale spójne- fale o identycznej dł. i częst., mające stałą różnicę faz; wynikiem ich interferencji jest wzmocnienie fali wypadkowej, osłabienie fali lub jej wygaszenie ( przy tych samych amplitudach). # W ośrodku optycznie jednorodnym światło rozchodzi się po liniach prostych.
Promień świetlny jest to linia, wzdłuż której rozchodzi się światło w danym oś. opt.- linia wyznaczająca kierunek rozch. św.
Oś. opt. Jest to taki ośrodek, w którym rozchodzą się promienie świetlne.# Odwracalność biegu promieni świetlnych- twierdzenie: Jeżeli promień świetlny po przebyciu pewnej drogi przez ośrodki optyczne zostanie skierowany przeciwnie, to wróci tą samą drogą aż do punktu wyjścia.# Oś. optycznie jednorodny- ośrodek optyczny mający jednakowe właściwości fizykochem. w całej objętości.# Prawo odbicia :Promienie: padający i odbity oraz prosta prostopadła leżą w jednej płaszczyźnie. Kąt odbicia jest zawsze równy kątowi padania.# Kąt padanie- kąt zawarty pomiędzy promieniami padającymi a normalną poprowadzoną w punkcie padania.# Kąt odbicia- kąt pomiędzy promieniem odbitym a normalną poprowadzoną w punkcie odbicia.
Normalna- prosta prostopadła do powierzchni.
Zjawisko rozproszenia światła- polega na odbiciu światła w różnych kierunkach od nierównej powierzchni.
Obraz pozorny powst. w wyniku przecięcia się przedłużeń promieni odbitych. Nie można go otrzymać na ekranie.
Obrazy otrzymywane przy użyciu zwierciadeł płaskich są pozorne, mają tę samą wielkość co przedmioty, są symetryczne względem powierzchni odbijającej i nie są odwrócone.# Ogniskowa F zwierciadła kulistego wklęsłego to taki punkt leżący na osi głównej, w którym przecinają się wszystkie promienie odbite od zwierciadła, przed odbiciem biegnące równolegle do osi optycznej.
Odległość ogniska F od zwierciadła jest to ogniskowa. Oznacza- f. Jedn. f=m .# Ogniskowa f zwierciadła jest równa w przybliżeniu połowie promienia krzywizny zwierciadła r:f~=r/2.
Obrazem rzeczywistym nazywa się obraz, który powstaje w wyniku przecięcia promieni odbitych i można go zobaczyć na ekranie.# P=h1/h2 ;gdzie: p- powiększenie obrazu, h1- wys.przedmiotu; h2- wys.obrazu.
Równanie równania wklęsłego- zależność: 1/x+1/y+1/f~= 2/r ;gdzie: x-odl. Przedmiotu od zwier.; y- odl. Obrazu od zwier.; f- ogniskowa zwier.; r- promień krzywizny zwier.;
Zwierciadłem kulistym wypukłym nazywa się czaszę wycięto z powierzchni kulistej, pokrytą od zewnętrznej strony warstwą subs. odbijającą.# Ogniskiem pozornym nazywa się punkt przecięcia się przedłużeń promieni odbitych, które przed odbiciem biegły równolegle do osi optycznej zwierciadła.
Zwierciadło- gładka powierzchnia, prawie w całości odbijająca promienie świetlne.# Zwierciadło płaskie- zwierciadło, którego pow. Odbijająca jest płaszczyzna.
Ognisko zwierciadła lulistego wklęsłego- punkt leżacy na osi głównej, w którym przecinają się wszystkie promienie odbite od zwierciadła, przed odbiciem biegnące równolegle do osi opt # Ognisko pozorne zwierciadła kulistego wypukłego- punkt przecięcia przedłużeń promieni odbitych od zwierciadła od zwierciadła, które przed odbiciem biegły równ. Do osi głównej.# Światło rozchodzi się prostoliniowo wewnątrz ośrodka jednorodnego, tzn. takiego, który w całej objętości ma jednakowe właściwości fizykochem. # Promień padający na granicę dwóch ośrodków, normalna oraz promie załamany leżą w jednej płaszczyźnie. Wielkości kątów padania i załamania względem siebie zależą od prędkości rozchodzenia się światła w ośrodku.# N=v1/v2 gdzi: v1, v2- prędkości rozch. się św. W oś.; n- współczynnik załamania światła ośrodka drugiego względem pierwszego.# Płytka równoległościenna powoduje równoległe przesunięcie wiązki światła. Przesunięcie jest tym większe im większy jest kąt padania promienia świetlnego na płytką, im grubsza jest płytka i im większy jest współczynnik załamania światła.# Załamanie światła- zjawisko zmiany kierunku promienia św. na granicy dwóch ośrodków. # Pryzmat- bryła szklana w kształcie graniastosłupa o podstawie trójkąta
Kąt łamiący pryzmatu- kąt pomiędzy dwiema płaszczyznami pryzmatu.
Pryzmat na skutek zachodzącego w nim dwukrotnego załamania światła powoduje rozszczepienie się światła białego na pojedyńcze barwy monochromatyczne, którym odpowiadają fle elektromagnetyczne o dł. 380-770 nm, dając na ekranie barwne widmo.

Posted in Uncategorized | Leave a comment

Wyższość prądu zmiennego nad stałym

Prąd zmienny jest lepszy od prądu stałego z powodów choćby zasadniczych. „Zmienny” = „zmiana, ruch”. Zmiana na gorsze, zmiana na lepsze, to może być różnie wartościowane. Jednakowoż, ruch jako taki, przyczyna zmian, sam w sobie jest przypisany aktywności, a aktywność obserwowana niesie informację. Prąd stały, pominąwszy prąd, to: stałość, zatrzymanie, bezruch, bezwolność, martwota. Stałość = zgnilizna, rozpad, nicość, chłód entropii. Czy aby na pewno prąd zmienny jest prądem lepszym?
Zmiany to informacja, a wiek XXI to wiek informacji. Prąd zmienny to medium, które umożliwia aktywność informacyjną. Odczytujemy, zapisujemy, odbieramy i wysyłamy dane używając prądu zmiennego.
W technice współczesnej energia elektryczna jest wytwarzana, przesyłana i użytkowana niemal wyłącznie w postaci prądu przemiennego. Jest to wynikiem możliwości transformowania prądu przemiennego z niskiego napięcia na wysokie i odwrotnie, co jest konieczne do przesyłania dużych ilości energii elektrycznej na odległość dziesiątek lub setek kilometrów. Energię elektryczną wytwarzaną w prądnicach w bliskości naturalnych źródeł energii transformuje się i przesyła pod wysokim napięciem. W miejscu użycia doprowadzona energię należy znowu przetransformować, aby można było zasilać odbiorniki o niskim napięciu nie zagrażającym życiu i bezpieczeństwu odbiorców energii. Druga ważną zaletą prądu przemiennego jest prosta budowa silników i małe koszty produkcji.

Prąd przemienny jest to prąd, którego napięcie i natężenie ulegają zmianom nie tylko co do wartości, lecz i co do zwrotu.

Zastosowanie prądu przemiennego:
·SILNIK ELEKTRYCZNY, maszyna przetwarzająca energię elektryczną na energię mech., zwykle w postaci energii ruchu obrotowego. Moment obrotowy powstaje w silniku elektrycznym w wyniku oddziaływania pola magnetycznego i prądu elektrycznego(siła elektrodynamiczna). Silnik elektryczny składa się ze stojana (z osadzoną parą lub kilkoma parami uzwojeń elektromagnesów) oraz wirnika z uzwojeniem twornikowym. Zależnie od prądu zasilającego rozróżnia się silnik elektryczny prądu stałego oraz silniki elektryczny prądu przemiennego. Silnik elektryczny prądu stałego ma na osi wirnika pierścień złożony z izolowanych działek (tzw. komutator) łączonych z zaciskami uzwojeń twornika; po komutatorze ślizgają się doprowadzające prąd nieruchomo osadzone szczotki elektryczne (z drobnoziarnistych tworzyw z węgla uszlachetnionego) dociskane do powierzchni komutatora przez sprężynki. Działanie pola magnetycznego, wytworzonego przez elektromagnesy stojana, na prąd elektryczny w obwodzie: para szczotek, działki komutatora i uzwojenie twornika, powoduje ruch obrotowy wirnika; kierunek obrotów zależy od kierunku prądu w uzwojeniu twornika. Zależnie od sposobu połączenia uzwojenia twornika z uzwojeniem elektromagnesu wzbudzającego pole magnetyczne, silniki elektryczne prądu stałego dzieli się na szeregowe, równoległe i szeregowo-równoległe. W silnikach elektrycznych szeregowych prędkość obrotowa zmniejsza się wraz ze wzrostem obciążenia; mają skłonność do rozbiegania się po odłączeniu obciążenia; są stosowane w trakcji elektrycznej i dźwignicach. W silnikach elektrycznych równoległych prędkość obrotowa jest niezależna od obciążenia; są stosowane np. do napędzania obrabiarek. Silniki elektryczne szeregowo-równoległe są stosowane do napędzania maszyn o stałej prędkości obrotowej i dużych momentach obrotowych. Silniki prądu przemiennego dzielą się na 1- i 3-fazowe, a zależnie od zasady działania na indukcyjne (indukcyjna maszyna), synchroniczne (synchroniczna maszyna) i komutatorowe (komutatorowa maszyna). W silnikach elektrycznych 3-fazowych indukcyjnych prąd 3-fazowy płynący przez uzwojenia stojana wytwarza pole wirujące; pole to przecina przewody uzwojenia wirnika, indukując w nich prądy zgodnie z regułą Lenza, a w rezultacie powoduje ruch obrotowy wirnika; wirnik obraca się wolniej niż pole wirujące, gdyż w uzwojeniach wirnika indukuje się napięcie tylko wtedy, kiedy istnieje ruch pola wirującego względem tych uzwojeń; różnica prędkości nazywa się poślizgiem; silnikach elektrycznych indukcyjne stosowane są do napędzania maszyn o nie regulowanej prędkości obrotowej. Najtańsze i najczęściej stosowane w przemyśle są odznaczające się najprostszą budową silniki indukcyjne klatkowe (zwarte); wirnik tych silników ma uzwojenie w kształcie klatki, wykonanej jako odlew aluminiowy lub zespół prętów zwartych na swych czołach pierścieniami. Silniki elektryczne synchroniczne różnią się od silników elektrycznych indukcyjnych budową wirnika, który jest wyposażony dodatkowo w elektromagnesy zasilane prądem stałym ze wzbudnicy osadzonej na wale wirnika; liczba biegunów elektromagnesów odpowiada liczbie biegunów pola wirującego stojana; ponieważ moment obrotowy jest wynikiem wzajemnego oddziaływania na siebie biegunów magnetycznych elektromagnesów i pola wirującego, obroty wirnika są synchroniczne z obrotami pola i mają stałą prędkość; stosowane do napędzania maszyn szybkoobrotowych o stałej prędkości obrotowej, np. sprężarek. Silniki elektryczne synchroniczne mogą być stosowane jako silniki skokowe (krokowe, impulsowe); impulsowe zasilanie powoduje nieciągły, skokowy ruch wirnika (obrót) silnika o określony kąt (zwykle kilka do kilkudziesięciu stopni); silnik taki wykonuje do kilku tysięcy skoków na sekundę; jest stosowany w układach regulacji automatycznej z cyfrowym sygnałem sterującym, w zegarach (jako siłownik precyzyjny), do ustawiania głowic w pamięciach dyskowych komputerów itp. Silniki elektryczne komutatorowe (szeregowe i równoległe), podobnie jak silniki elektryczne prądu stałego, mają wirnik z komutatorem, do którego doprowadza się prąd przemienny za pomocą szczotek. Osobną grupę stanowią silniki elektryczne uniwersalne, które mogą być zasilane prądem stałym lub przemiennym; stosowane do napędzania sprzętu gospodarstwa domowego, maszyn biurowych itp. Odrębnym rodzajem silnika elektrycznego jest silnik liniowy, przetwarzający energię elektryczną bezpośrednio na energię ruchu postępowego. Silnik liniowy składa się z induktora i bieżnika, które są odpowiednikami stojana i wirnika zwykłego silnika elektrycznego, lecz rozwiniętymi w linię prostą; częścią ruchomą silnika może być zarówno induktor, jak i bieżnik. Głównymi zaletami tego rodzaju silnika są: brak styczności mechanicznej między induktorem a bieżnikiem, idealnie cicha praca, dobre chłodzenie, brak ślizgowych zestyków doprowadzających prąd, łatwość sterowania, możliwość uzyskiwania różnych przebiegów zależności siły od prędkości, możliwość prostego łączenia kilku silników liniowych w jeden zespół o większej mocy. Rozróżnia się silniki elektryczne liniowe prądu stałego, prądu przemiennego, synchroniczne, asynchroniczne, oscylacyjne itp.; do najnowszych konstrukcji należą silniki o poprzecznym strumieniu magnetycznym (tzw. transverse-flux motor) nadające się zwł. do napędzania szybkich pojazdów poruszających się na poduszce powietrznej lub magnetycznej. Silniki elektryczne liniowe stosuje się gł. w automatyce, w napędach specjalnych oraz w trakcji elektrycznej. Współczesne silniki elektryczne budowane są na moce od części wata do kilkudziesięciu megawatów, przy sprawności od 60 do 95%, współczynnik mocy silnika elektrycznego prądu przemiennego wynosi 0,65 0,95. Pierwszy model silnika elektrycznego zbudował 1831 M. Faraday (tarcza Faradaya), zaś pierwszy silnik elektryczny (z komutatorem) o praktycznym zastosowaniu do napędu łódki 1834 M.H. Jacobi; decydującym krokiem w rozwoju silnika elektrycznego było zbudowanie 1887 przez J.N. Teslę (wykorzystującego prace inż. i fizyka G. Ferrarisa) 2-fazowego silnika indukcyjnego; 1889 90 silnik 3-fazowy z wirnikiem klatkowym zbudował M. Doliwo-Dobrowolski; 1902 E. Danielson zbudował silnik synchroniczny, którego prędkość obrotowa ściśle zależała od częstotliwości prądu zasilającego; w tym samym roku A. Zahden uzyskał patent na silnik liniowy, działający wg zasady stosowanej obecnie.
·Prądnice prądu przemiennego sa budowane jako trójfazowe, zostały przeznaczone do zasilania odbiorników przemysłowych, oświetleniowych i gospodarstwa domowego, ale muszą one wytwarzać prąd sinusoidalnie zmienny o częstotliwości 50 Hz, przyjętej jako znormalizowanej dla europejskich układów elektrycznych. Wobec ścisłej zależności częstotliwości f do liczby obrotów na minutę n prądnice prądu przemiennego nazywamy synchronicznymi.
Zazwyczaj prądnice są od razu sprzężone z silnikiem napędzającym bez jakichkolwiek przekładni. Prędkość obrotowa prądnicy zależy od rodzaju silnika napędzającego. Na tej podstawie rozróżniamy dwa typy prądnic synchronicznych: szybko- i wolnobieżne.
Prądnice wolnobieżne napędzane są przy pomocy turbin wodnych albo silników spalinowych, prądnice szybkobieżne są natomiast napędzane najczęściej przez turbiny parowe (turboprądnice, turbogeneratory)

Regulacja napięcia może być ręczna albo samoczynna. Ręczna jest powolna i mało dokładna, stosuje się ją w małych prądnicach. W nowoczesnych prądnicach dużych mocy stosuje się wyłącznie regulację samoczynną.
W elektrowniach instaluje się dwie lub więcej prądnic synchronicznych.

Nieco z Zycia

1.Podczas zabiegów rehabilitacyjnych, w których brałam udział, zainteresowało mnie użycie prądu elektrycznego w zabiegach, którym byłam poddana. Niezapomniane jest, doświadczane wtedy, dziwne odczucie – jakby kłucia setką igiełek na raz w kolano. Zastanowiło mnie dlaczego użyto właśnie prądu do leczenia….
A oto nieco historii elektroterapii:
„Pierwsze wzmianki o próbach wykorzystania elektryczności w celach leczniczych pochodzą już ze starożytności, kiedy to do tego celu próbowano wykorzystać pewne gatunki ryb, potrafiące gromadzić ładunki elektryczne, przykładając je do ciała leczonej osoby. Początki elektrolecznictwa sięgają XVIII wieku, kiedy to Luigi Galvani, profesor anatomii, opisał w 1791 r. skurcz mięśnia żaby wywołany działaniem elektryczności. Nieco później Alessandro Volta, kontynuując doświadczenia Galvaniego buduje pierwsze ogniwo elektryczne. Odkrycie w 1831 roku przez Faradaya zjawiska indukcji elektromagnetycznej, zapoczątkowuje stosowanie prądu indukcyjnego na cześć odkrywcy nazwanego faradycznym (obecnie praktycznie nie stosowany).
Do stosowania prądu dla elektrostymulacji mięśni przyczynili się także prace E. H. Du Bois-Reymonda i W. H. Erba prowadzone w końcu XIX wieku.
(źródło: http://ravopt.phg.pl/elektrolecznictwo.htm)
W dziedzinie medycyny nie można jednoznacznie określić jednego rodzaju prądu od drugiego. Chociaż w elektroterapii częściej wykorzystuje się prąd stały. A oto spis zabiegów:
·Galwanizacja (prąd stały) – podczas zabiegu na ciele mocuje się dwie elektrody (jedną w miejscu schorzenia, drugą gdzieś dalej). Przepływający między nimi prąd działa rozluźniająco, przeciwzapalnie i przeciwbólowo.
Wskazania: nerwobóle, przewlekłe zapalenia nerwów, choroba zwyrodnieniowa kręgosłupa, porażenia wiotkie.
·Jonoforeza (prąd stały) – przepływający prąd i wytworzone pole elektryczne wprowadzają lek w roztworze do chorych tkanek. Jedną z elektrod nasącza się odpowiednim środkiem (np. przeciwzapalnym) i mocuje na chorym miejscu, drugą – w pewnym oddaleniu od niej.
Wskazania: W zależności od zastosowanego leku jonoforezą leczy się nerwobóle (np. rwę kulszową), zapalenia stawów, tkanek miękkich, trudno zrastające się urazy kości.
·Prądy diadynamiczne – (zmienne o małej częstotliwości) wykazują silne działanie przeciwbólowe i poprawiają ukrwienie. Stosuje się je w leczeniu bólów połączonych z dużym napięciem mięśni. Podczas zabiegu prąd przepływa między dwiema elektrodami (jedna umocowana jest w miejscu bólu).
Wskazania: nerwobóle, zapalenia okołostawowe, bóle kręgosłupa, półpasiec. Ale w kolejnym źródle podano:
·Prądy diadynamiczne DD – wykorzystywany jest prąd stały, na który nałożony jest jednopołówkowo wyprostowany prąd sinusoidalnie zmienny; uzyskuje się sześć postaci tych prądów (DF, MF, CP, LP, RS, MM), mających zróżnicowane działanie na tkanki. Do zabiegu wykorzystuje się elektrody cyrklowe, punktowe, lub płytkowe. Najczęściej wykorzystywane jest działanie przeciwbólowe prądów DD
·Elektrostymulacja – tu również wykorzystuje się prąd zmienny o małej częstotliwości. Jego przepływ powoduje swoisty rodzaj gimnastyki mięśni – kurczenie się i rozkurczanie.
Wskazania: porażenia, niedowłady przebiegające bez wzmożonego napięcia mięśni (na przykład: porażenie nerwu twarzowego).
·Prądy zmienne średniej częstotliwości (najczęściej tzw. prądy interferencyjne Nemeca) – dwie pary elektrod mocuje się tak, by prądy docierały w głąb tkanek, w okolicę chorego miejsca.
Wskazania: neuralgie, nerwobóle, zapalenia okołostawowe, bóle kręgosłupa, barku, kręgosłupa szyjnego, półpasiec.
A co należy zrobić jeśli ktoś zostanie porażony prądem?
Postęp techniczny spowodował coraz częstsze posługiwanie się urządzeniami energetycznymi o napędzie elektrycznym. W wyniku tego ginie u nas w ciągu roku około 300 porażonych prądem. Przypadków uratowanych nie można ustalić, ponieważ nie zawsze są one rejestrowane. Tego rodzaju zagrożenia występują często w działalności straży pożarnej.
Duże znaczenie w rozwoju porażeń prądem ma jego częstotliwość i dlatego prąd zmienny jest bardziej niebezpieczny od prądu stałego o tym samym natężeniu. Działanie dłuższe powoduje poważniejsze uszkodzenie niż krótkie. Prąd przenika przez ciało tam, gdzie trafia na mniejszy opór. Może powodować uszkodzenia narządów nie leżących bezpośrednio na drodze jego przepływu. Również gęstość prądu, mierzona w amperach na metr kwadratowy stanowi duże zagrożenie.

Z praktycznego punktu widzenia porażenia dzieli się na wywołane prądem o niskim napięciu, tzn. poniżej 1000 woltów i o wysokim napięciu, a więc powyżej 1000 woltów.
Przy powszechnym stosowaniu urządzeń elektrycznych częstą przyczyną obrażeń jest tzw. napięcie robocze, powstałe na skutek dotknięcia odsłoniętej części urządzenia znajdującego się pod napięciem. Jeszcze częściej mamy do czynienia z tzw. napięciem dotykowym – w razie kontaktu z instalacja uszkodzoną lub niewłaściwie połączoną. Może również dochodzić do uszkodzenia przez napięcie zwane krokowym – przy wejściu na podłoże, w którym działają różne potencjały elektryczne.

Działanie prądu elektrycznego na ustrój ludzki

Prąd wywiera wpływ na ustrój, powodując zmiany fizyczne, chemiczne i biologiczne.
Intensywność porażenia wzmagają: podeszły wiek, płeć żeńska, ogólny stan zdrowia, pobudzenie emocjonalne, spożycie alkoholu. Nieobojętne, w sensie negatywnym, są: zwiększona wilgotność otoczenia, mokre podłoże i spocone ręce. Rozmaita jest również odporność poszczególnych tkanek.

Uszkodzenie prądem elektrycznym jest przede wszystkim porażeniem cieplnym, wywołanym łukiem elektrycznym, którego temperatura może dochodzić do 2500°C. Przypomina ono tzw. zespół zmiażdżenia z uszkodzeniem nerek, zatruciem wskutek przedostania się do krwi cząsteczek mięśni oraz zakażeniem. Uszkodzenia wewnętrzne są zwykle znacznie większe niż zewnętrzne.

Do dodatkowych objawów patologicznych należą: obrażenia układu mięśniowego i kostno-stawowego wskutek skurczów tężcowych; złamania kości w następstwie skurczu mięśni i złamania po upadku z dużych wysokości, np. ze słupów telefonicznych; niewydolność nerek; uszkodzenia narządów brzusznych w wyniku napięcia tężcowego mięśni powłok, zaćma oczna po upływie kilku miesięcy od porażenia; nadmierna pobudliwość; stany depresyjne; zaburzenia pamięci i uszkodzenie nerwów obwodowych.

Obrażenia wywołane prądem o niskim napięciu

Należy tu mieć na uwadze napięcie do 1000 woltów. Mamy z nim do czynienia w urządzeniach gospodarstwa domowego, w przemyśle i w rzemiośle. Najczęściej występuje przy prądzie zmiennym rzędu 220 woltów i 50 herców, w urządzeniach oświetleniowych, i prądzie przewodowym w granicach 380 woltów i 50 herców, w silnikach elektrycznych i naczyniach pralniczych.

Sieć elektryczna jest zwykle uziemiona i dotknięcie przewodu pod napięciem przez osobę stojącą na ziemi powoduje przepływ prądu przez ciało. Proces ten można łatwo przerwać za pomocą wyłącznika lub przez wyjęcie bezpiecznika.

Przebieg prądu niskiego napięcia przez ciało powoduje pobudzenie układu nerwowego i mięśni. W mięśniach mogą wystąpić skurcze, które nie pozwalają na oderwanie się od metalowego przewodu elektrycznego. Skurcze mięśni są często przyczyną upadku i uszkodzeń mechanicznych ciała. Działanie prądu na serce może prowadzić do zaburzeń rytmu, a nawet zatrzymania akcji serca. Szkodliwy wpływ na mózg i układ nerwowy może powodować utratę przytomności i bezdech. Na skórze, w miejscu wejścia i wyjścia prądu na zewnątrz, występują głębokie rany oparzeniowe.

Dla dokładniejszego zrozumienia reakcji ludzi porażonych prądami zmiennymi o częstotliwości 50 herców przedstawia się przyjmowane w piśmiennictwie medycznym zestawienie:
- Przy natężeniu 0,7 – 0,9 mA przepływ prądu jest słabo wyczuwalny. Zaczyna się mrowienie, stopniowe drętwienie i przykurcz ręki, sukcesywnie przesuwający się ku ramieniu.
- W razie prądu o natężeniu 3,2 – 7,2 mA obserwujemy sztywnienie ręki, bolesne skurcze ramienia, kłucie na całej powierzchni ręki. Oderwanie się od elektrod Jest ledwo możliwe. Kobiety są bardziej wrażliwe na ten rodzaj prądu i znoszą zwykle najwyżej prąd o mocy 7 mA, mężczyźni zaś do 10 mA.
- W przypadku prądu o natężeniu 7-18 mA obserwuje się skurcz barków. Wypuszczenie elektrod jest niemożliwe. Przepływ takiego prądu człowiek wytrzymuje przez kilkanaście sekund. Powstają trudności w oddychaniu, wzmaga się ból i niemiarowość akcji serca. Możliwe jest jeszcze przywrócenie czynności serca. Pojawia się utrata przytomności. Rażony umiera, jeżeli nie nastąpi przerwanie dopływu prądu i nie otrzyma on natychmiast pomocy doraźnej.
- Gdy zadziała prąd o natężeniu 50 – 70 mA, następuje migotanie komór, utrata przytomności i zgon. Obserwuje się ślady lekkiego oparzenia ciała.

Pierwsza pomoc polega na przerwaniu obwodu elektrycznego, najczęściej przez wyciągnięcie wtyczki z gniazdka lub wykręcenie bezpiecznika. Gdy to nie jest możliwe, ratownik oddziela porażonego od obwodu elektrycznego przez odciągnięcie za odzież. Sam izoluje się od podłoża przy pomocy suchej deski lub suchej tkaniny, względnie innego materiału izolacyjnego. Gdy oderwanie za odzież nie jest możliwe, dokonuje się oddzielenia porażonego za pomocą suchej listwy drewnianej lub kija itp. Ratownik musi być zawsze dokładnie izolowany. Nie wolno chwytać ratowanego przedmiotem przewodzącym elektryczność lub gołymi rękami za ciało.

Po usunięciu porażonego z niebezpiecznego miejsca kontroluje się u niego oddech i tętno. W przypadku utraty przytomności i zachowanym oddechu stosuje się tzw. bezpieczne ułożenie na boku i przytrzymuje go, aby wskutek bezładnych ruchów nie doszło do opadnięcia języka i zatkania wejścia do krtani. W razie zatrzymania oddechu stosuje się sztuczne oddychanie, najlepiej metoda usta-usta, za pomocą maski ustno-gardłowej, zgodnie z zasadami obowiązującymi przy prowadzeniu reanimacji. W razie zatrzymania akcji serca należy wykonać natychmiast zewnętrzny masaż serca.

Czynności te powinny wykonywać osoby odpowiednio przeszkolone, gdyż wtedy przywracanie podstawowych czynności życiowych ma szansę powodzenia. Niewłaściwe przeprowadzenie zabiegów ratowniczych może być przyczyną katastrofy.

W wypadku rozwijania się wstrząsu (szoku) rozpoczyna się postępowanie przeciwwstrząsowe. Sprawdza się tętno na tętnicy szyjnej, stosuje się ułożenie zapewniające tzw. autotransfuzję krwi przez uniesienie kończyn ku górze, powodujące przemieszczenie krwi w kierunku serca i mózgu. Równocześnie chroni się chorego przed utratą ciepła, uspokaja pobudzonego emocjonalnie. Zabrania się palenia i picia alkoholu. Niewskazane jest również posługiwanie się do ewakuacji przygodnym transportem, który może wywołać dodatkowe urazy.

Nad stanem ogólnym czuwa się stosując kilkakrotne mierzenie częstości i miarowości tętna. Tętno namacalne jest dobrym objawem prognostycznym. Świadczy również o utrzymywaniu się ciśnienia tętniczego w granicach zbliżonych do normalnego. Tymczasem należy wezwać karetkę pogotowia ratunkowego i powiadomić, z jakim rodzajem porażenia ma się do czynienia.
Nie wolno dotykać osoby porażonej bez zastosowania środków izolujących, zanim nie odłączy się Jej od źródła prądu, zostawiać ratowanego samemu sobie ani zakopywać, jak to czyniono dawniej.

Porażenie prądem elektrycznym o wysokim napięciu

Wchodzi tu w grę napięcie powyżej 1000 woltów. Mamy z nim do czynienia w razie uszkodzenia przewodów telefonicznych, stacji transformatorowych i elektrowni.
Zwykle są one oznaczone tablicami ostrzegawczymi.

Niebezpieczne jest samo zbliżanie się do uszkodzonych przewodów będących pod napięciem. Może bowiem powstać łuk elektryczny przez normalnie izolującą warstwę powietrza. Prąd przepływa wtedy przez całe ciało. Dochodzi wówczas do powstania wysokiej temperatury i rozległych oparzeń. Mogą również wystąpić wszystkie zaburzenia zachodzące przy porażeniach prądem niskiego napięcia.
Szczególnie niebezpieczny jest tzw. przeskok napięcia bez bezpośredniego kontaktu z linią działania prądu, łuk elektryczny może nawet przekroczyć odległość kilku metrów. Ratownik powinien w takich przypadkach znajdować się 5 metrów od źródła zagrożenia. Należy wówczas zastosować tzw. przerzutkę z drutu. Czynność tę powinien wykonywać wezwany personel techniczny, powiadomiony o faktycznym stanie zagrożenia.

Pierwsza pomoc po odłączeniu od źródła prądu powinna polegać na wezwaniu karetki pogotowia, a najlepiej karetki reanimacyjnej ze specjalistą anestezjologiem. Następnie sprawdza się, czy ratowany oddycha; jeśli nie, natychmiast rozpoczyna się sztuczne oddychanie, najlepiej za pomocą maski ustno-gardłowej. Jeżeli chory nie oddycha i nie ma wyczuwalnego tętna, rozpoczyna się reanimację (resuscytację), zgodnie z założeniami przyjętymi dla pierwszej pomocy.

W przypadku innych urazów, jak: rany oparzenia, złamania, krwawienia itp. udziela się pomocy przewidzianej w tego rodzaju obrażeniach.
Najniebezpieczniejsze są urazy kręgosłupa. Rozpoznaje się je na podstawie zaburzeń oddychania, niedowładu kończyn, bezwiednego oddawania moczu i stolca, zaburzeń czucia oraz utraty przytomności.
Chorego należy stale obserwować. Jeżeli opóźnia się przyjazd karetki pogotowia, trzeba znaleźć osoby, które pomogą przenieść porażonego w bezpieczne miejsce. Wymaga to specjalnej techniki. Urazy kręgosłupa mogą być przyczyną trwałego kalectwa, a nawet śmierci.
2.Jako dziecko nie tylko ja uwielbiałam jeździć tramwajem, a czasem, w Gdyni, „przejechać” się trolejbusem. Jednak tutaj prąd przemienny został „wyprzedzony” przez prąd stały. Szeregowy silnik elektryczny prądu stałego, jaki stosuje się zwykle w trolejbusach, w początkowej chwili rozruchu (prędkość obrotowa równa zero) może nam dostarczyć stosunkowo duży moment obrotowy, a wiec i duża sile na kołach napędowych pojazdu. Dzięki temu pojazdy z trakcja elektryczna mogą ruszać uruchamiając silnik, a przy postoju lub hamowaniu mogą go wyłączać. Z tego względu nie trzeba w nich stosować sprzęgieł, które maja znacznie ograniczona żywotność, a podczas pracy z poślizgiem obniżają sprawność pojazdu. Nie ma również możliwości “zduszenia” silnika elektrycznego, co może się zdążyć w pojazdach z silnikiem trakcyjnym spalinowym. Kolejna ważna zaleta trakcji elektrycznej jest to, ze szeregowy silnik elektryczny prądu stałego może osiągać duże momenty obrotowe praktycznie przy każdych obrotach. Dzięki temu przy przeniesieniu napędu z silnika elektrycznego nie trzeba stosować wielostopniowej skrzyni biegów. Skrzynia biegów zwiększa stopień skomplikowania układu przeniesienia napędu, a wiec i koszty produkcji, eksploatacji oraz obniżyła niezawodność pojazdu.
Do wad szeregowego silnika elektrycznego prądu stałego należy zaliczyć to, ze podczas rozruchu pobiera on bardzo duży prąd. Gdyby nie specjalne układy ograniczające prąd rozruchu, trzeba by przystosować siec do pobierania prądów znacznie przekraczających znamionowe prądy pracy układu. Ograniczenie prądu rozruchu realizuje się na dwa sposoby. Pierwszy to tzw. rozruch oporowy. W dużym uproszczeniu polega on na połączeniu w szereg z silnikiem rezystora,
który ogranicza prąd rozruchu. Po rozpędzeniu pojazdu do określonej prędkości układy sterowania automatycznie wyłączają rezystor z obwodu silnika. Wada tego systemu są straty na tym oporze (grzeje się odprowadzając pewna cześć energii do atmosfery). Problem dodatkowy stanowi chłodzenie rezystorów. Dlatego w instrukcjach do pojazdów mechanicznych z trakcja elektryczna i rozruchem oporowym nie zaleca się zbyt długiej jazdy na rezystancjach rozruchowych.

Drugi rodzaj ograniczenia prądu rozruchu to tzw. układ tyrystorowy. Polega to na tym, ze tyrystorowy (oparty na półprzewodnikach) włącznik bardzo szybko zamyka i otwiera obwód zasilania silnika, co w efekcie powoduje zmniejszenie prądu rozruchu. Zastosowanie tutaj klasycznego przełącznika mechanicznego jest niemożliwe ze względu na zbyt długi czas reakcji. Obecnie regulatory oporowe
są stosowane już bardzo rzadko.
Poza tym ważna zaleta trakcji elektrycznej jest możliwość hamowania elektrodynamicznego. Polega to na tym, ze po odpowiednim przełączeniu uzwojeń silnika przez układ sterujący może on pracować jako prądnica, odzyskując energie do sieci lub oddając w postaci ciepła przez opory hamowania. Nawet to ostatnie rozwiązanie jest znacznie korzystniejsze niz. hamulce szczękowe, gdyż hamulec elektromagnetyczny jest trwalszy, działa stosunkowo płynnie i nie prowadzi tak łatwo do zablokowania kół napędowych. Wada hamulca elektrodynamicznego jest jego słaba skuteczność przy malej prędkości obrotowej. Wtedy hamulce szczękowe są niezastąpione.

3. Niemal w każdym zakładzie przemysłowym duże zastosowanie mają pompy i wentylatory. Szczególne znaczenie maja pompy, ponieważ woda jest bardzo ważnym czynnikiem w szeregu procesów technologicznych. Do napędu pomp stosuje się prawie wyłącznie silniki prądu przemiennego indukcyjnego zwarte o mocy do 100kW, przy czym do pomp tłokowych – silniki wolnobieżne, do wirowych – szybkobieżne.
Sprężarki, które służą do sprężania powietrza do wyższych ciśnień, działają podłączone do silników indukcyjnych. Do napędu sprężarek o dużych mocach stosuje się silniki synchroniczne.
Obrabiarki – do napędu tego urządzenia stosuje się przeważnie silniki indukcyjne prądu przemiennego.
Podsumowując i nawiązując do początku, gdzie postawiłam tezę o wyższości prądu przemiennego nad stałym: uważam, że nie można jednoznacznie opowiedzieć się po jednej stronie. Oba te prądu są równorzędne. W jednej dziedzinie sprawdza się prąd stały, w drugiej prąd zmienny.

Bibliografia
1.Eugeniusz Nieciejowski „Elektrotechnika” – Państwowe Wydawnictwo Szkolnictwa Zawodowego, 1971 r.
2.Roman Kurdziel „Elektronika dla ZSZ – część I” – WSiP, Warszawa 1977
3.Roman Kurdziel „Podstawy elektrotechniki” – Wydawnictwo Naukowo-Techniczne, Warszawa 1965r.
4.Zbigniew Płochocki „500 zagadek z techniki na co dzień” – Wiedza Powszechna, Warszawa 1976
5.strona internetowa: giw.klucznet.pl
6.strona internetowa o fizjoterapii: ravopt.phg.pl

Referat oceniony na 5/5+

Posted in Uncategorized | Leave a comment