Fizyka medyczna – fizyka w praktyce medycznej

Grzegorz Pawlicki

    Co medycyna zawdzięcza fizyce? – Jeśli nie uwzględniać biologii i chemii, to z pewną dozą przesady można powiedzieć, że wszystko. Takiej samej odpowiedzi można udzielić na pytanie “co fizyka zawdzięcza medycynie”? Zwłaszcza gdy ma się na myśli zdrowie, a często i życie fizyków.
    Jakie są zatem związki fizyki z medycyną? - Niewątpliwie relacje pomiędzy fizyką a medycyną są długotrwałe, liczne i ścisłe. Wiele odkryć fizyki, tych dawnych i całkiem świeżych, umożliwiło zrozumienie wielu problemów medycznych (struktura ciała, fizjologia), a przełożenie ich przez inżynierię biomedyczną na praktyczne zastosowania kliniczne, zaowocowało wieloma bardzo złożonymi i bardzo skutecznymi metodami instrumentalnymi oraz urządzeniami diagnostycznymi, terapeutycznymi i rehabilitacyjnymi. Tym samym fizyka umożliwiła rozwój nowoczesnej medycyny i powstanie techniki medycznej. Dzisiejszy poziom medycyna zawdzięcza nie tylko lekarzom i biologom ale w znacznej mierze także udziałowi fizyków i inżynierów, którzy inspirowali i tworzyli te metody i urządzenia. Sprawiedliwość wymaga jednak, aby powiedzieć że często inspiracje medyczne stanowiły punkt wyjścia dla prac badawczych i konstrukcyjnych fizyków i inżynierów. Te wzajemne inspiracje okazywały się niezwykle cenne społevznie zarówno dla praktyki medycznej jak i nauki.
    Jak ważną rolę w medycynie odgrywa fizyka, może świadczyć także nazwanie podstawowego badania lekarskiego, stanowiącego główny kanon postępowania diagnostycznego, badaniem fizykalnym. Badanie fizykalne polega na ocenie stanu zdrowia pacjenta na podstawie informacji o strukturze i czynności narządów ciała, takich jak: kształt, rozmiary, twardość, ruch (w tym drgania), temperatura, a nawet zabarwienie powłok. Dane te uzyskiwane są bezpośrednio metodami fizycznymi za pomocą badań wykorzystujących zmysły lekarza (wzrok, dotyk, słuch, powonienie) przeprowadzonych na powierzchni ciała pacjenta. Co ciekawe, badanie fizykalne w zasadzie nie wymaga żadnych przyrządów (nie licząc fonendoskopu).
    W Anglii, gdzie po raz pierwszy użyto pojęcia “fizyka medyczna”, słowo “physian” oznaczające lekarza, wskazuje na bliskie związki fizyki z medycyną.
    W przeszłości wielu fizyków uprawiało medycynę i równie wielu medyków zajmowało się fizyką. Także obecnie zdarzają się takie przypadki, chociaż częściej fizycy praktykują medycynę. Termin fizyka medyczna pojawił się na początku XIX wieku. Inicjatorem prawdopodobnie był wykładowca fizyki dla studentów medycyny, Szkot Neil Arnott urodzony w 1788 roku w Forfar. Był on także autorem pierwszego podręcznika fizyki dla medyków. Jego zasługą jest wprowadzenie na Uniwersytecie Londyńskim obowiązku zdawania egzaminów z fizyki i chemii przez adeptów medycyny.
    Pierwsza publikacją książkową na kontynencie europejskim była książka Adolfa Ficka (1829 – 1901), zajmującego się fizjologią, znanego twórcy prawa transportu masy, zatytułowana “Fizyka Medyczna” (Medizinische Physik), wydana w Zurichu w 1856 roku.
    Określenie “Fizyka medyczna” budzi czasami sprzeciw niektórych fizyków, którzy uważają, że fizyka jest jedna i nie wymaga stosowania przymiotnika. Rzeczywiście słowo “medyczna” nie oznacza innej fizyki ale wskazuje jedynie na obszar gdzie występuje i gdzie obowiązują jej prawa. Wskazuje na jej ważną obecność w podstawach medycyny współczesnej. Nie zawsze zdawano sobie sprawę z tego faktu.
    Jest rzeczą niezmiernie interesującą, że od samego początku rozwoju fizyki medycznej, a także inżynierii biomedycznej, gdy dyscypliny naukowe nie były tak zróżnicowane jak obecnie, zagadnieniami biologii, medycyny i fizyki zajmowali się wybitni przedstawiciele wielu ówczesnych dyscyplin, przekraczając bez obawy naruszenia czyichkolwiek kompetencji, niewyraźną granicę pomiędzy biologią i naukami ścisłymi.
    Próby opisu procesów biologicznych i mechanizmów życiowych, były podejmowane między innymi przez Galileusza (student medycyny - pomiary pulsu; pierwszym autorem rozprawy o tętnie był poznański lekarz W. Struś), Kartezjusza (mechaniczne podstawy fizjologii), Boyla (płuca, oddychanie ryb), Roberta Hooka (prawo sprężystości, termin komórka na oznaczenie najmniejszej jednostki życia) i wielu innych. Warto wspomnieć także lekarza, TomaszaYounga (zagadnienia sprężystości, moduł Younga).
    Za ojca fizyki medycznej i inżynierii biomedycznej jako dyscyplin naukowych, niektórzy uważają Hermana von Helmholtza (1821 – 1894), profesora fizjologii, patologii i anatomii na Uniwersytecie w Heidelbergu i profesora fizyki na Uniwersytecie w Berlinie (od 1871 roku). Stanowi on klasyczny przykład integralnego traktowania fizyki i medycyny.
    W moim przekonaniu początkiem nowoczesnej fizyki i inżynierii biomedycznej jako dyscyplin naukowych i specjalności zawodowych było jednak dopiero odkrycie promieniowania X przez Konrada Wilhelma Roentgena w 1895r. oraz pierwiastków promieniotwórczych polonu i radu przez Marię Skłodowską-Curie i Piotra Curie w 1898r. Odkrycia te zastosowane niezwłocznie w praktyce medycznej, dały początek współczesnej diagnostyce radiologicznej, radioterapii i medycynie nuklearnej, mających do dziś największy udział w metodach instrumentalnych diagnostyki i terapii medycznej. Wartość urządzeń medycznych wykorzystujących promieniowanie jonizujące, przekracza 50% wartości wszystkich urządzeń medycznych zainstalowanych w zakładach opieki zdrowotnej.
    Badania radiologiczne należą do najczęściej wykonywanych badań diagnostycznych. Dla 60% przypadków stanowią podstawowe badanie obrazowe; dla dalszych 20% są badaniem zalecanym jako uzupełniające. Tak więc około 80% pacjentów podlega diagnostyce radiologicznej, pomimo dynamicznego rozwoju innych metod diagnostyki obrazowej, wykorzystujących promieniowanie niejonizujące, na przykład ultradźwięki (USG) czy magnetyczny rezonans jądrowy (MRI).
    Biorąc pod uwagę złożoność metod radiologicznych, kosztowność aparatury i potencjalne zagrożenie pacjenta ze strony promieniowania jonizującego, które pociąga za sobą konieczność stosowania zabezpieczeń i pomiarów dawek, stosunkowo wcześnie wprowadzono do zespołów lekarskich osoby z przygotowaniem fizycznym, a wkrótce potem także technicznym. Fizykom i inżynierom medycznym postawiono zadanie obsługi skomplikowanych urządzeń lub nadzoru nad ich użytkowaniem oraz zapewnienie bezpieczeństwa badań. W zakresie zwłaszcza zabiegów radioterapeutycznych jednym z najważnieszych zadań jest planowanie naświetlań zewnętrznych i wewnętrznych.
    Jednym z pierwszych fizyków pracujących w szpitalu wśród lekarzy, był S. Russ zatrudniony w Midlessex Hospital w Londynie w 1910r. W tym samym mniej więcej czasie na oddziale radioterapii Szpitala w Monachium został zatrudniony fizyk F. Voltz. Nieco później, podczas I Wojny Światowej, jako rentgenolog w wojskowych szpitalach polowych pracowała jako wolontariuszka M.Skłodowska – Curie. Były to czasy gdy medycyna wspomagana była nielicznymi i bardzo prostymi narzędziami mieszczącymi się całkowicie w charakterystycznej podręcznej torbie, nie licząc oczywiście wchodzących do użytku prymitywnych zestawów rentgenowskich i elektrokardiografów z galwanometrem strunowym jako detektorem biopotencjałów serca.
    Zainteresowania fizyki medycznej zdominowane początkowo przez zagadnienia związane głównie z aplikacjami promieniowania rentgenowskiego i izotopów promieniotwórczych, z czasem skierowały się w stronę innych zagadnień takich jak: jak czynność bioelektryczna tkanek i narządów, oddziaływanie fal elektromagnetycznych, w tym podczerwieni, ultrafioletu, a także ultradźwięków na organizm żywy. Ważnym polem zainteresowań fizyków medycznych jest diagnostyka laboratoryjna, zwłaszcza oparta na analizie metodami fizycznymi materiału biologicznego pobranego od pacjenta .
    Rozwój technologii przemysłowych i kosmicznych, a zwłaszcza wojskowych stworzył w latach 60 - tych nowe możliwości rozwojowe medycynie. Powstała potrzeba transferu tych technologii do medycyny. Równocześnie w rozwijającej się medycynie pojawiły się bariery do których pokonania potrzebna była technologia. W tej sytuacji narodziła się inżynieria biomedyczna. Wzrastająca oferta przemysłu na dostawę stale ulepszanych urządzeń medycznych zakładom opieki zdrowotnej wymagała zaangażowania inżynierów do zespołow medycznych. Inżynieria biomedyczna objęła część zagadnień wchodzących do tej pory w zakres fizyki medycznej.
    Spektakularne osiągnięcia diagnostyczne i niezwyle sukcesy terapeutyczne współczesnej medycyny są możliwe dzięki bliskiej codziennej współpracy lekarzy z fizykami i inżynierami i ogromnego potencjału środków technicznych. Według tradycyjnego podziału, metody i urządzenia stosowane w medycynie można podzielić na:

    Metody fizyczne i urządzenia stosowane w diagnostyce, służą do wyznaczania wartości wielkości fizycznych, generowanych przez tkanki i narządy charakteryzujących czynne własności organizmu (potencjał czynnościowy, ruch, siła) oraz wielkości fizycznych, chemicznych i biologicznych charakteryzujących bierne właściwości ciała, jego narządów i tkanek (długość, kształt, struktura ciała, struktura tkanek, skład chemiczny, stężenia elektrolitów, itp.)
    O ile wyznaczanie wielkości charakteryzujących czynne własności organizmu oparte jest na pomiarach sygnału generowanego przez organizm (np. elektrografie – ekg, emg, eeg), wyznaczenie biernych właściwości organizmu wymaga zazwyczaj zastosowania środka penetrującego organizm jak promieniowanie jonizujące (X i jądrowe), pole elektromagnetyczne (MRI), ultradźwięki (USG), światło (mikroskop optyczny), prąd elektryczny (badania elektroimpedancyjne), itp.
    Metodami fizycznymi i urządzeniami stosowanymi w terapii, wymusza się, wspomaga lub hamuje niektóre procesy biologiczne albo niszczy się niepożądaną tkankę (zwłaszcza nowotworową), za pomocą zewnętrznego środka fizycznego takiego jak promieniowanie elektromagnetyczne jonizujące (promieniowanie X, cząstki naładowane), niejonizujące (diatermia, światło podczerwone i ultrafioletowe), prąd elektryczny, ciepło , zimno, siła, ruch itp., w celu przywrócenie zdrowia.
    Metody fizyczne i urządzenia rehabilitacyjne, podobnie jak terapeutyczne mają na celu poprawienie stanu pacjenta, a jeśli to możliwe, przywrócenie do formy jaką miał przed zachorowaniem i przed rozpoczęciem leczenia. Rehabilitacja jest zatem rodzajem postępowania leczniczego i wykorzystuje znaczną część metod i urządzeń terapeutycznych.
    Kosztowne, trafiające do medycyny w coraz większej ilości, nowoczesne środki techniczne diagnostyki i terapii, aby mogły być racjonalnie wykorzystane i aby nie zagroziły bezpieczeństwu pacjenta wymagają właściwego i ostrożnego użycia. W tym celu istnieje potrzeba wsparcia personelu medycznego kadrą specjalistów o przygotowaniu fizycznym i inżynieryjnym.
    Warto powiedzieć, że obecnie co roku na świecie oferowany jest sprzęt medyczny o wartości przeszło 10 mld dolarów (1999r.). Tak wielka ilość środków technicznych diagnostyki i terapii wymaga fachowej i odpowiedzialnej osługi, a zwłaszcza systematycznej kontroli sprawności i bezpiecznego użytkowania.
    Mało kto wie, że po raz pierwszy systematyczne kształcenie na poziomie wyższym “fizyków medycznych” i inżynierów medycznych rozpoczęto w Polsce, w Politechnice Warszawskiej, na Wydziale Elektrycznym w 1946r. Twórcą i organizatorem studiów był fizyk, uczeń prof. Pieńkowskiego i M. Skłodowskiej – Curie, prof. Cezary Pawłowski.
    Dzisiaj nie istnieje wyraźna granica pomiędzy fizyką medyczną a inżynierią biomedyczną. Zakres tematyki bedącej domeną każdej z tych dyscyplin zależy od tradycji środowiska i lokalnych potrzeb klinik i innych zakładów ochrony zdrowia .
    Zwyczajowo utarło się, że fizyka medyczna obejmuje zagadnienia związane z badaniami naukowymi dotyczącymi oddziaływania promieniowania jonizującego na organizmy żywe (radiobiologia, radiosterylizacja) i praktyką medyczną, w których wykorzystuje się to promieniowanie w celach diagnostycznych i terapeytycznych oraz z ochroną radiologiczną personelu medycznego i pacjenta. Natomiast urządzenia generujące promieniowanie jonizujące i niejonizujące stosowane w technice obrazowania narządów wewnętrznych (diagnostyka radiologiczna, MRI, USG) czynnych i biernych właściwości elektrycznych tkanek organizmu, oddziaływanie na organizm żywy promieniowania elektromagnetycznego niejonizującego stosowanego w terapii zwłaszcza w fizykoterapii, urządzeń do badań laboratoryjnych i licznych innych urządzeń diagnostycznych i sprzętu medycznego jest domeną inżynierii biomedycznej.
    Osoby o przygotowaniu fizycznym jak i inżynierskim są w równej mierze potrzebne lekarzom w codziennej praktyce medycznej. Stosowanie skomplikowanych urządzeń i metod diagnostycznych i terapeutycznych wymaga wiedzy i umiejętności wykraczających poza programy nauczania lekarzy. Wiedzy którą dysponują fizycy i inżynierowie.
    Współczesna medycyna jest nasycona technologią jak nigdy dotąd. Podstawą wartościowania zakładu opieki zdrowotnej, w odczuciu społecznym, są już nie tylko kwalifikacje personelu lekarskiego i pielęgniarskiego ale przede wszystkim stan technicznego wyposażenia. Trudno sobie wyobrazić aby wspólczesny szpital mógł funkcjonować racjonalnie bez uczestnictwa w procedurach diagnostycznych i terapeutycznych bez udziału fizyków i inżynierów medycznych.
    Obecnie pod względem organizacyjnym zarówno radiologiczne jak i nieradiologiczne metody i urządzenia diagnostyki obrazowej są traktowane łącznie i wchodzą w zakres czynności Zakładów Diagnostyki Obrazowej, zatrudniających obok lekarzy także fizyków i inżynierów.
    Stosowane w medycynie metody i urządzenia wykorzystujące zjawiska fizyczne można podzielić na dwie grupy. Te których celem jest pomiar wielkości generowanych przez organizm człowieka oraz te których celem jest wyznaczenie wielkości charakteryzujących bierne właściwości fizyczne organizmu oraz materiału biologicznego pobranych próbek. O ile wartości poszczególnych wielkości należących do pierwszej
    Rejestracja sygnałów biologicznych generowanych przez organizm człowieka, elektrycznych, mechanicznych i chemicznych w postaci pomiaru odpowiednich wielkości fizycznych - diagnostyka
    Pomiar biernych właściwości ciała człowieka elektrycznych i mechanicznych, spektrometria częstotliwościowa;
    Analiza ilościowa chemiczna często metodami fizycznymi i fizyczna składników ciała człowieka (spektroskopia optyczna, masowa, NMR) – głównie diagnostyka laboratoryjna
    Oddziaływanie czynnikiem fizycznym na organizm żywy (promieniowanie elektromagnetyczne jonizujące i niejonizujące – swiatło widzialne i uv, korpuskularne – hadrony, ciepło, zimno, wibracje) głównie terapia ale także diagnostyka – generacja, rozkłady pola energii, dawkometria, ochrona;

Rola fizyki w konstrukcji urządzeń medycznych

Rola fizyków i inżynierów medycznych w praktyce medycznej jako gwarantów bezpieczeństwa zdrowotnego (biologicznego) i finansowego pacjentów narażonych na skutki niewłaściwie działających urządzeń lub niepotrzebnie stosowanych (doradzanie lekarzowi stosowania właściwych środków technicznych)
 

Rola fizyka i inżyniera biomedycznego w zreformowanym systemie ochrony zdrowia

Na tle sytuacji ekonomicznej i organizacyjnej w ochronie zdrowia

 
    Interes i bezpieczeństwo pacjenta w warunkach zagrożenia ze strony nowoczesnych urządzeń technicznych stosowanych w medycynie
    Kształcenie specjalistów o przygotowaniu technicznym i fizycznym na potrzeby ogólnie pojętej medycyny datują się od czasów wprowadzenia do praktyki lekarskiej promieniowania rtg. Podyktowane było oddaniem do dyspozycji lekarzy skomplikowanych urządzeń, wymagającym częstych regulacji i łatwo ulegających uszkodzeniom. Nie mniej istotnym powodem szukania pomocy technicznej była konieczność urządzania pracowni radiologicznych bezpiecznych dla pacjenta i lekarza zagrożonych napromieniowaniem.
    Warto przypomnieć, że już wcześniej, w połowie XIX wieku, w niektórych szpitalach zatrudniano fizyków medycznych w związku ze stosowanymi metodami i narzędziami fizycznymi w ówczesnej diagnostyce i terapii medycznej.
    Z czasem, kiedy w praktyce znalazło się więcej urządzeń o skomplikowanej budowie (np. diatermia, elektrokardiografia, lampy ultrafioletowe) oraz zagrożenia ze strony promieniowania jonizującego i wysokich napięć, zaczęto wymagać od osób zajmujących się technicznym wyposażeniem medycyny wyższego wykształcenia.
    Pierwszy na świecie zorganizowany system studiów w zakresie techniki medycznej został wprowadzony w Polsce, na Politechnice Warszawskiej na Wydziale Elektrycznym w 1946r. Jako specjalność pod nazwą Elektrotechnika Medyczna. Przez wiele jeszcze lat w Europie i Stanach Zjednoczonych inżynierowie, zazwyczaj elektrycy, uzupełniali wiedzę w zakresie techniki medycznej na różnego rodzaju kursach.
    Pierwsi absolwenci byli rozchwytywani przez co światlejszych kierowników Zakładów Ochrony Zdrowia. Z czasem system ochrony zdrowia stawał się coraz bardziej hermetyczny i autarkiczny. Lekarze uznali że są wystarczająco dobrze przygotowani do obsługi i posługiwania się skomplikowanymi urządzeniami techniki medycznej. Inżynier stał się zbędny, zwłaszcza, że brakowało środków na eksploatację urządzeń i płace personelu. Tak więc inwestycje aparaturowe niewłaściwie pod względem technicznym i nieracjonalnie pod względem ekonomicznym eksploatowane stawały się nieefektywne. Zdarzało się, że zakupów aparaturowych dokonywano nie ze względu na potrzeby lecz z powodów prestiżowych. Nie liczyły się koszty ale względy propagandowe.
    Nieustające próby ustawowego ustalenia pozycji inżyniera biomedycznego (a także fizyka medycznego) i obowiązku zatrudniania go w określonych zespołach lekarskich, nie przyniosły pożądanego rezultatu. Warunkach tzw. Gospodarki planowej nie przewidziano takiego zawodu, więc sprawa nie istniała.
    Dzisiaj kiedy zmieniły się reguły ekonomiczne, kiedy gospodarka została zracjonalizowana i zaczęto liczyć koszty, aby móc optymalizować wydatki, jest pora aby temat podnieść i wykorzystać szansę skutecznej poprawy stanu ochrony zdrowia w państwie, choćby przez optymalizację wyposażenia technicznego i minimalizację kosztów generowanych przez stosowanie urządzeń techniki medycznej. Pora na podjęcie sprawy jest stosowna zwłaszcza wobec wprowadzonej reformy i nabrzmiałych trudności w systemie ochrony zdrowia.
    Potrzebna ale nie dość dobrze przygotowana reforma systemu ochrony zdrowia miała na celu ograniczenie nieuzasadnionego względami merytorycznymi wypływu pieniędzy z państwowej kasy z jednej strony i poprawę świadczeń zdrowotnych z drugiej. W dotychczasowym systemie koszty ochrony zdrowia rosły a odczucia obywateli były coraz gorsze.
    Wprawdzie ochrona zdrowia jest taką dziedziną życia społecznego, a zwłaszcza osobniczego, gdzie żadne nawet największe środki nie są wystarczające kiedy chodzi o ratowanie zdrowia i życia. Doskonałą ilustracją tego jest sytuacja w Stanach Zjednoczonych gdzie udział wydatków budżetowych na ochronę zdrowia rósł liniowo od 5% PNB w 1960r. Do około 14% w 1995 a obecnie nawet 16%. Ten spektakularny wzrost nie zapobiegł jednak poważnym napięciom społecznym. Ochrona zdrowia stała się sztandarowym problemem w kampanii wyborczej prezydenta B.Clintona!
    W każdej gospodarce, nawet najbogatszych krajów jest nieprzekraczalna granica finansowania obszar zdrowia, której nie można przekroczyć.
    Aby wyjść naprzeciw oczekiwaniom społecznym i poprawiać standard świadczeń medycznych pozostaje jeden sposób. Trzeba optymalizować wydatki i obniżać koszty.

Główne żródła kosztów w ochronie zdrowia

    Często słyszy się opinie, czasem zresztą znajdujące potwierdzenie w praktyce, że źródłem rosnących kosztów ochrony zdrowia jest technologia medyczna. Z drugiej strony byłoby to dziwne i zaskakujące, ponieważ zwykło się zawsze uważać, że w gospodarce technologia była w przeszłości głównym czynnikiem rozwoju przemysłowego, co w rezultacie prowadziło do podnoszenia standardu życia społeczeństwa, a tym samym do dobrobytu.
    Paradoksalnie, rozwój technologii medycznej której w znacznej mierze zawdzięczamy poprawę stanu zdrowotności społeczeństwa, zmniejszenie śmiertelności noworodków, likwidację wielu chorób dziesiątkujących dawniej populację, i w rezultacie wydłużenie średniego czasu życia człowieka, okazał się wysoce kosztotwórczy i ekonomicznie nieuzasadniony. Być może korzyści wynikające z rozwoju technologii medycznej nie są wystarczająco dobrze wymierne i nie nadają się do ścisłych analiz bilansowych albo koszty rozwoju gospodarczego nie uwzględniają wszystkich czynników, na przykład zagrożeń środowiska życia człowieka, powodując skutki w obszarze ochrony zdrowia. Technologia medyczna jednak nie jest jedynym źródłem rosnących kosztów w ochronie zdrowia, jest jednym ze źródeł. A oto inne:     Jeśli przekonanie o tym, że głównym źródłem rosnących kosztów ochrony zdrowia jest technologia medyczna, to jej rozwój wobec ograniczonych środków musiałby zahamować rozwój opieki zdrowotnej. Nasuwa się nieodparcie nonsensowny wniosek, aby ograniczyć rozwój technologii medycznej w celu umożliwienia rozwoju ochrony zdrowia .
    Jeśli technologia medyczna generuje koszty, to musi także być w stanie je zmniejszać.

Przyczyny nieuzasadnionych kosztów stosowania techniki w ochronie zdrowia

Jest jednakże faktem niezaprzeczalnym że wydatki na ochronę zdrowia rosną. Przyczyn tego stanu rzeczy może być kilka:      Powodem nadmiernych wydatków w ochronie zdrowia, związanych ze stosowaniem technologii medycznej może być także :     Niektóre nowe technologie wdrażane są do powszechnej praktyki medycznej za wcześnie, zanim zostaną kompetentnie ocenione. Wcześniej niż mogą być w pełni wykorzystane w miejscu zainstalowania. Kiedy nie ma jeszcze pewności, że jest ona lepsza od dotychczas stosowanej. Zanim zostanie przeszkolony lekarz z niej korzystający i personel ją obsługujący.
    Dane techniczno – kliniczne, które gwarantowałyby, że nowe urządzenie umożliwia otrzymanie wyników dotąd nie uzyskiwanych początkowo nie są ogólnie dostępne. Nowinki w techniczne są pociągające więc nie jeden lekarz chciałby osobiście sprawdzić jej przydatność. Może się jednak okazać, że zakup był pomyłką, czasem kosztowną.
    Sposoby przeciwdziałania wysokim często nieuzasadnionym kosztom wynikającym ze stosowania technologii medycznych.
    Odpowiedzialności za wysokie koszty stosowania technologii medycznej należy upatrywać głównie w niewłaściwej polityce Państwa, w sferze nastawionego na wysoki zysk Przemysłu i Biznesu oraz w obszarze Medycyny i jej niedoskonałej strukturze kadrowej i organizacyjnej. Nowe technologie medyczne pociągają za sobą konieczność zmian systemowych w zakresie ochrony zdrowia. Pozostawienie niezmienionych struktur organizacyjnych i sposobu zarządzania okazuje się często bardziej kosztowne niż nowe wyposażenie. Zahamowanie wzrostu tych kosztów, a nawet ich zmniejszenie może być osiągniete poprzez stosowne działania we wszystkich trzech obszarach.
    W zakresie kompetencji Państwa niezwykle ważną rolę do odegrania mają:
    Polityka podatkowa mająca na celu promocję produkcji specjalistycznych urządzeń, zwłaszcza zaawansowanych technicznie, stosowanych w diagnostyce i terapii medycznej;
    Prawodawstwo regulujące sprawy atestacji i kontroli jakości aparatury medycznej, warunków jej stosowania i wymogów kadrowych oraz minimów kwalifikacyjnych kwalifikacyjnych dla osób zatrudnianych na poszczególnych stanowiskach w jednostkach ochrony zdrowia;
    Edukacja w zakresie środków techniki medycznej zarówno lekarzy jak i inżynierów i fizyków, na poziomie kształcenia podstawowego wyższego i podyplomowego.
    Ze strony przemysłu sprawą kluczową jest obniżenie kosztów produkcji, zaś ze strony organizacji handlowych minimalizacja zysku. Działalność przemysłu powinna koncentrować się zwłaszcza na:     Ze strony medycyny do najważniejszych działań zaliczyć należy: wprowadzanie efektywnych sprawdzonych procedur diagnostycznych i terapeutycznych, poprawa organizacji wewnętrznej i zarządzania oraz lepsze wykorzystanie środków techniki medycznej poprzez:     Rola inżyniera biomedycznego i fizyka medycznego wiąże się przede wszystkim ze stosowaniem aparatury i urządzeń medycznych, lecz nie ogranicza się wyłącznie do nich. Ścisły umysł, ekonomiczne myślenie i umiejętnośc optymalizowania pod względem kosztów rozwiązań techniczno – organizacyjnych, a zwłaszcza znajomość srodków technicznych medycyny sprawiają, że są oni niezbędni przy zakupach wyposażenia konkretnych pracowni. Są idealnym partnerem w codziennej pracy lekarza przy opracowywaniu wyników badań i organizacji pracy jednostki ochrony zdrowia .
    Koszty są pochodną uprawiania medycyny, ale tworzą zarazem barierę ograniczającą jej rozwój, a zwłaszcza dalsze szerokie upowszechnienie. Barierę którą można pokonać przez zwiększenie wydatków na powszechną ochronę zdrowia lub ominąć przez oszczędne gospodarowanie tym czym się dysponuje. Skoro jednak nie można liczyć na radykalne zwiększenie nakładów, trzeba pójść drogą racjonalizacji wydatków. Ta droga wszakże wymaga ściślejszego współdziałania środowiska lekarzy z inżynierami i fizykami medycznymi, poprzez zadekretowanie odpowiednich stanowisk pracy tych ostatnich. Dyscyplina finansowa mająca na celu racjonalne wykorzystanie środków technicznych i w dużym stopniu także organizacyjnych, wymaga aby w zespołach medycznychnie tylko prowadzących badania naukowe ale także uprawiających praktykę medyczną znajdował się obowiązkowo inżynier lub fizyk medyczny.
    Rola fizyka i inżyniera biomedycznego w zreformowanym systemie ochrony zdrowia polega bowiem na tym, aby doradzić lekarzom w jaki najlepszy sposób wykorzystać dostępne środki na zaspokojenie w maksymalnym stopniu potrzeby zdrowotne społeczeństwa i zarazem zapewnić niezawodne, zgodne z danymi technicznymi działanie aparatury i urządzeń medycznych. 

Obrazowanie za pomocą promieniowania X

Radiografia cyfrowa

    Klasyczny obraz radiograficzny ma charakter analogowy i uzyskiwany jest zazwyczaj na kliszy rentgenowskiej. W tej postaci może być oglądany i analizowany bezpośrednio za pomocą negatoskopu lub po zamianie (przez skanowanie laserowe) na obraz cyfrowy, za pomocą monitora. Obraz w postaci cyfrowej jakkolwiek zubożony o część informacji ma tę zaletę, że może być przetwarzany, jak to ma miejsce w opisanych dalej nowoczesnych metodach wizualizacji oraz łatwo archiwizowany.
    Nowoczesne urządzenia rentgenowskie wyposażone w tak zwany tor wizyjny składający się ze wzmacniacza obrazu, kamery wideo, łączącego je układu optycznego oraz komputera, umożliwiają uzyskiwanie obrazu cyfrowego bezpośrednio w czasie rzeczywistym. Dzięki temu jest możliwa wizualizacja nie tylko struktury ale także czynności narządów, a w szczególności układu krążenia. Procedura otrzymywania i przetwarzania radiologicznych obrazów cyfrowych nazywa się radiografią cyfrową. Jednym z ważnych zastosowań radiografii cyfrowej jest angiografia subtrakcyjna. Polega ona na wyeksponowaniu z obrazu radiologicznego (cyfrowego) naczyń krwionośnych przez odjęcie (cyfrowe) tkanek stanowiących maskujące tło. W celu poprawienia widoczności naczyń dodatkowo są one wypełniane środkiem cieniującym. Można także uzyskać obrazy subrakcyjne innych narządów na przykład płuc a właściwie dróg oddechowych.

Tomografia wspomagana komputerem

    Używane potocznie określenie tomografia komputerowa, a poprawnie jak powinno być tomografia wspomagana komputerem, jest to sposób obrazowania kolejnych przekrojów (zwykle) poprzecznych względem osi ciała pacjenta. Cechuje ją dokładność i drobiazgowość w przedstawianiu szczegółów struktury ciała przewyższająca zwykłą radiografię, przy mniejszym obciążeniu pacjenta dawką promieniowania.
    Obraz dwuwymiarowy (2-D) uzyskiwany tą metodą, przedstawia w płaszczyźnie przekroju rozmieszczenie narządów i ich budowę anatomiczną. Na podstawie szeregu przekrojów poprzecznych można odtworzyć obraz trójwymiarowy (3-D).
    Najbardziej rozpowszechnioną tomografia jest tomografia komputerowa wykorzystująca promieniowanie X, zwana w skrócie tomografią komputerową (TK).   TK jest tomografią transmisyjną, co oznacza że promieniowanie rtg przechodzi przez ciało, które je osłabia. Ponieważ poszczególne składniki ciała (tkanki) osłabiają promieniowanie w różnym stopniu, zależnym od gęstości elektronów w badanej strukturze, całkowite osłabienie skolimowanej wiązki promieniowania penetrującego ciało w określonym kierunku, składa się z sumy osłabień przez nie powodowanych. Przedmiotem pomiaru jest wartość sumarycznego osłabienia promieniowania.
    Jako źródła promieniowania w zwykłej, konencjonalnej TK, jako źródła promieniowania używa się lampy rtg, która wraz z sprzężonymi z nią detektorami, przemieszcza się po torze kołowym wokół osi pacjenta w pełnym kącie 360° stopni, dokonując ekspozycji co 0,5 d0 1,0 stopnia. Dla poszczególnych kierunków leżących w płaszczyźnie otrzymuje się różne wartości osłabienia promieniowania. Dzieje się tak dlatego, że wraz ze zmianą kierunku zmienia się układ składników ciała.
Na podstawie tych danych oraz uwzględnieniu grubości warstwy dokonuje się obliczenia wartości (objętościowych) współczynników osłabienia promieniowania przez elementarne objętości (voxel) poszczególnych tkanek. Przyporządkowując współczynnikom osłabienia określone wartości jasności otrzymuje się na ekranie monitora obraz przekroju ciała. Po przesunięciu pacjenta, względem obrotowego zespołu lampa – detektory, wzdłuż osi ciała, otrzymuje się obraz kolejnego przekroju.
    Równomierne ciągłe przesuwanie pacjenta względem obracającego się zespołu lampa – detektory, umożliwia zbieranie informacji o osłabieniu promieniowania w sposób ciągły. Dzięki temu nie są pomijane obszary na granicy warstw. Ten rodzaj badania nazywa się tomografią spiralną.
    Płaska wiązka promieniowania X generownego przez skrajnie małe ognisko lampy (“punktowe”), umożliwia uzyskiwanie plasterków przekroju o grubości od 1 do 10 mm i zdolności rozdzielczej obrazu przekroju od 0 ,1 do 1,0 mm kw. Przy tej zdolności rozdzielczej jest możliwe uzyskanie około 100 przekrojów ciała. (Biorąc pod uwagę, że źródłem danych do rekonstrukcji obrazu są zdolność roździelcza w płaszczyźnie przekroju i objętość określona grubością warstwy, rekonstrukcja dokonywana jest zazwyczaj za pomocą matrycy o wymiarach od 512x512x1 do 512x512x100).
    Zdolność rozdzielcza kontrastu jest równa 0,5% pełnego zakresu różnicy wartości jasności sygnału. Rozdzielczość czasowa wynosi w przybliżeniu 2 sekundy co odpowiada czasowi pełnego obrotu układu lampa – detektory wokół pacjenta (360° ). Zazwyczaj dane cyfrowe obrazu są przedstawiane w skali Hounsfielda (HU), w zakresie od -1000 do +1000 (lub 0 - 2048 w 16 bitowej wartości komputerowej).

Szybka tomografia komputerowa EBT

    Podana wyżej wartość rozdzielczości czasowej konwencjonalnej TK, jest niewystarczająca do wizualizacji czynności narządów, a w szczególności serca. Zbyt duża jej wartość wynika z niedoskonałości rozwiązania ruchu źródła promieniowania na drodze mechanicznej. Wady tej nie ma tomograf wiązki elektronowej (Electron Beam Tomography), w którym układ źródło - detektory pozostaje mechanicznie nieruchomy. Dzięki specjalnej konstrukcji lampy rentgenowskiej porusza się jedynie wiązka elektronów, która generuje kolejno promieniowanie w licznych przylegających do siebie ogniskach anody (lampy) w postaci półokręgu. W ten sposób wiązka promieniowania szybko przesuwając się po licznych ogniskach zmienia kierunek, co warunkuje otrzymanie obrazu tomograficznego zmieniającej się konfiguracji obiektu (np. serca). Dzięki temu obraz można uzyskać już po upływie około 50 ms, co oznacza bardzo dużą rozdielczość czasową. Urządzenie musi mieć jednak odpowiednio dużą liczbę detektorów umieszczonych na listwie w postaci półokręgu. Zdolność rozdzielcza obrazu przekroju tego tomografu jest nieco mniejsza w porównaniu z TK i wynosi około 0,5 mm2, przy grubości warstwy 10 mm, co stanowi kompromis w stosunku do możliwości rekonstrukcji 3 wymiarowej. Nieco gorszy jest także kontrast.

Obrazowanie za pomocą promieniowania jądrowego

    Właściwość tkanek do selektywnego gromadzenia niektórych substancji podanych pacjentowi dożylnie, lub drogą oddechową (przez inhalacje), stanowi punkt wyjścia dla wizualizacji narządów, a szczególnie ich czynności metabolicznej metodami medycyny nuklearnej. Substancje te zwane radiofarmaceutykami, znakowane izotopami promieniotwóczymi, po podaniu są następnie odnajdywane w organizmie za pomocą detektorów promieniowania, w postaci rozkładu aktywności. Uzyskany obraz dostarcza informacji o strukturze narządu lub jego czynności, a często obu informacji równocześnie.
    Podstawą rozwoju metod obrazowania za pomocą rodioizotopów była metoda skaningu, polegająca na przesuwaniu, nad okolicą narządu wzdłuż kolejnych linii, pojedyńczego detektora połączonego z urządzeniem piszącym kreski, który wybiórczo kumulował substancję znakowaną izotopem promieniotwórczym. Kreski rejestrowane na papierze układały się w postaci kształtu narządu. Udoskonalenie tej metody polegało na zastąpieniu pojedyńczego detektora gammakamerą, spełniającą rolę wielu detektorów ułożonych w postaci matrycy.
    Obecnie w praktyce są stosowane dwie nowoczesne metody tomograficzne oparte na tej samej zasadzie: metoda tomografii emisyjnej pojedyńczego fotonu (SPECT – Single Photon Emission Computed Tomography) i metoda tomografii emisyjnej pozytonowej (PET – Positon Emission Tomography).

Tomografia emisyjna pojedyńczego fotonu SPECT

    W tomografii pojedyńczego fotonu wykorzystywane są radiofarmaceutyki emitujące fotony gamma, a jako detektorów używa się gamma kamer, zazwyczaj kilku rozmieszczonych symetrycznie wokół pacjenta, dzięki czemu można równocześnie rejestrować fotony emitowane w kilku różnych kierunkach. Ten sposób akwizycji danych umożliwia uzyskanie obrazu o lepszej rozdzielczości przestrzennej i w krótszym czasie. Jednakże większość tomografów SPECT zawiera tylko jedną gamma kamerę, która podobnie jak detektory w tomografie komputerowym porusza się po okręgu wokół pacjenta. W ten sposób zbiera kolejno fotony emitowane w różnych kierunkach i na tej podstawie identyfikuje się miejsce skąd zostały wemitowane. Tym samym określa się strukture lub czynność narządu w którym radiofarmaceutyk się usadowił (przejściowo).
    Proces rekonstrukcji obrazu na podstawie tych informacji jest podobny jak w innych rodzajach tomografów poprzecznych (obrazujących poprzeczne przekroje ciała). Podobnym także celem tomografii SPECT jest eliminacja nakładających się na siebie informacji strukturalnych w celu uzyskania wartościowych, w miarę możliwości ilościowych danych zawartych w obrazie przekroju ciała. Tomografia SPECT jest niezwykle czuła i dokładna, obrazy rzeczywiście takich danych dostarczają i to na podstawie bardzo małej ilości podanego radiofarmaceutyku. Można tą metodą uzyskać informacje o czynności metabolicznej narządów lub hemodynamice układu krążenia, którą jest trudno lub wręcz nie można uzyskać w inny sposób.
    Podstawową zaletą tomografii SPECT są potencjalne możliwości uzyskania ilościowych danych o przestrzennym rozkładzie radiofarmaceutyka, dzięki czemu można otrzymać wierny obraz trójwymiarowy (3D). Wadą są trudności związane z realizacją precyzyjnego ruchu okrężnego gamma kamery. Niedokładności trajektorii tego ruchu generują, podobnie jak w zwykłej tomografii komputerowej, błędy w obrazie.
    Warto zaznaczyć, że badania nad zastosowaniem emiterów pojedyńczych fotonów poprzedzały pracę Hounsfielda nad tomografią wykorzystującą promieniowanie X. Wcześniej też uzyskano pierwsze tomogramy (obrazy tomograficzne) głowy wykonane metodą SPECT. Dzisiaj jednak w praktyce klinicznej góruje tomografia komputerowa za pomocą promieniowania X i jeszcze młodsza metoda Rezonansu magnetycznego.

Tomografia emisyjna pozytonowa PET

    Tomografia emisyjna pozytonowa jest metodą otrzymywania obrazu przekroju poprzecznego ciała na podstawie wyznaczenie rozkładu radiofarmaceutyku znakowanego izotopem promieniotwóczym podanego wcześniej pacjentowi i selektywnie osadzonym w narządach i tkankach, podobnie jak w metodzie SPECT, lecz emitującym emitującym pozytony zamiast fotonów. Nośnikiem informacji o strukturze narządu nie są jednak pozytony, których czas życia jest bardzo krótki i zasięg niewielki, lecz fotony emitowane w rezultacie anihilacji pozytonu przez połączenie z elektronem otaczającej go materii.
    Niewątpliwą zaletą jest to, że radionuklidy emitujące pozytony należą do pierwiastków szczególnie ważnych w procesach metabolicznych organizmu to jest węgiel C-11 (czas połowicznego zaniku 20 min), tlen O-15 (czas zaniku 2 min.), azot N-10 (czas zaniku 10 min.), fluor F-18 (czas zaniku 110 min.). Znakowane promieniotwórczym węglem lub tlenem substraty metaboliczne, na przykład glukoza, są doskonałymi wskaźnikami intensywności przemian zachodzących w narządach. Rewelacyjne wyniki tą metodą otrzymuje się zwłaszcza przy badaniu mózgu. Można za jej pomocą identyfikować mózgowe ośrodki poszczególnych czynności na przykład funkcji intelektualnych. Można się przekonać czy człowiek myśli! Szkoda jednak, że nie można się dowiedzieć o czym!
    Praktyczne wykorzystanie tej metody ogranicza wiele czynników. Przede wszystkim wysokie koszty aparatury i jej eksploatacji. Chodzi tu o trudne do spełnienia wymagania aparaturowe. Zwłaszcza wiążące się z koniecznością instalowania generatora (cyklotronu) izotopów emitujących pozytony, zazwyczaj krótko żyjące, bezpośrednio w miejscu przeprowadzanych badań. Kłopoty wiążą się także z systemem detekcji fotonów o znacznej energii (511keV), wymagających specjalnych detektorów.

Obrazowanie za pomocą pola magnetycznego

    Obrazowanie metodą rezonansu magnetycznego polega na wykorzystaniu magnetycznych właściwości jąder atomowych w szczególności atomów wodoru czyli protonów. Właściwości magnetyczne protonów są następstwem spinu i związanego z nim momentu magnetycznego. Wodór występujący w rożnych związkach ma największy udział wśród pierwiastków tworzących składniki ciała ludzkiego i zarazem relatywnie duży moment magnetyczny. Dzięki temu jest najsilniejszym źródłem sygnału spośród wszystkich jąder. Z tych względów jest niezwykle atrakcyjny dla obrazowania struktury i czynności narzadów.
    W warunkach naturalnych rozkład momentów magnetycznych jąder wodoru (w ciele człowieka) jest bezładny. Ustawiczny ruch termiczny (Browna) powoduje, że ich orientacja przestrzenna zmienia się ustawicznie. Wprowadzenie zewnętrznego stałego pola magnetycznego powoduje uporządkowanie momentów magnetycznych jąder zgodnie (większość) z kierunkiem pola lub przeciwnie. Źródłem sygnału diagnostycznie użytecznego są jądra stanowiące różnicę pomiędzy liczbą jąder skierowanych zgodnie z kierunkiem pola i liczbą jąder skierowanych przeciwnie (nadwyżka liczby jąder skierowanych zgodnie z kierunkiem pola). Istotną rzeczą jest to, że uporządkowanie nie jest perfekcyjne, to znaczy że momenty magnetyczne nie układają się dokładnie w kierunku pola, lecz wykonują wokół tego kierunku ruchy precesyjne (Larmora) ze ściśle określoną częstotliwością. Częstotliwość ta jest proporcjonalna do natężenia pola magnetycznego. Dla pola o natężeniu H = 1 T (tesla) częstotliwość Larmora wynosi 42,58 MHz, a dla pola H= 0,5 T jest o płowę mniejsza. Sa to częstotliwości leżące w pasmie radiowym.
    Aby uzyskać użyteczny diagnostycznie sygnał należy zmienić kierunek momentów magnetycznych uprządkowanych wzdłuż stałego pola na prostopadły do jego kierunku lub przeciwny. Dokonuje się tego impulsowo, za pomocą energii dodatkowego pola magnetycznego wytworzonego przez cewkę umieszczoną (na zewnątrz) w płaszczyźnie równoległej do kierunku pola stałego. Cewka ta generuje krótki impuls o częstotliwości rezonansowej równej częstotliwości Larmora. Stąd nazwa metody obrazowanie za pomocą rezonansu magnetycznego. Następuje odchylenie momentów magnetycznych jąder wodoru o 90° lub 180° . W tym stanie jądra pozostają prze czas trwania impulsu odchylajacego, a następnie wracają do położenia wymuszanego przez pole stałe. Wracając oddają energię dostarczoną przez cewke odchylająca wysyłając sygnał radiowy o takiej samej częstotliwości. Po wysłaniu impulsu odchylającego cewka staje się anteną i odbiera sygnał generowany przez jądra powracajace do stanu wyjściowego. Przedmiotem pomiaru jest rezonansowa częstotliwość Larmora oraz czasy relaksacji sygnałów, T1 pochodzacego od jąder odchylonych będący następstwem narastania składowej momentu magnetycznego w kierunku pola (relaksacja podłużna) i T2 (relaksacja poprzeczna) będący następstwem zanikania składowej momentu magnetycznego w kierunku poprzecznym czyli w kierunku odchylenia. Czasy relaksacji poprzecznej T2 i relaksacji wzdłużnej T1 różnią się między sobą. T2 jest krótszy co jest powodowane między innymi utratą zgodności fazowej ruchu precesyjnego protonów na skutek oddziaływań pomiędzy spinami cząsteczek, zwłacza o znacznym stopniu swobody czasteczek wody.
    Wartości częstotliwości Larmora i czasów relaksacji zależą od gęstości protonów i rodzaju tkanki i tym samym stanowią podstawę do rekonstrukcji obrazu przekroju ciała. W szczególności czynnikiem różnicującym tkanki oraz zachodzące w nich zmiany chorobowe są czasy relaksacji T1 i T2. Ponieważ na wartości czasów relaksacji mają wpływ warunki pomiaru (na przykład stopień jednorodności pola magnetycznego), nie są one wyznaczane wprost lecz za pośrednio metodami: nasycenia i odrostu, odwrócenia i odrostu (T1) oraz echa spinowego (T2).
    Czynnikiem wyznaczającym (ograniczającym) obszar z którego zbierana jest informacja jest kształt rozkładu pola magnetycznego, a w szczególności gradientów pola; gradientu wzdłuż osi pacjenta w celu (wyodrębnienia) określenia położenia warstwy i gradientu pola poprzecznego (wytworzonego przez oddzielną cewkę zewnętrzną) w celu identyfikacji poszczególnych obiektów w warstwie.

Obrazowanie za pomocą pola biomagnetycznego

    Źródłem informacji w tej metodzie jest pole magnetyczne towrzyszące czynności elektrycznej organizmu, na przykład serca (ekg), mózgu (eeg) itp. Pole to jest bardzo słabe w porównaniu z polem magnetycznym Ziemi (maksymalnie 10-2 T) i wynosi w przybliżeniu dla serca 10-10 T, a dla potencjałów wywołanych mózgu 10-13 T.
    Jest to stosunkowo nowa metoda obrazowania czynności elektrycznej narządów a zwłaszcza mózgu i może być komplementarną metodą do metody PET. Pomiary tego pola są bardzo trudne i wymagają specjalnych warunków. Izolowanych, od innych zewnętrznych pól zakłócających, pomieszczeń i niezwykle czułych detektorów pola magnetycznego, wykorzystujących elementy nadprzewodzące (SQUID).
    Metoda ta zwana magnetografią, umożliwia obrazowanie czynności mózgu lub innych narządów, z     dokładnością lokalizacji zmian (na przykład ogniska epilepsji) z dokładnością do kilku milimetrów. Ta stosunkowo mała dokładnośc lokalizacji wymaga skorelowania wyników z wynikami badań innymi metodami.

Obrazowanie nie elektromagnetyczne

Ultrasonografia

    W ultrasonograficznym (a właściwie należałoby powiedzieć ultrasonicznym, zastrzegając przyrostek “graficzny” dla obrazów zarejestrowanych na papierze) sposobie obrazowania wykorzystywane są ultradźwięki. Informacje o strukturze i czynności ruchowej narządów uzyskuje się na podstawie odbicia wiązki fal ultradźwiękowych (efekt echa) od różniących się własnościami fizycznymi struktur tkankowych lub zmiany ich częstotliwości (efekt Dopplera) od ruchomych części narządów w penetrowanym obiekcie. Istnieją także metody transmisyjne, lecz nie mają one większego znaczenia w diagnostyce medycznej. Warto przypomnieć, że powstanie i rozwój ultrasonografii medycznej był stymulowany osiągnięciami wojskowymi, w tym wypadku w dziedzinie radarów i sonarów.
    Częstotliwości stosowane w obrazowaniu medycznym mieszczą się w zakresie od 0,5 (w badaniach leżących głęboko narządów jamy brzusznej) do 15 MHz (w okulistyce i badaniach zmian tuż pod skórą np. guzów sutka ). Trwają jednak obiecujące badania dotyczące możliwości wykorzystania także wyższych częstotliwości aż do 70 MHz, które mogą znaleźć zastosowanie do wizualizacji mikroobiektów, na przykład struktury powierzchniowej tkanek. Główną trudnośc techniczną stanowi konstrukcja przetwornika drgań elektrycznych na mechaniczne i odwrotnie. Należy bowiem wiedzieć, że przetwornik ultradźwiękowy spełnia zarazem dwie role: nadajnika i odbiornika sygnału. Przetwornik ultradźwiękowy dla częstotliwości niższych, zrobiony z ceramiki jest dość masywny. Przetwornik generujący wyższe częstotliwości musi mieć bardzo małą masę.
    Ultrasonografia jest jedynym sposobem wizualizacji, który nie jest oparty na elektromagnetycznym     oddziaływaniu czynnika penetrującego z ciałem człowieka.
    Podstawą obrazowania ultradźwiękowego są informacje, o gęstości, sprężystości tkanek i ruchomości narządów (lub przepływu krwi), na podstawie pomiaru sposobu w jaki wiązka fal penetrująca ciało zostanie odbita lub zmieniona jej częstotliwość. Informacje te są przetwarzane na użyteczny diagnostycznie obraz prezentowany na ekranie monitora.
    Obrazowanie ultradźwiękowe ma charakter tomograficzny (w szczególności typ prezentacji B). Uzyskiwane obrazy przedstawiają przekrój ciała lub narządu w płaszczyźnie przemieszczania wąskiej (do granicy możliwości) wiązki fal penetrującej obiekt. Na podstawie danych zawartych w obrazach dwuwymiarowych, podobnie jak w innych sposobach obrazowania, można zrekonstruować obraz trójwymiarowy. Obrazy uzyskiwane są w czasie rzeczywistym czyli natychmiast w trakcie badania.

Metody echa

    W przeważającej większości urządzeń ultrasonograficznych stosowanych w diagnostyce medycznej wykorzystywane jest efekt echa. Przetwornik piezoelektryczny emituje krótkotrwały silnie tłumiony impuls drgań (o natężeniu akustycznym od 1 do 10mW/cm2), który penetruje wnętrza ciała. Przechodząca przez ciało wiązka ultradźwięków ulega osłabieniu na skutek rozproszenia, odbicia i pochłonięcia przez tkanki leżące na jej drodze. Fale odbite od poszczególnych granic strukrutr tkankowych wracają do przetwornika piezoelektrycznego, który po wysłaniu impulsu przyjmuje rolę detektora. Skuteczność odbijania fal akustycznych przez płaszczyzny odgraniczające sąsiednie struktury tkankowe zależy od zmiany impedancji akustycznej występującej na danej granicy. Wartość impedancji akustycznej Z tkanki jest iloczynem gęstości tkanki r i prędkości c rozchodzenia się dźwięku w danej tkance.
    Różnice impedancji pomiędzy poszczególnymi tkankami miękkimi są bardzo małe. Podobnie bardzo mała (kilka promili) jest wartość współczynnika odbicia fali, będącego funkcją różnicy impedancji akustycznej tkanek przed i za odbijającą granicą. Szczególna sytuacja ma miejsce na granicy tkanka – powietrze gdzie odbicie jest prawie całkowite, oraz na granicy tkanka miękka – kość gdzie odbicie wynosi około 50%. Wynikają stąd praktyczne wnioski: aby poprawić transmisję fali ultradźwiękowej pomiędzy skórą badanego pacjenta a przetwornikiem należy umieścić żel eliminujący warstewkę powietrza oraz unikać maskujących własności kości podczas badania tkanek miękkich przez wyszukiwanie okienek pomiędzy kośćmi szkieletu w celu wprowadzenia wiązki ultradźwiękowej do wnętrza ciała, na przykład między żebrami podczas badania struktury serca. Widać z tego, że kość czaszki stanowi istotną barierę dla ultradźwięków wskutek czego szczegółowe badanie struktury mózgu metodą ultradźwiękową jest w bardzo dużym stopniu utrudnione. W praktyce metoda ultrasonograficzna nie jest wykorzystywana do badań struktury mózgu.
    Przechodząca przez obiekt wiązka fal akustycznych generuje znaczną liczbę ech, które są odbierane w sekwencji czasowej proporcjonalnej do odległości miejsca odbicia od przetwornika. Poszczególne echa w postaci pikseli są wyświetlane na monitorze tworząc obraz w postaci linii.
 
Wyróżnia się trzy sposoby prezentacji obrazu ultradźwiękowego uzyskiwanego metodą echa: A, B i M.
 

Metody doplerowskie

    Źródłem informacji niezbędnych do utworzenia obrazu dopplerowskiego jest zmiana częstotliwości wiązki fal akustycznych odbitych od ruchomego obiektu. W szczególności dotyczy to obiektów (w tym także krwi), które mają składową ruchu w kierunku propagacji wiązki. Zgodnie z zasadą Dopplera (matematyczny związek pomiędzy zmianą długości fali odbitej a częstotliwością fali padającej i kątam zawartym pomiędzy kierunkiem propoagacji fali i kierunkiem ruchu obiektu odbijającego) jeśli obiekt zbliża się do przetwornika, to częstotliwość fali odbitej zwiększa się i odwrotnie, maleje gdy obiekt się oddala.
    Szczególnie istotne znaczenie ten sposób wizualizacji ma w diagnostyce układu krążenia, obejmującej czynność serca oraz przepływy krwi w sercu, dużych naczyniach klatki piersiowej i większych tętnicach obwodowych.
    Metody wizualizacji dopplerowskiej obejmują dwa rodzaje metod: metody fali ciągłej i metody impulsowe.
    W metodzie fali ciągłej funkcje nadawczo - odbiorcze przetwornika muszą być rozdzielone. Wiązka fal odbitych zawiera informacje o poruszających się obiektach leżących w całym obszarze penetracji, co powoduje że na przykład pomiar wartości natężenia przepływu krwi w konkretnym naczyniu jest obarczony znacznym błędem. Zsadniczą wadą tej metody jest jednak to, że nie dostarcza ona danych o położeniu obiektu (odległości od przetwornika lub powierzchni ciała).
    Wady tej nie ma metoda impulsowa. W celu uzyskania informacji o badanym obiekcie leżącym na danej głębokości należy dokonać selekcji sygnałów zwrotnych. W tym celu stosuje się “bramkę”, otwierającą się tylko na te odbite impulsy (paczki fal odbitych), które wracają po czasie potrzebnym na przebycie drogi (odległości) od danego obiektu. Zmieniając chwilę otwarcia bramki można penetrować różne głebokości ciała. Analizowane i przetwarzane na obraz są tylko te sygnały, które przychodzą we właściwym czasie.
    Oprócz informacji o rozkładzie prędkości, dopplerowskie widmo częstotliwości zawiera także informacje o dynamice serca i przepływu krwi (w sercu i naczyniach). (Aby je wydobyć należy zastosować odpowiednie przekształcenia za pomocą szybkiej transformaty Fouriera).
    Rozwinięciem techniki dopplerowskiej w zakresie badania rozkładu prędkości przepływu krwi jest analiza przepływów w całym przekroju narządu lub ciała i przedstawienia obrazu ultradźwiękowego tego przekroju w postaci kodowanej kolorem (doppler kolorowy).