Fizyka medyczna fizyka w praktyce medycznej
Grzegorz Pawlicki
Co medycyna zawdzięcza fizyce? Jeśli nie uwzględniać
biologii i chemii, to z pewną dozą przesady można powiedzieć, że wszystko.
Takiej samej odpowiedzi można udzielić na pytanie co fizyka zawdzięcza
medycynie? Zwłaszcza gdy ma się na myśli zdrowie, a często i życie fizyków.
Jakie są zatem związki fizyki z medycyną? - Niewątpliwie
relacje pomiędzy fizyką a medycyną są długotrwałe, liczne i ścisłe. Wiele
odkryć fizyki, tych dawnych i całkiem świeżych, umożliwiło zrozumienie
wielu problemów medycznych (struktura ciała, fizjologia), a przełożenie
ich przez inżynierię biomedyczną na praktyczne zastosowania kliniczne,
zaowocowało wieloma bardzo złożonymi i bardzo skutecznymi metodami instrumentalnymi
oraz urządzeniami diagnostycznymi, terapeutycznymi i rehabilitacyjnymi.
Tym samym fizyka umożliwiła rozwój nowoczesnej medycyny i powstanie techniki
medycznej. Dzisiejszy poziom medycyna zawdzięcza nie tylko lekarzom i biologom
ale w znacznej mierze także udziałowi fizyków i inżynierów, którzy inspirowali
i tworzyli te metody i urządzenia. Sprawiedliwość wymaga jednak, aby powiedzieć
że często inspiracje medyczne stanowiły punkt wyjścia dla prac badawczych
i konstrukcyjnych fizyków i inżynierów. Te wzajemne inspiracje okazywały
się niezwykle cenne społevznie zarówno dla praktyki medycznej jak i nauki.
Jak ważną rolę w medycynie odgrywa fizyka, może
świadczyć także nazwanie podstawowego badania lekarskiego, stanowiącego
główny kanon postępowania diagnostycznego, badaniem fizykalnym. Badanie
fizykalne polega na ocenie stanu zdrowia pacjenta na podstawie informacji
o strukturze i czynności narządów ciała, takich jak: kształt, rozmiary,
twardość, ruch (w tym drgania), temperatura, a nawet zabarwienie powłok.
Dane te uzyskiwane są bezpośrednio metodami fizycznymi za pomocą badań
wykorzystujących zmysły lekarza (wzrok, dotyk, słuch, powonienie) przeprowadzonych
na powierzchni ciała pacjenta. Co ciekawe, badanie fizykalne w zasadzie
nie wymaga żadnych przyrządów (nie licząc fonendoskopu).
W Anglii, gdzie po raz pierwszy użyto pojęcia fizyka
medyczna, słowo physian oznaczające lekarza, wskazuje na bliskie związki
fizyki z medycyną.
W przeszłości wielu fizyków uprawiało medycynę i
równie wielu medyków zajmowało się fizyką. Także obecnie zdarzają się takie
przypadki, chociaż częściej fizycy praktykują medycynę. Termin fizyka medyczna
pojawił się na początku XIX wieku. Inicjatorem prawdopodobnie był wykładowca
fizyki dla studentów medycyny, Szkot Neil Arnott urodzony w 1788 roku w
Forfar. Był on także autorem pierwszego podręcznika fizyki dla medyków.
Jego zasługą jest wprowadzenie na Uniwersytecie Londyńskim obowiązku zdawania
egzaminów z fizyki i chemii przez adeptów medycyny.
Pierwsza publikacją książkową na kontynencie europejskim
była książka Adolfa Ficka (1829 1901), zajmującego się fizjologią, znanego
twórcy prawa transportu masy, zatytułowana Fizyka Medyczna (Medizinische
Physik), wydana w Zurichu w 1856 roku.
Określenie Fizyka medyczna budzi czasami sprzeciw
niektórych fizyków, którzy uważają, że fizyka jest jedna i nie wymaga stosowania
przymiotnika. Rzeczywiście słowo medyczna nie oznacza innej fizyki ale
wskazuje jedynie na obszar gdzie występuje i gdzie obowiązują jej prawa.
Wskazuje na jej ważną obecność w podstawach medycyny współczesnej. Nie
zawsze zdawano sobie sprawę z tego faktu.
Jest rzeczą niezmiernie interesującą, że od samego
początku rozwoju fizyki medycznej, a także inżynierii biomedycznej, gdy
dyscypliny naukowe nie były tak zróżnicowane jak obecnie, zagadnieniami
biologii, medycyny i fizyki zajmowali się wybitni przedstawiciele wielu
ówczesnych dyscyplin, przekraczając bez obawy naruszenia czyichkolwiek
kompetencji, niewyraźną granicę pomiędzy biologią i naukami ścisłymi.
Próby opisu procesów biologicznych i mechanizmów
życiowych, były podejmowane między innymi przez Galileusza (student medycyny
- pomiary pulsu; pierwszym autorem rozprawy o tętnie był poznański lekarz
W. Struś), Kartezjusza (mechaniczne podstawy fizjologii), Boyla (płuca,
oddychanie ryb), Roberta Hooka (prawo sprężystości, termin komórka na oznaczenie
najmniejszej jednostki życia) i wielu innych. Warto wspomnieć także lekarza,
TomaszaYounga (zagadnienia sprężystości, moduł Younga).
Za ojca fizyki medycznej i inżynierii biomedycznej
jako dyscyplin naukowych, niektórzy uważają Hermana von Helmholtza (1821
1894), profesora fizjologii, patologii i anatomii na Uniwersytecie w
Heidelbergu i profesora fizyki na Uniwersytecie w Berlinie (od 1871 roku).
Stanowi on klasyczny przykład integralnego traktowania fizyki i medycyny.
W moim przekonaniu początkiem nowoczesnej fizyki
i inżynierii biomedycznej jako dyscyplin naukowych i specjalności zawodowych
było jednak dopiero odkrycie promieniowania X przez Konrada Wilhelma Roentgena
w 1895r. oraz pierwiastków promieniotwórczych polonu i radu przez Marię
Skłodowską-Curie i Piotra Curie w 1898r. Odkrycia te zastosowane niezwłocznie
w praktyce medycznej, dały początek współczesnej diagnostyce radiologicznej,
radioterapii i medycynie nuklearnej, mających do dziś największy udział
w metodach instrumentalnych diagnostyki i terapii medycznej. Wartość urządzeń
medycznych wykorzystujących promieniowanie jonizujące, przekracza 50% wartości
wszystkich urządzeń medycznych zainstalowanych w zakładach opieki zdrowotnej.
Badania radiologiczne należą do najczęściej wykonywanych
badań diagnostycznych. Dla 60% przypadków stanowią podstawowe badanie obrazowe;
dla dalszych 20% są badaniem zalecanym jako uzupełniające. Tak więc około
80% pacjentów podlega diagnostyce radiologicznej, pomimo dynamicznego rozwoju
innych metod diagnostyki obrazowej, wykorzystujących promieniowanie niejonizujące,
na przykład ultradźwięki (USG) czy magnetyczny rezonans jądrowy (MRI).
Biorąc pod uwagę złożoność metod radiologicznych,
kosztowność aparatury i potencjalne zagrożenie pacjenta ze strony promieniowania
jonizującego, które pociąga za sobą konieczność stosowania zabezpieczeń
i pomiarów dawek, stosunkowo wcześnie wprowadzono do zespołów lekarskich
osoby z przygotowaniem fizycznym, a wkrótce potem także technicznym. Fizykom
i inżynierom medycznym postawiono zadanie obsługi skomplikowanych urządzeń
lub nadzoru nad ich użytkowaniem oraz zapewnienie bezpieczeństwa badań.
W zakresie zwłaszcza zabiegów radioterapeutycznych jednym z najważnieszych
zadań jest planowanie naświetlań zewnętrznych i wewnętrznych.
Jednym z pierwszych fizyków pracujących w szpitalu
wśród lekarzy, był S. Russ zatrudniony w Midlessex Hospital w Londynie
w 1910r. W tym samym mniej więcej czasie na oddziale radioterapii Szpitala
w Monachium został zatrudniony fizyk F. Voltz. Nieco później, podczas I
Wojny Światowej, jako rentgenolog w wojskowych szpitalach polowych pracowała
jako wolontariuszka M.Skłodowska Curie. Były to czasy gdy medycyna wspomagana
była nielicznymi i bardzo prostymi narzędziami mieszczącymi się całkowicie
w charakterystycznej podręcznej torbie, nie licząc oczywiście wchodzących
do użytku prymitywnych zestawów rentgenowskich i elektrokardiografów z
galwanometrem strunowym jako detektorem biopotencjałów serca.
Zainteresowania fizyki medycznej zdominowane początkowo
przez zagadnienia związane głównie z aplikacjami promieniowania rentgenowskiego
i izotopów promieniotwórczych, z czasem skierowały się w stronę innych
zagadnień takich jak: jak czynność bioelektryczna tkanek i narządów, oddziaływanie
fal elektromagnetycznych, w tym podczerwieni, ultrafioletu, a także ultradźwięków
na organizm żywy. Ważnym polem zainteresowań fizyków medycznych jest diagnostyka
laboratoryjna, zwłaszcza oparta na analizie metodami fizycznymi materiału
biologicznego pobranego od pacjenta .
Rozwój technologii przemysłowych i kosmicznych,
a zwłaszcza wojskowych stworzył w latach 60 - tych nowe możliwości rozwojowe
medycynie. Powstała potrzeba transferu tych technologii do medycyny. Równocześnie
w rozwijającej się medycynie pojawiły się bariery do których pokonania
potrzebna była technologia. W tej sytuacji narodziła się inżynieria biomedyczna.
Wzrastająca oferta przemysłu na dostawę stale ulepszanych urządzeń medycznych
zakładom opieki zdrowotnej wymagała zaangażowania inżynierów do zespołow
medycznych. Inżynieria biomedyczna objęła część zagadnień wchodzących do
tej pory w zakres fizyki medycznej.
Spektakularne osiągnięcia diagnostyczne i niezwyle
sukcesy terapeutyczne współczesnej medycyny są możliwe dzięki bliskiej
codziennej współpracy lekarzy z fizykami i inżynierami i ogromnego potencjału
środków technicznych. Według tradycyjnego podziału, metody i urządzenia
stosowane w medycynie można podzielić na:
-
diagnostyczne
-
terapeutyczne
-
rehabilitacyjne
Metody fizyczne i urządzenia stosowane w diagnostyce,
służą do wyznaczania wartości wielkości fizycznych, generowanych przez
tkanki i narządy charakteryzujących czynne własności organizmu (potencjał
czynnościowy, ruch, siła) oraz wielkości fizycznych, chemicznych i biologicznych
charakteryzujących bierne właściwości ciała, jego narządów i tkanek (długość,
kształt, struktura ciała, struktura tkanek, skład chemiczny, stężenia elektrolitów,
itp.)
O ile wyznaczanie wielkości charakteryzujących czynne
własności organizmu oparte jest na pomiarach sygnału generowanego przez
organizm (np. elektrografie ekg, emg, eeg), wyznaczenie biernych właściwości
organizmu wymaga zazwyczaj zastosowania środka penetrującego organizm jak
promieniowanie jonizujące (X i jądrowe), pole elektromagnetyczne (MRI),
ultradźwięki (USG), światło (mikroskop optyczny), prąd elektryczny (badania
elektroimpedancyjne), itp.
Metodami fizycznymi i urządzeniami stosowanymi w
terapii, wymusza się, wspomaga lub hamuje niektóre procesy biologiczne
albo niszczy się niepożądaną tkankę (zwłaszcza nowotworową), za pomocą
zewnętrznego środka fizycznego takiego jak promieniowanie elektromagnetyczne
jonizujące (promieniowanie X, cząstki naładowane), niejonizujące (diatermia,
światło podczerwone i ultrafioletowe), prąd elektryczny, ciepło , zimno,
siła, ruch itp., w celu przywrócenie zdrowia.
Metody fizyczne i urządzenia rehabilitacyjne, podobnie
jak terapeutyczne mają na celu poprawienie stanu pacjenta, a jeśli to możliwe,
przywrócenie do formy jaką miał przed zachorowaniem i przed rozpoczęciem
leczenia. Rehabilitacja jest zatem rodzajem postępowania leczniczego i
wykorzystuje znaczną część metod i urządzeń terapeutycznych.
Kosztowne, trafiające do medycyny w coraz większej
ilości, nowoczesne środki techniczne diagnostyki i terapii, aby mogły być
racjonalnie wykorzystane i aby nie zagroziły bezpieczeństwu pacjenta wymagają
właściwego i ostrożnego użycia. W tym celu istnieje potrzeba wsparcia personelu
medycznego kadrą specjalistów o przygotowaniu fizycznym i inżynieryjnym.
Warto powiedzieć, że obecnie co roku na świecie
oferowany jest sprzęt medyczny o wartości przeszło 10 mld dolarów (1999r.).
Tak wielka ilość środków technicznych diagnostyki i terapii wymaga fachowej
i odpowiedzialnej osługi, a zwłaszcza systematycznej kontroli sprawności
i bezpiecznego użytkowania.
Mało kto wie, że po raz pierwszy systematyczne kształcenie
na poziomie wyższym fizyków medycznych i inżynierów medycznych rozpoczęto
w Polsce, w Politechnice Warszawskiej, na Wydziale Elektrycznym w 1946r.
Twórcą i organizatorem studiów był fizyk, uczeń prof. Pieńkowskiego i M.
Skłodowskiej Curie, prof. Cezary Pawłowski.
Dzisiaj nie istnieje wyraźna granica pomiędzy fizyką
medyczną a inżynierią biomedyczną. Zakres tematyki bedącej domeną każdej
z tych dyscyplin zależy od tradycji środowiska i lokalnych potrzeb klinik
i innych zakładów ochrony zdrowia .
Zwyczajowo utarło się, że fizyka medyczna obejmuje
zagadnienia związane z badaniami naukowymi dotyczącymi oddziaływania promieniowania
jonizującego na organizmy żywe (radiobiologia, radiosterylizacja) i praktyką
medyczną, w których wykorzystuje się to promieniowanie w celach diagnostycznych
i terapeytycznych oraz z ochroną radiologiczną personelu medycznego i pacjenta.
Natomiast urządzenia generujące promieniowanie jonizujące i niejonizujące
stosowane w technice obrazowania narządów wewnętrznych (diagnostyka radiologiczna,
MRI, USG) czynnych i biernych właściwości elektrycznych tkanek organizmu,
oddziaływanie na organizm żywy promieniowania elektromagnetycznego niejonizującego
stosowanego w terapii zwłaszcza w fizykoterapii, urządzeń do badań laboratoryjnych
i licznych innych urządzeń diagnostycznych i sprzętu medycznego jest domeną
inżynierii biomedycznej.
Osoby o przygotowaniu fizycznym jak i inżynierskim
są w równej mierze potrzebne lekarzom w codziennej praktyce medycznej.
Stosowanie skomplikowanych urządzeń i metod diagnostycznych i terapeutycznych
wymaga wiedzy i umiejętności wykraczających poza programy nauczania lekarzy.
Wiedzy którą dysponują fizycy i inżynierowie.
Współczesna medycyna jest nasycona technologią jak
nigdy dotąd. Podstawą wartościowania zakładu opieki zdrowotnej, w odczuciu
społecznym, są już nie tylko kwalifikacje personelu lekarskiego i pielęgniarskiego
ale przede wszystkim stan technicznego wyposażenia. Trudno sobie wyobrazić
aby wspólczesny szpital mógł funkcjonować racjonalnie bez uczestnictwa
w procedurach diagnostycznych i terapeutycznych bez udziału fizyków i inżynierów
medycznych.
Obecnie pod względem organizacyjnym zarówno radiologiczne
jak i nieradiologiczne metody i urządzenia diagnostyki obrazowej są traktowane
łącznie i wchodzą w zakres czynności Zakładów Diagnostyki Obrazowej, zatrudniających
obok lekarzy także fizyków i inżynierów.
Stosowane w medycynie metody i urządzenia wykorzystujące
zjawiska fizyczne można podzielić na dwie grupy. Te których celem jest
pomiar wielkości generowanych przez organizm człowieka oraz te których
celem jest wyznaczenie wielkości charakteryzujących bierne właściwości
fizyczne organizmu oraz materiału biologicznego pobranych próbek. O ile
wartości poszczególnych wielkości należących do pierwszej
Rejestracja sygnałów biologicznych generowanych
przez organizm człowieka, elektrycznych, mechanicznych i chemicznych w
postaci pomiaru odpowiednich wielkości fizycznych - diagnostyka
Pomiar biernych właściwości ciała człowieka elektrycznych
i mechanicznych, spektrometria częstotliwościowa;
Analiza ilościowa chemiczna często metodami fizycznymi
i fizyczna składników ciała człowieka (spektroskopia optyczna, masowa,
NMR) głównie diagnostyka laboratoryjna
Oddziaływanie czynnikiem fizycznym na organizm żywy
(promieniowanie elektromagnetyczne jonizujące i niejonizujące swiatło
widzialne i uv, korpuskularne hadrony, ciepło, zimno, wibracje) głównie
terapia ale także diagnostyka generacja, rozkłady pola energii, dawkometria,
ochrona;
-
Obrazowanie
-
Elektrografia
-
Mechanografia
Rola fizyki w konstrukcji urządzeń medycznych
Rola fizyków i inżynierów medycznych w praktyce medycznej jako gwarantów
bezpieczeństwa zdrowotnego (biologicznego) i finansowego pacjentów narażonych
na skutki niewłaściwie działających urządzeń lub niepotrzebnie stosowanych
(doradzanie lekarzowi stosowania właściwych środków technicznych)
Rola fizyka i inżyniera biomedycznego w zreformowanym systemie ochrony
zdrowia
Na tle sytuacji ekonomicznej i organizacyjnej w ochronie zdrowia
Interes i bezpieczeństwo pacjenta w warunkach zagrożenia
ze strony nowoczesnych urządzeń technicznych stosowanych w medycynie
Kształcenie specjalistów o przygotowaniu technicznym
i fizycznym na potrzeby ogólnie pojętej medycyny datują się od czasów wprowadzenia
do praktyki lekarskiej promieniowania rtg. Podyktowane było oddaniem do
dyspozycji lekarzy skomplikowanych urządzeń, wymagającym częstych regulacji
i łatwo ulegających uszkodzeniom. Nie mniej istotnym powodem szukania pomocy
technicznej była konieczność urządzania pracowni radiologicznych bezpiecznych
dla pacjenta i lekarza zagrożonych napromieniowaniem.
Warto przypomnieć, że już wcześniej, w połowie XIX
wieku, w niektórych szpitalach zatrudniano fizyków medycznych w związku
ze stosowanymi metodami i narzędziami fizycznymi w ówczesnej diagnostyce
i terapii medycznej.
Z czasem, kiedy w praktyce znalazło się więcej urządzeń
o skomplikowanej budowie (np. diatermia, elektrokardiografia, lampy ultrafioletowe)
oraz zagrożenia ze strony promieniowania jonizującego i wysokich napięć,
zaczęto wymagać od osób zajmujących się technicznym wyposażeniem medycyny
wyższego wykształcenia.
Pierwszy na świecie zorganizowany system studiów
w zakresie techniki medycznej został wprowadzony w Polsce, na Politechnice
Warszawskiej na Wydziale Elektrycznym w 1946r. Jako specjalność pod nazwą
Elektrotechnika Medyczna. Przez wiele jeszcze lat w Europie i Stanach Zjednoczonych
inżynierowie, zazwyczaj elektrycy, uzupełniali wiedzę w zakresie techniki
medycznej na różnego rodzaju kursach.
Pierwsi absolwenci byli rozchwytywani przez co światlejszych
kierowników Zakładów Ochrony Zdrowia. Z czasem system ochrony zdrowia stawał
się coraz bardziej hermetyczny i autarkiczny. Lekarze uznali że są wystarczająco
dobrze przygotowani do obsługi i posługiwania się skomplikowanymi urządzeniami
techniki medycznej. Inżynier stał się zbędny, zwłaszcza, że brakowało środków
na eksploatację urządzeń i płace personelu. Tak więc inwestycje aparaturowe
niewłaściwie pod względem technicznym i nieracjonalnie pod względem ekonomicznym
eksploatowane stawały się nieefektywne. Zdarzało się, że zakupów aparaturowych
dokonywano nie ze względu na potrzeby lecz z powodów prestiżowych. Nie
liczyły się koszty ale względy propagandowe.
Nieustające próby ustawowego ustalenia pozycji inżyniera
biomedycznego (a także fizyka medycznego) i obowiązku zatrudniania go w
określonych zespołach lekarskich, nie przyniosły pożądanego rezultatu.
Warunkach tzw. Gospodarki planowej nie przewidziano takiego zawodu, więc
sprawa nie istniała.
Dzisiaj kiedy zmieniły się reguły ekonomiczne, kiedy
gospodarka została zracjonalizowana i zaczęto liczyć koszty, aby móc optymalizować
wydatki, jest pora aby temat podnieść i wykorzystać szansę skutecznej poprawy
stanu ochrony zdrowia w państwie, choćby przez optymalizację wyposażenia
technicznego i minimalizację kosztów generowanych przez stosowanie urządzeń
techniki medycznej. Pora na podjęcie sprawy jest stosowna zwłaszcza wobec
wprowadzonej reformy i nabrzmiałych trudności w systemie ochrony zdrowia.
Potrzebna ale nie dość dobrze przygotowana reforma
systemu ochrony zdrowia miała na celu ograniczenie nieuzasadnionego względami
merytorycznymi wypływu pieniędzy z państwowej kasy z jednej strony i poprawę
świadczeń zdrowotnych z drugiej. W dotychczasowym systemie koszty ochrony
zdrowia rosły a odczucia obywateli były coraz gorsze.
Wprawdzie ochrona zdrowia jest taką dziedziną życia
społecznego, a zwłaszcza osobniczego, gdzie żadne nawet największe środki
nie są wystarczające kiedy chodzi o ratowanie zdrowia i życia. Doskonałą
ilustracją tego jest sytuacja w Stanach Zjednoczonych gdzie udział wydatków
budżetowych na ochronę zdrowia rósł liniowo od 5% PNB w 1960r. Do około
14% w 1995 a obecnie nawet 16%. Ten spektakularny wzrost nie zapobiegł
jednak poważnym napięciom społecznym. Ochrona zdrowia stała się sztandarowym
problemem w kampanii wyborczej prezydenta B.Clintona!
W każdej gospodarce, nawet najbogatszych krajów
jest nieprzekraczalna granica finansowania obszar zdrowia, której nie można
przekroczyć.
Aby wyjść naprzeciw oczekiwaniom społecznym i poprawiać
standard świadczeń medycznych pozostaje jeden sposób. Trzeba optymalizować
wydatki i obniżać koszty.
Główne żródła kosztów w ochronie zdrowia
Często słyszy się opinie, czasem zresztą znajdujące
potwierdzenie w praktyce, że źródłem rosnących kosztów ochrony zdrowia
jest technologia medyczna. Z drugiej strony byłoby to dziwne i zaskakujące,
ponieważ zwykło się zawsze uważać, że w gospodarce technologia była w przeszłości
głównym czynnikiem rozwoju przemysłowego, co w rezultacie prowadziło do
podnoszenia standardu życia społeczeństwa, a tym samym do dobrobytu.
Paradoksalnie, rozwój technologii medycznej której
w znacznej mierze zawdzięczamy poprawę stanu zdrowotności społeczeństwa,
zmniejszenie śmiertelności noworodków, likwidację wielu chorób dziesiątkujących
dawniej populację, i w rezultacie wydłużenie średniego czasu życia człowieka,
okazał się wysoce kosztotwórczy i ekonomicznie nieuzasadniony. Być może
korzyści wynikające z rozwoju technologii medycznej nie są wystarczająco
dobrze wymierne i nie nadają się do ścisłych analiz bilansowych albo koszty
rozwoju gospodarczego nie uwzględniają wszystkich czynników, na przykład
zagrożeń środowiska życia człowieka, powodując skutki w obszarze ochrony
zdrowia. Technologia medyczna jednak nie jest jedynym źródłem rosnących
kosztów w ochronie zdrowia, jest jednym ze źródeł. A oto inne:
-
Leki i inne środki farmaceutyczne,
-
Struktura kadrowa i stan zatrudnienia,
-
Szpitale, które obok podstawowej funkcji medycznej spełniają także hotelową
i restauracyjną,
-
Opieka nad niepełnosprawnymi.
Jeśli przekonanie o tym, że głównym źródłem rosnących
kosztów ochrony zdrowia jest technologia medyczna, to jej rozwój wobec
ograniczonych środków musiałby zahamować rozwój opieki zdrowotnej. Nasuwa
się nieodparcie nonsensowny wniosek, aby ograniczyć rozwój technologii
medycznej w celu umożliwienia rozwoju ochrony zdrowia .
Jeśli technologia medyczna generuje koszty, to musi
także być w stanie je zmniejszać.
Przyczyny nieuzasadnionych kosztów stosowania techniki w ochronie zdrowia
Jest jednakże faktem niezaprzeczalnym że wydatki na ochronę zdrowia rosną.
Przyczyn tego stanu rzeczy może być kilka:
-
Niewłaściwy system finansowania i kontroli środków publicznych,
-
Brak systemowych zachęt do oszczędzania,
-
Nieuzasadnione zyski producentów, a zwłaszcza pośredników handlujących
aparaturą,
-
Nieudolność zarządzania, oszustwa i marnotrawstwo,
-
Uległość lekarzy wobec żądań pacjentów grożących procesami sądowymi za
domniemane błędy w sztuce lekarskiej, kosztownej procedury medycznej, normalnie
zbędnej
-
Chęć lekarza przypodobania się pacjentowi w nadziei na nieoficjalną gratyfikację.
Powodem nadmiernych wydatków w ochronie zdrowia,
związanych ze stosowaniem technologii medycznej może być także :
-
Niewłaściwe użycie środków technicznych, spowodowane niewiedzą lekarza,
-
Nie pełne ich wykorzystanie, z powodu złej lokalizacji aparatury,
-
Niesprawność aparatury, powodująca konieczność jej wielokrotnego użycia,
-
Niewłaściwe materiały.
Niektóre nowe technologie wdrażane są do powszechnej
praktyki medycznej za wcześnie, zanim zostaną kompetentnie ocenione. Wcześniej
niż mogą być w pełni wykorzystane w miejscu zainstalowania. Kiedy nie ma
jeszcze pewności, że jest ona lepsza od dotychczas stosowanej. Zanim zostanie
przeszkolony lekarz z niej korzystający i personel ją obsługujący.
Dane techniczno kliniczne, które gwarantowałyby,
że nowe urządzenie umożliwia otrzymanie wyników dotąd nie uzyskiwanych
początkowo nie są ogólnie dostępne. Nowinki w techniczne są pociągające
więc nie jeden lekarz chciałby osobiście sprawdzić jej przydatność. Może
się jednak okazać, że zakup był pomyłką, czasem kosztowną.
Sposoby przeciwdziałania wysokim często nieuzasadnionym
kosztom wynikającym ze stosowania technologii medycznych.
Odpowiedzialności za wysokie koszty stosowania technologii
medycznej należy upatrywać głównie w niewłaściwej polityce Państwa, w sferze
nastawionego na wysoki zysk Przemysłu i Biznesu oraz w obszarze Medycyny
i jej niedoskonałej strukturze kadrowej i organizacyjnej. Nowe technologie
medyczne pociągają za sobą konieczność zmian systemowych w zakresie ochrony
zdrowia. Pozostawienie niezmienionych struktur organizacyjnych i sposobu
zarządzania okazuje się często bardziej kosztowne niż nowe wyposażenie.
Zahamowanie wzrostu tych kosztów, a nawet ich zmniejszenie może być osiągniete
poprzez stosowne działania we wszystkich trzech obszarach.
W zakresie kompetencji Państwa niezwykle ważną rolę
do odegrania mają:
Polityka podatkowa mająca na celu promocję produkcji
specjalistycznych urządzeń, zwłaszcza zaawansowanych technicznie, stosowanych
w diagnostyce i terapii medycznej;
Prawodawstwo regulujące sprawy atestacji i kontroli
jakości aparatury medycznej, warunków jej stosowania i wymogów kadrowych
oraz minimów kwalifikacyjnych kwalifikacyjnych dla osób zatrudnianych na
poszczególnych stanowiskach w jednostkach ochrony zdrowia;
Edukacja w zakresie środków techniki medycznej zarówno
lekarzy jak i inżynierów i fizyków, na poziomie kształcenia podstawowego
wyższego i podyplomowego.
Ze strony przemysłu sprawą kluczową jest obniżenie
kosztów produkcji, zaś ze strony organizacji handlowych minimalizacja zysku.
Działalność przemysłu powinna koncentrować się zwłaszcza na:
-
urządzeniach podstawowych dla profilaktyki, diagnostyki i terapii,
-
poszukiwaniu całkiem nowych rozwiązań technicznych, które gwarantowałyby
nadzwyczajny efekt z ich zastosowania,
-
aparaturze specjalistycznej raczej niż uniwersalnej, która stanowiłaby
ulepszony zamiennik dla innych wczesniejszych wyrobów łatwa do zastosowania,
-
minimalnie inwazyjna, nie wywołująca efektów ubocznych oraz ryzyka uszkodzeń
pacjenta, niekosztowna w porównaniu z stosowaną dotąd, którą zastępuje.
Ze strony medycyny do najważniejszych działań zaliczyć
należy: wprowadzanie efektywnych sprawdzonych procedur diagnostycznych
i terapeutycznych, poprawa organizacji wewnętrznej i zarządzania oraz lepsze
wykorzystanie środków techniki medycznej poprzez:
-
dobór właściwych urządzeń do stosowanych procedur medycznych,
-
utrzymanie urządzeń w dobrym stanie technicznym przez zastosowanie systemów
zapewnienia jakości i jej ciągłej kontroli (QA i QC),
-
intensywną exploatację aparatury przez zwiększenie liczby badań na dobę,
-
zatrudnienie personelu wysoko kwalifikowanej kadry w tym zwłaszcza inżynierów
i fizyków medycznych,
-
zmianę systemu wynagradzania.
-
Rola i miejsce kadry inżynierów i fizyków medycznych w systemie ochrony
zdrowia (współdziałanie inżynierów z lekarzami).
Rola inżyniera biomedycznego i fizyka medycznego wiąże
się przede wszystkim ze stosowaniem aparatury i urządzeń medycznych, lecz
nie ogranicza się wyłącznie do nich. Ścisły umysł, ekonomiczne myślenie
i umiejętnośc optymalizowania pod względem kosztów rozwiązań techniczno
organizacyjnych, a zwłaszcza znajomość srodków technicznych medycyny
sprawiają, że są oni niezbędni przy zakupach wyposażenia konkretnych pracowni.
Są idealnym partnerem w codziennej pracy lekarza przy opracowywaniu wyników
badań i organizacji pracy jednostki ochrony zdrowia .
Koszty są pochodną uprawiania medycyny, ale tworzą
zarazem barierę ograniczającą jej rozwój, a zwłaszcza dalsze szerokie upowszechnienie.
Barierę którą można pokonać przez zwiększenie wydatków na powszechną ochronę
zdrowia lub ominąć przez oszczędne gospodarowanie tym czym się dysponuje.
Skoro jednak nie można liczyć na radykalne zwiększenie nakładów, trzeba
pójść drogą racjonalizacji wydatków. Ta droga wszakże wymaga ściślejszego
współdziałania środowiska lekarzy z inżynierami i fizykami medycznymi,
poprzez zadekretowanie odpowiednich stanowisk pracy tych ostatnich. Dyscyplina
finansowa mająca na celu racjonalne wykorzystanie środków technicznych
i w dużym stopniu także organizacyjnych, wymaga aby w zespołach medycznychnie
tylko prowadzących badania naukowe ale także uprawiających praktykę medyczną
znajdował się obowiązkowo inżynier lub fizyk medyczny.
Rola fizyka i inżyniera biomedycznego w zreformowanym
systemie ochrony zdrowia polega bowiem na tym, aby doradzić lekarzom w
jaki najlepszy sposób wykorzystać dostępne środki na zaspokojenie w maksymalnym
stopniu potrzeby zdrowotne społeczeństwa i zarazem zapewnić niezawodne,
zgodne z danymi technicznymi działanie aparatury i urządzeń medycznych.
Obrazowanie za pomocą promieniowania X
Radiografia cyfrowa
Klasyczny obraz radiograficzny ma charakter analogowy
i uzyskiwany jest zazwyczaj na kliszy rentgenowskiej. W tej postaci może
być oglądany i analizowany bezpośrednio za pomocą negatoskopu lub po zamianie
(przez skanowanie laserowe) na obraz cyfrowy, za pomocą monitora. Obraz
w postaci cyfrowej jakkolwiek zubożony o część informacji ma tę zaletę,
że może być przetwarzany, jak to ma miejsce w opisanych dalej nowoczesnych
metodach wizualizacji oraz łatwo archiwizowany.
Nowoczesne urządzenia rentgenowskie wyposażone w
tak zwany tor wizyjny składający się ze wzmacniacza obrazu, kamery wideo,
łączącego je układu optycznego oraz komputera, umożliwiają uzyskiwanie
obrazu cyfrowego bezpośrednio w czasie rzeczywistym. Dzięki temu jest możliwa
wizualizacja nie tylko struktury ale także czynności narządów, a w szczególności
układu krążenia. Procedura otrzymywania i przetwarzania radiologicznych
obrazów cyfrowych nazywa się radiografią cyfrową. Jednym z ważnych zastosowań
radiografii cyfrowej jest angiografia subtrakcyjna. Polega ona na wyeksponowaniu
z obrazu radiologicznego (cyfrowego) naczyń krwionośnych przez odjęcie
(cyfrowe) tkanek stanowiących maskujące tło. W celu poprawienia widoczności
naczyń dodatkowo są one wypełniane środkiem cieniującym. Można także uzyskać
obrazy subrakcyjne innych narządów na przykład płuc a właściwie dróg oddechowych.
Tomografia wspomagana komputerem
Używane potocznie określenie tomografia komputerowa,
a poprawnie jak powinno być tomografia wspomagana komputerem, jest to sposób
obrazowania kolejnych przekrojów (zwykle) poprzecznych względem osi ciała
pacjenta. Cechuje ją dokładność i drobiazgowość w przedstawianiu szczegółów
struktury ciała przewyższająca zwykłą radiografię, przy mniejszym obciążeniu
pacjenta dawką promieniowania.
Obraz dwuwymiarowy (2-D) uzyskiwany tą metodą, przedstawia
w płaszczyźnie przekroju rozmieszczenie narządów i ich budowę anatomiczną.
Na podstawie szeregu przekrojów poprzecznych można odtworzyć obraz trójwymiarowy
(3-D).
Najbardziej rozpowszechnioną tomografia jest tomografia
komputerowa wykorzystująca promieniowanie X, zwana w skrócie tomografią
komputerową (TK). TK jest tomografią transmisyjną, co oznacza
że promieniowanie rtg przechodzi przez ciało, które je osłabia. Ponieważ
poszczególne składniki ciała (tkanki) osłabiają promieniowanie w różnym
stopniu, zależnym od gęstości elektronów w badanej strukturze, całkowite
osłabienie skolimowanej wiązki promieniowania penetrującego ciało w określonym
kierunku, składa się z sumy osłabień przez nie powodowanych. Przedmiotem
pomiaru jest wartość sumarycznego osłabienia promieniowania.
Jako źródła promieniowania w zwykłej, konencjonalnej
TK, jako źródła promieniowania używa się lampy rtg, która wraz z sprzężonymi
z nią detektorami, przemieszcza się po torze kołowym wokół osi pacjenta
w pełnym kącie 360° stopni, dokonując ekspozycji co 0,5 d0 1,0 stopnia.
Dla poszczególnych kierunków leżących w płaszczyźnie otrzymuje się różne
wartości osłabienia promieniowania. Dzieje się tak dlatego, że wraz ze
zmianą kierunku zmienia się układ składników ciała.
Na podstawie tych danych oraz uwzględnieniu grubości warstwy dokonuje
się obliczenia wartości (objętościowych) współczynników osłabienia promieniowania
przez elementarne objętości (voxel) poszczególnych tkanek. Przyporządkowując
współczynnikom osłabienia określone wartości jasności otrzymuje się na
ekranie monitora obraz przekroju ciała. Po przesunięciu pacjenta, względem
obrotowego zespołu lampa detektory, wzdłuż osi ciała, otrzymuje się obraz
kolejnego przekroju.
Równomierne ciągłe przesuwanie pacjenta względem
obracającego się zespołu lampa detektory, umożliwia zbieranie informacji
o osłabieniu promieniowania w sposób ciągły. Dzięki temu nie są pomijane
obszary na granicy warstw. Ten rodzaj badania nazywa się tomografią spiralną.
Płaska wiązka promieniowania X generownego przez
skrajnie małe ognisko lampy (punktowe), umożliwia uzyskiwanie plasterków
przekroju o grubości od 1 do 10 mm i zdolności rozdzielczej obrazu przekroju
od 0 ,1 do 1,0 mm kw. Przy tej zdolności rozdzielczej jest możliwe uzyskanie
około 100 przekrojów ciała. (Biorąc pod uwagę, że źródłem danych do rekonstrukcji
obrazu są zdolność roździelcza w płaszczyźnie przekroju i objętość określona
grubością warstwy, rekonstrukcja dokonywana jest zazwyczaj za pomocą matrycy
o wymiarach od 512x512x1 do 512x512x100).
Zdolność rozdzielcza kontrastu jest równa 0,5% pełnego
zakresu różnicy wartości jasności sygnału. Rozdzielczość czasowa wynosi
w przybliżeniu 2 sekundy co odpowiada czasowi pełnego obrotu układu lampa
detektory wokół pacjenta (360° ). Zazwyczaj dane cyfrowe obrazu są przedstawiane
w skali Hounsfielda (HU), w zakresie od -1000 do +1000 (lub 0 - 2048 w
16 bitowej wartości komputerowej).
Szybka tomografia komputerowa EBT
Podana wyżej wartość rozdzielczości czasowej konwencjonalnej
TK, jest niewystarczająca do wizualizacji czynności narządów, a w szczególności
serca. Zbyt duża jej wartość wynika z niedoskonałości rozwiązania ruchu
źródła promieniowania na drodze mechanicznej. Wady tej nie ma tomograf
wiązki elektronowej (Electron Beam Tomography), w którym układ źródło -
detektory pozostaje mechanicznie nieruchomy. Dzięki specjalnej konstrukcji
lampy rentgenowskiej porusza się jedynie wiązka elektronów, która generuje
kolejno promieniowanie w licznych przylegających do siebie ogniskach anody
(lampy) w postaci półokręgu. W ten sposób wiązka promieniowania szybko
przesuwając się po licznych ogniskach zmienia kierunek, co warunkuje otrzymanie
obrazu tomograficznego zmieniającej się konfiguracji obiektu (np. serca).
Dzięki temu obraz można uzyskać już po upływie około 50 ms, co oznacza
bardzo dużą rozdielczość czasową. Urządzenie musi mieć jednak odpowiednio
dużą liczbę detektorów umieszczonych na listwie w postaci półokręgu. Zdolność
rozdzielcza obrazu przekroju tego tomografu jest nieco mniejsza w porównaniu
z TK i wynosi około 0,5 mm2, przy grubości warstwy 10 mm, co stanowi kompromis
w stosunku do możliwości rekonstrukcji 3 wymiarowej. Nieco gorszy jest
także kontrast.
Obrazowanie za pomocą promieniowania jądrowego
Właściwość tkanek do selektywnego gromadzenia niektórych
substancji podanych pacjentowi dożylnie, lub drogą oddechową (przez inhalacje),
stanowi punkt wyjścia dla wizualizacji narządów, a szczególnie ich czynności
metabolicznej metodami medycyny nuklearnej. Substancje te zwane radiofarmaceutykami,
znakowane izotopami promieniotwóczymi, po podaniu są następnie odnajdywane
w organizmie za pomocą detektorów promieniowania, w postaci rozkładu aktywności.
Uzyskany obraz dostarcza informacji o strukturze narządu lub jego czynności,
a często obu informacji równocześnie.
Podstawą rozwoju metod obrazowania za pomocą rodioizotopów
była metoda skaningu, polegająca na przesuwaniu, nad okolicą narządu wzdłuż
kolejnych linii, pojedyńczego detektora połączonego z urządzeniem piszącym
kreski, który wybiórczo kumulował substancję znakowaną izotopem promieniotwórczym.
Kreski rejestrowane na papierze układały się w postaci kształtu narządu.
Udoskonalenie tej metody polegało na zastąpieniu pojedyńczego detektora
gammakamerą, spełniającą rolę wielu detektorów ułożonych w postaci matrycy.
Obecnie w praktyce są stosowane dwie nowoczesne
metody tomograficzne oparte na tej samej zasadzie: metoda tomografii emisyjnej
pojedyńczego fotonu (SPECT Single Photon Emission Computed Tomography)
i metoda tomografii emisyjnej pozytonowej (PET Positon Emission Tomography).
Tomografia emisyjna pojedyńczego fotonu SPECT
W tomografii pojedyńczego fotonu wykorzystywane są radiofarmaceutyki
emitujące fotony gamma, a jako detektorów używa się gamma kamer, zazwyczaj
kilku rozmieszczonych symetrycznie wokół pacjenta, dzięki czemu można równocześnie
rejestrować fotony emitowane w kilku różnych kierunkach. Ten sposób akwizycji
danych umożliwia uzyskanie obrazu o lepszej rozdzielczości przestrzennej
i w krótszym czasie. Jednakże większość tomografów SPECT zawiera tylko
jedną gamma kamerę, która podobnie jak detektory w tomografie komputerowym
porusza się po okręgu wokół pacjenta. W ten sposób zbiera kolejno fotony
emitowane w różnych kierunkach i na tej podstawie identyfikuje się miejsce
skąd zostały wemitowane. Tym samym określa się strukture lub czynność narządu
w którym radiofarmaceutyk się usadowił (przejściowo).
Proces rekonstrukcji obrazu na podstawie tych informacji
jest podobny jak w innych rodzajach tomografów poprzecznych (obrazujących
poprzeczne przekroje ciała). Podobnym także celem tomografii SPECT jest
eliminacja nakładających się na siebie informacji strukturalnych w celu
uzyskania wartościowych, w miarę możliwości ilościowych danych zawartych
w obrazie przekroju ciała. Tomografia SPECT jest niezwykle czuła i dokładna,
obrazy rzeczywiście takich danych dostarczają i to na podstawie bardzo
małej ilości podanego radiofarmaceutyku. Można tą metodą uzyskać informacje
o czynności metabolicznej narządów lub hemodynamice układu krążenia, którą
jest trudno lub wręcz nie można uzyskać w inny sposób.
Podstawową zaletą tomografii SPECT są potencjalne
możliwości uzyskania ilościowych danych o przestrzennym rozkładzie radiofarmaceutyka,
dzięki czemu można otrzymać wierny obraz trójwymiarowy (3D). Wadą są trudności
związane z realizacją precyzyjnego ruchu okrężnego gamma kamery. Niedokładności
trajektorii tego ruchu generują, podobnie jak w zwykłej tomografii komputerowej,
błędy w obrazie.
Warto zaznaczyć, że badania nad zastosowaniem emiterów
pojedyńczych fotonów poprzedzały pracę Hounsfielda nad tomografią wykorzystującą
promieniowanie X. Wcześniej też uzyskano pierwsze tomogramy (obrazy tomograficzne)
głowy wykonane metodą SPECT. Dzisiaj jednak w praktyce klinicznej góruje
tomografia komputerowa za pomocą promieniowania X i jeszcze młodsza metoda
Rezonansu magnetycznego.
Tomografia emisyjna pozytonowa PET
Tomografia emisyjna pozytonowa jest metodą otrzymywania
obrazu przekroju poprzecznego ciała na podstawie wyznaczenie rozkładu radiofarmaceutyku
znakowanego izotopem promieniotwóczym podanego wcześniej pacjentowi i selektywnie
osadzonym w narządach i tkankach, podobnie jak w metodzie SPECT, lecz emitującym
emitującym pozytony zamiast fotonów. Nośnikiem informacji o strukturze
narządu nie są jednak pozytony, których czas życia jest bardzo krótki i
zasięg niewielki, lecz fotony emitowane w rezultacie anihilacji pozytonu
przez połączenie z elektronem otaczającej go materii.
Niewątpliwą zaletą jest to, że radionuklidy emitujące
pozytony należą do pierwiastków szczególnie ważnych w procesach metabolicznych
organizmu to jest węgiel C-11 (czas połowicznego zaniku 20 min), tlen O-15
(czas zaniku 2 min.), azot N-10 (czas zaniku 10 min.), fluor F-18 (czas
zaniku 110 min.). Znakowane promieniotwórczym węglem lub tlenem substraty
metaboliczne, na przykład glukoza, są doskonałymi wskaźnikami intensywności
przemian zachodzących w narządach. Rewelacyjne wyniki tą metodą otrzymuje
się zwłaszcza przy badaniu mózgu. Można za jej pomocą identyfikować mózgowe
ośrodki poszczególnych czynności na przykład funkcji intelektualnych. Można
się przekonać czy człowiek myśli! Szkoda jednak, że nie można się dowiedzieć
o czym!
Praktyczne wykorzystanie tej metody ogranicza wiele
czynników. Przede wszystkim wysokie koszty aparatury i jej eksploatacji.
Chodzi tu o trudne do spełnienia wymagania aparaturowe. Zwłaszcza wiążące
się z koniecznością instalowania generatora (cyklotronu) izotopów emitujących
pozytony, zazwyczaj krótko żyjące, bezpośrednio w miejscu przeprowadzanych
badań. Kłopoty wiążą się także z systemem detekcji fotonów o znacznej energii
(511keV), wymagających specjalnych detektorów.
Obrazowanie za pomocą pola magnetycznego
Obrazowanie metodą rezonansu magnetycznego polega na
wykorzystaniu magnetycznych właściwości jąder atomowych w szczególności
atomów wodoru czyli protonów. Właściwości magnetyczne protonów są następstwem
spinu i związanego z nim momentu magnetycznego. Wodór występujący w rożnych
związkach ma największy udział wśród pierwiastków tworzących składniki
ciała ludzkiego i zarazem relatywnie duży moment magnetyczny. Dzięki temu
jest najsilniejszym źródłem sygnału spośród wszystkich jąder. Z tych względów
jest niezwykle atrakcyjny dla obrazowania struktury i czynności narzadów.
W warunkach naturalnych rozkład momentów magnetycznych
jąder wodoru (w ciele człowieka) jest bezładny. Ustawiczny ruch termiczny
(Browna) powoduje, że ich orientacja przestrzenna zmienia się ustawicznie.
Wprowadzenie zewnętrznego stałego pola magnetycznego powoduje uporządkowanie
momentów magnetycznych jąder zgodnie (większość) z kierunkiem pola lub
przeciwnie. Źródłem sygnału diagnostycznie użytecznego są jądra stanowiące
różnicę pomiędzy liczbą jąder skierowanych zgodnie z kierunkiem pola i
liczbą jąder skierowanych przeciwnie (nadwyżka liczby jąder skierowanych
zgodnie z kierunkiem pola). Istotną rzeczą jest to, że uporządkowanie nie
jest perfekcyjne, to znaczy że momenty magnetyczne nie układają się dokładnie
w kierunku pola, lecz wykonują wokół tego kierunku ruchy precesyjne (Larmora)
ze ściśle określoną częstotliwością. Częstotliwość ta jest proporcjonalna
do natężenia pola magnetycznego. Dla pola o natężeniu H = 1 T (tesla) częstotliwość
Larmora wynosi 42,58 MHz, a dla pola H= 0,5 T jest o płowę mniejsza. Sa
to częstotliwości leżące w pasmie radiowym.
Aby uzyskać użyteczny diagnostycznie sygnał należy
zmienić kierunek momentów magnetycznych uprządkowanych wzdłuż stałego pola
na prostopadły do jego kierunku lub przeciwny. Dokonuje się tego impulsowo,
za pomocą energii dodatkowego pola magnetycznego wytworzonego przez cewkę
umieszczoną (na zewnątrz) w płaszczyźnie równoległej do kierunku pola stałego.
Cewka ta generuje krótki impuls o częstotliwości rezonansowej równej częstotliwości
Larmora. Stąd nazwa metody obrazowanie za pomocą rezonansu magnetycznego.
Następuje odchylenie momentów magnetycznych jąder wodoru o 90° lub 180°
. W tym stanie jądra pozostają prze czas trwania impulsu odchylajacego,
a następnie wracają do położenia wymuszanego przez pole stałe. Wracając
oddają energię dostarczoną przez cewke odchylająca wysyłając sygnał radiowy
o takiej samej częstotliwości. Po wysłaniu impulsu odchylającego cewka
staje się anteną i odbiera sygnał generowany przez jądra powracajace do
stanu wyjściowego. Przedmiotem pomiaru jest rezonansowa częstotliwość Larmora
oraz czasy relaksacji sygnałów, T1 pochodzacego od jąder odchylonych będący
następstwem narastania składowej momentu magnetycznego w kierunku pola
(relaksacja podłużna) i T2 (relaksacja poprzeczna) będący następstwem zanikania
składowej momentu magnetycznego w kierunku poprzecznym czyli w kierunku
odchylenia. Czasy relaksacji poprzecznej T2 i relaksacji wzdłużnej T1 różnią
się między sobą. T2 jest krótszy co jest powodowane między innymi utratą
zgodności fazowej ruchu precesyjnego protonów na skutek oddziaływań pomiędzy
spinami cząsteczek, zwłacza o znacznym stopniu swobody czasteczek wody.
Wartości częstotliwości Larmora i czasów relaksacji
zależą od gęstości protonów i rodzaju tkanki i tym samym stanowią podstawę
do rekonstrukcji obrazu przekroju ciała. W szczególności czynnikiem różnicującym
tkanki oraz zachodzące w nich zmiany chorobowe są czasy relaksacji T1 i
T2. Ponieważ na wartości czasów relaksacji mają wpływ warunki pomiaru (na
przykład stopień jednorodności pola magnetycznego), nie są one wyznaczane
wprost lecz za pośrednio metodami: nasycenia i odrostu, odwrócenia i odrostu
(T1) oraz echa spinowego (T2).
Czynnikiem wyznaczającym (ograniczającym) obszar
z którego zbierana jest informacja jest kształt rozkładu pola magnetycznego,
a w szczególności gradientów pola; gradientu wzdłuż osi pacjenta w celu
(wyodrębnienia) określenia położenia warstwy i gradientu pola poprzecznego
(wytworzonego przez oddzielną cewkę zewnętrzną) w celu identyfikacji poszczególnych
obiektów w warstwie.
Obrazowanie za pomocą pola biomagnetycznego
Źródłem informacji w tej metodzie jest pole magnetyczne
towrzyszące czynności elektrycznej organizmu, na przykład serca (ekg),
mózgu (eeg) itp. Pole to jest bardzo słabe w porównaniu z polem magnetycznym
Ziemi (maksymalnie 10-2 T) i wynosi w przybliżeniu dla serca 10-10 T, a
dla potencjałów wywołanych mózgu 10-13 T.
Jest to stosunkowo nowa metoda obrazowania czynności
elektrycznej narządów a zwłaszcza mózgu i może być komplementarną metodą
do metody PET. Pomiary tego pola są bardzo trudne i wymagają specjalnych
warunków. Izolowanych, od innych zewnętrznych pól zakłócających, pomieszczeń
i niezwykle czułych detektorów pola magnetycznego, wykorzystujących elementy
nadprzewodzące (SQUID).
Metoda ta zwana magnetografią, umożliwia obrazowanie
czynności mózgu lub innych narządów, z dokładnością
lokalizacji zmian (na przykład ogniska epilepsji) z dokładnością do kilku
milimetrów. Ta stosunkowo mała dokładnośc lokalizacji wymaga skorelowania
wyników z wynikami badań innymi metodami.
Obrazowanie nie elektromagnetyczne
Ultrasonografia
W ultrasonograficznym (a właściwie należałoby powiedzieć
ultrasonicznym, zastrzegając przyrostek graficzny dla obrazów zarejestrowanych
na papierze) sposobie obrazowania wykorzystywane są ultradźwięki. Informacje
o strukturze i czynności ruchowej narządów uzyskuje się na podstawie odbicia
wiązki fal ultradźwiękowych (efekt echa) od różniących się własnościami
fizycznymi struktur tkankowych lub zmiany ich częstotliwości (efekt Dopplera)
od ruchomych części narządów w penetrowanym obiekcie. Istnieją także metody
transmisyjne, lecz nie mają one większego znaczenia w diagnostyce medycznej.
Warto przypomnieć, że powstanie i rozwój ultrasonografii medycznej był
stymulowany osiągnięciami wojskowymi, w tym wypadku w dziedzinie radarów
i sonarów.
Częstotliwości stosowane w obrazowaniu medycznym
mieszczą się w zakresie od 0,5 (w badaniach leżących głęboko narządów jamy
brzusznej) do 15 MHz (w okulistyce i badaniach zmian tuż pod skórą np.
guzów sutka ). Trwają jednak obiecujące badania dotyczące możliwości wykorzystania
także wyższych częstotliwości aż do 70 MHz, które mogą znaleźć zastosowanie
do wizualizacji mikroobiektów, na przykład struktury powierzchniowej tkanek.
Główną trudnośc techniczną stanowi konstrukcja przetwornika drgań elektrycznych
na mechaniczne i odwrotnie. Należy bowiem wiedzieć, że przetwornik ultradźwiękowy
spełnia zarazem dwie role: nadajnika i odbiornika sygnału. Przetwornik
ultradźwiękowy dla częstotliwości niższych, zrobiony z ceramiki jest dość
masywny. Przetwornik generujący wyższe częstotliwości musi mieć bardzo
małą masę.
Ultrasonografia jest jedynym sposobem wizualizacji,
który nie jest oparty na elektromagnetycznym oddziaływaniu
czynnika penetrującego z ciałem człowieka.
Podstawą obrazowania ultradźwiękowego są informacje,
o gęstości, sprężystości tkanek i ruchomości narządów (lub przepływu krwi),
na podstawie pomiaru sposobu w jaki wiązka fal penetrująca ciało zostanie
odbita lub zmieniona jej częstotliwość. Informacje te są przetwarzane na
użyteczny diagnostycznie obraz prezentowany na ekranie monitora.
Obrazowanie ultradźwiękowe ma charakter tomograficzny
(w szczególności typ prezentacji B). Uzyskiwane obrazy przedstawiają przekrój
ciała lub narządu w płaszczyźnie przemieszczania wąskiej (do granicy możliwości)
wiązki fal penetrującej obiekt. Na podstawie danych zawartych w obrazach
dwuwymiarowych, podobnie jak w innych sposobach obrazowania, można zrekonstruować
obraz trójwymiarowy. Obrazy uzyskiwane są w czasie rzeczywistym czyli natychmiast
w trakcie badania.
Metody echa
W przeważającej większości urządzeń ultrasonograficznych
stosowanych w diagnostyce medycznej wykorzystywane jest efekt echa. Przetwornik
piezoelektryczny emituje krótkotrwały silnie tłumiony impuls drgań (o natężeniu
akustycznym od 1 do 10mW/cm2), który penetruje wnętrza ciała. Przechodząca
przez ciało wiązka ultradźwięków ulega osłabieniu na skutek rozproszenia,
odbicia i pochłonięcia przez tkanki leżące na jej drodze. Fale odbite od
poszczególnych granic strukrutr tkankowych wracają do przetwornika piezoelektrycznego,
który po wysłaniu impulsu przyjmuje rolę detektora. Skuteczność odbijania
fal akustycznych przez płaszczyzny odgraniczające sąsiednie struktury tkankowe
zależy od zmiany impedancji akustycznej występującej na danej granicy.
Wartość impedancji akustycznej Z tkanki jest iloczynem gęstości tkanki
r i prędkości c rozchodzenia się dźwięku w danej tkance.
Różnice impedancji pomiędzy poszczególnymi tkankami
miękkimi są bardzo małe. Podobnie bardzo mała (kilka promili) jest wartość
współczynnika odbicia fali, będącego funkcją różnicy impedancji akustycznej
tkanek przed i za odbijającą granicą. Szczególna sytuacja ma miejsce na
granicy tkanka powietrze gdzie odbicie jest prawie całkowite, oraz na
granicy tkanka miękka kość gdzie odbicie wynosi około 50%. Wynikają stąd
praktyczne wnioski: aby poprawić transmisję fali ultradźwiękowej pomiędzy
skórą badanego pacjenta a przetwornikiem należy umieścić żel eliminujący
warstewkę powietrza oraz unikać maskujących własności kości podczas badania
tkanek miękkich przez wyszukiwanie okienek pomiędzy kośćmi szkieletu w
celu wprowadzenia wiązki ultradźwiękowej do wnętrza ciała, na przykład
między żebrami podczas badania struktury serca. Widać z tego, że kość czaszki
stanowi istotną barierę dla ultradźwięków wskutek czego szczegółowe badanie
struktury mózgu metodą ultradźwiękową jest w bardzo dużym stopniu utrudnione.
W praktyce metoda ultrasonograficzna nie jest wykorzystywana do badań struktury
mózgu.
Przechodząca przez obiekt wiązka fal akustycznych
generuje znaczną liczbę ech, które są odbierane w sekwencji czasowej proporcjonalnej
do odległości miejsca odbicia od przetwornika. Poszczególne echa w postaci
pikseli są wyświetlane na monitorze tworząc obraz w postaci linii.
Wyróżnia się trzy sposoby prezentacji obrazu ultradźwiękowego uzyskiwanego
metodą echa: A, B i M.
-
Prezentacja typu A (nazywana tak ze względu na amplidudowy charakter modulacji,
po angielsku Amplitude), realizowana jest za pomocą nieruchomej, zawierającej
przetwornik, głowicy umieszczonej na powierzchni ciała. Dostarcza informacji
jednowymiarowych. Amplituda sygnałów echa jest przedstawiana jako funkcja
odległości od przetwornika, czyli głębokości położenia obiektu odbijającego.
Poruszające się wewnątrz ciała powierzchnie graniczne między tkankami można
rozpoznawać na podstawie przemieszczania się na osi odległości, w przód
i do tyłu odpowiadających im amplitud echa.
-
Prezentacja typu B (od angieskiego Brightness jasność) jest prezentacją
dwuwymiarową. Sygnał echa przedstawiany jest na monitorze w postaci pikseli
(świecących plamek) o jasności proporcjonalnej do jego amplitudy. Dwuwymiarowość
obrazu otrzymywana jest dzięki przesuwaniu głowicy z przetwornikiem po
powierzchni ciała. W rezultacie uzyskuje się obraz przekroju ciała w płaszczyźnie
wyznaczanej przez kierunek wiązki i kierunek ruchu głowicy. Ruch głowicy
po powierzchni ciała zastępowany jest w nowoczesnych rozwiązaniach ruchem
wahadłowym przetwornika znajdującego się wewnątrz głowicy. W ten sposób
otrzymuje się dwuwymiarowy obraz sektora ciała. Aby uzyskać obraz kolejnego,
przylegającego sektora należy przesunąć lub przechylić głowicę. Głowice
wyposażone w taki ruchomy przetwornik noszą nazwę sektorowych.
-
Prezentacja typu M (od angielskiego Motion ruch), uzyskiwana jest w podobny
sposób co w prezentacji A, to jest przy zachowaniu nieruchomości głowicy
zawierającej przetwornik. Różnica polega na tym, że echa są przedstawiane
jak w prezentacji B czyli w postaci plamek pikseli, o zróżnicowanej jasności.
Piksele kreślą linie na przesuwającym się papierze fotograficznym lub ekranie
monitora. Na podstawie przesuwanie się linii w górę i do dołu można ocenić
ruchomość badanych obiektów.
Metody doplerowskie
Źródłem informacji niezbędnych do utworzenia obrazu
dopplerowskiego jest zmiana częstotliwości wiązki fal akustycznych odbitych
od ruchomego obiektu. W szczególności dotyczy to obiektów (w tym także
krwi), które mają składową ruchu w kierunku propagacji wiązki. Zgodnie
z zasadą Dopplera (matematyczny związek pomiędzy zmianą długości fali odbitej
a częstotliwością fali padającej i kątam zawartym pomiędzy kierunkiem propoagacji
fali i kierunkiem ruchu obiektu odbijającego) jeśli obiekt zbliża się do
przetwornika, to częstotliwość fali odbitej zwiększa się i odwrotnie, maleje
gdy obiekt się oddala.
Szczególnie istotne znaczenie ten sposób wizualizacji
ma w diagnostyce układu krążenia, obejmującej czynność serca oraz przepływy
krwi w sercu, dużych naczyniach klatki piersiowej i większych tętnicach
obwodowych.
Metody wizualizacji dopplerowskiej obejmują dwa
rodzaje metod: metody fali ciągłej i metody impulsowe.
W metodzie fali ciągłej funkcje nadawczo - odbiorcze
przetwornika muszą być rozdzielone. Wiązka fal odbitych zawiera informacje
o poruszających się obiektach leżących w całym obszarze penetracji, co
powoduje że na przykład pomiar wartości natężenia przepływu krwi w konkretnym
naczyniu jest obarczony znacznym błędem. Zsadniczą wadą tej metody jest
jednak to, że nie dostarcza ona danych o położeniu obiektu (odległości
od przetwornika lub powierzchni ciała).
Wady tej nie ma metoda impulsowa. W celu uzyskania
informacji o badanym obiekcie leżącym na danej głębokości należy dokonać
selekcji sygnałów zwrotnych. W tym celu stosuje się bramkę, otwierającą
się tylko na te odbite impulsy (paczki fal odbitych), które wracają po
czasie potrzebnym na przebycie drogi (odległości) od danego obiektu. Zmieniając
chwilę otwarcia bramki można penetrować różne głebokości ciała. Analizowane
i przetwarzane na obraz są tylko te sygnały, które przychodzą we właściwym
czasie.
Oprócz informacji o rozkładzie prędkości, dopplerowskie
widmo częstotliwości zawiera także informacje o dynamice serca i przepływu
krwi (w sercu i naczyniach). (Aby je wydobyć należy zastosować odpowiednie
przekształcenia za pomocą szybkiej transformaty Fouriera).
Rozwinięciem techniki dopplerowskiej w zakresie
badania rozkładu prędkości przepływu krwi jest analiza przepływów w całym
przekroju narządu lub ciała i przedstawienia obrazu ultradźwiękowego tego
przekroju w postaci kodowanej kolorem (doppler kolorowy).