Magnituda trzęsień ziemi
Magnituda, pochodząca z łaciny „wielkość”, jest miarą intensywności trzęsienia ziemi, określaną na podstawie momentu sejsmicznego. Pierwsza skala magnitudy została opracowana przez Ch.F. Richtera w 1935 roku, w celu klasyfikacji lokalnych wstrząsów w Kalifornii. Ta skala, znana jako skala Richtera, stała się podstawowym narzędziem w sejsmologii.
Obliczanie magnitudy
Oryginalna definicja magnitudy według Richtera opierała się na logarytmie dziesiętnym maksymalnej amplitudy znormalizowanego zapisu fali sejsmicznej z sejsmografu Wooda-Anderson, zlokalizowanego 100 km od epicentrum trzęsienia. Umożliwiło to porównywanie wstrząsów sejsmicznych na całym świecie.
W 1978 roku japoński geofizyk Hirō Kanamori wprowadził modyfikacje do metody obliczania magnitudy, aby lepiej określała energię silnych wstrząsów, eliminując zależność od przestarzałego sejsmografu. Obecne obliczenia magnitudy opierają się na momencie sejsmicznym, a w zakresie do około 7 są porównywalne ze skalą Richtera.
Wzór na magnitudę
Magnituda jest wyznaczana na podstawie danych dotyczących:
- amplitudy ruchu gruntu
- okresu fali
- odległości epicentralnej
- głębokości ogniska
Wzór na magnitudę Mw jest następujący:
Wzrost magnitudy o jednostkę oznacza zwiększenie energii o około 30 razy. Warto zauważyć, że energia fal sejsmicznych to tylko część całkowitej energii trzęsienia ziemi, reszta rozprasza się w postaci ciepła i powoduje trwałe deformacje skał.