Dzisiaj jest 19 stycznia 2025 r.
Chcę dodać własny artykuł

Magnituda

Magnituda trzęsień ziemi

Magnituda, pochodząca z łaciny „wielkość”, jest miarą intensywności trzęsienia ziemi, określaną na podstawie momentu sejsmicznego. Pierwsza skala magnitudy została opracowana przez Ch.F. Richtera w 1935 roku, w celu klasyfikacji lokalnych wstrząsów w Kalifornii. Ta skala, znana jako skala Richtera, stała się podstawowym narzędziem w sejsmologii.

Obliczanie magnitudy

Oryginalna definicja magnitudy według Richtera opierała się na logarytmie dziesiętnym maksymalnej amplitudy znormalizowanego zapisu fali sejsmicznej z sejsmografu Wooda-Anderson, zlokalizowanego 100 km od epicentrum trzęsienia. Umożliwiło to porównywanie wstrząsów sejsmicznych na całym świecie.

W 1978 roku japoński geofizyk Hirō Kanamori wprowadził modyfikacje do metody obliczania magnitudy, aby lepiej określała energię silnych wstrząsów, eliminując zależność od przestarzałego sejsmografu. Obecne obliczenia magnitudy opierają się na momencie sejsmicznym, a w zakresie do około 7 są porównywalne ze skalą Richtera.

Wzór na magnitudę

Magnituda jest wyznaczana na podstawie danych dotyczących:

  • amplitudy ruchu gruntu
  • okresu fali
  • odległości epicentralnej
  • głębokości ogniska

Wzór na magnitudę Mw jest następujący:

M_\mathrm{w} = {\frac{2}{3}}\log(M_0) – 6

Wzrost magnitudy o jednostkę oznacza zwiększenie energii o około 30 razy. Warto zauważyć, że energia fal sejsmicznych to tylko część całkowitej energii trzęsienia ziemi, reszta rozprasza się w postaci ciepła i powoduje trwałe deformacje skał.