Ilość informacji
Ilość informacji jest miarą, która opisuje ilościowo proces redukcji niepewności związanej z zajściem określonego zdarzenia. Termin ten jest kluczowy w matematycznej teorii informacji, a jego ilościowy aspekt badają statystyczno-syntaktyczne teorie Hartleya i Shannona. W tej teorii, miary ilości informacji opierają się na prawdopodobieństwie zdarzeń, gdzie mniej prawdopodobne zdarzenia dostarczają więcej informacji, ignorując przy tym znaczenie semantyczne komunikatów na rzecz ich składni.
Miary ilości informacji
- Ilość informacji przy zajściu zdarzenia:
Definiowana jako entropia zdarzenia , określona wzorem:
gdzie to prawdopodobieństwo zdarzenia , a to podstawa logarytmu. Najczęściej stosuje się (bit), (nat) oraz (dit).
- Przeciętna ilość informacji:
Obliczana jako entropia bezwarunkowa zbioru , wyrażona wzorem:
gdzie to entropia zbioru, to liczba zdarzeń, a to prawdopodobieństwo zajścia zdarzenia .
- Informacja wzajemna:
Określa ilość informacji o zdarzeniach zbioru , zawartej w zdarzeniach zbioru , wyrażona wzorem:
gdzie to informacja wzajemna, to entropia bezwarunkowa, a to entropia warunkowa zbioru pod warunkiem .
Gdy komunikat redukuje niepewność do zera, ilość przekazanej informacji równa się entropii źródła: Z kolei , co odnosi się do samoinformacji.
Przypisy
Kategoria: Teoria informacji