Przejdź do zawartości

Entropia binarna

Z Wikipedii, wolnej encyklopedii
Entropia zmiennej losowej X przyjmującej wartość 0 lub 1.

Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1.

Jeśli zachodzi z prawdopodobieństwem a zachodzi z prawdopodobieństwem to entropia Shannona wynosi:

gdzie:

jest przyjęte jako 0. Podstawą logarytmu zwykle jest 2. Zobacz logarytm binarny.

W przypadku kiedy entropia binarna przyjmuje maksymalną wartość i wynosi 1 bit.

Funkcja entropii binarnej w odróżnieniu od entropii Shannona przyjmuje jako argument liczbę rzeczywistą zamiast rozkładu prawdopodobieństwa

Pochodna

[edytuj | edytuj kod]

Pochodna funkcji entropii binarnej może być zapisana za pomocą funkcji logitowej:

Zobacz też

[edytuj | edytuj kod]

Linki zewnętrzne

[edytuj | edytuj kod]
pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy