Нормальний Розподіл (воно ж Розподіл Гауса) носити граничний характер. До него за питань комерційної торгівлі умів сходяться всі Інші розподілу. Тому и деякі характеристики нормальних Випадкове величин бувають Єкстремальний. Це и буде застосовано при поймет на питання.
Інструкція
Для поймет на питання, чи є Випадкове величина нормальної, можна залучіті Поняття ентропія Н (x), что вінікає в Теорії информации. Праворуч в тому, что будь-яке дискретне ПОВІДОМЛЕННЯ, сформованому з n сімволів X = {x?, X?, ... Xn}, можна розуміті як дискретну Випадкове величину, завдання доручено ймовірностей. Если ймовірність использование символу, Наприклад х? дорівнює Р?, то така ж и ймовірність події X = х?. З термінів Теорії информации візьмемо ще Поняття кількості информации (точніше власної информации) I (xi) =? Og (1 / P (xi)) = -? OgP (xi). Для стіслості запису покладіть Р (хi) = Рi. Логарифм тут беруть за основу 2. У конкретних вирази Такі Підстави НЕ записують. Звідсі, до речі, и біт (binary digit) - біт.
Ентропія - це середня Кількість власної информации в одному значенні віпадкової величини H (x) = M [-? OgPi] = -? Pi •? OgPi (підсумовування ведетcя по i від 1 до n). Нею володіють и безперервні розподілу. Щоб обчісліті ентропію неперервної віпадкової величини, уявіть ее в дискретному виде. Розбійте ділянку області значень на малі інтервалі? Х (крок квантування). В якості можливости Значення візьміть середину відповідного? Х, а вместо его ймовірності використову елемент площади Pi? W (xi)? X. Сітуацію ілюструє рис. 1. На ньом, аж до дрібніх подробіць, зображена крива Гауса, что є графічнім представлених щільності ймовірності нормального розподілу. Тут же дана формула щільності ймовірності цього розподілу. Уважний розгляньте Цю криву, Порівняйте ее з тимі Даними, Якими ви володієте. Може, відповідь на питання Вже прояснівся? Если ні, Варто продовжіті.
Використову методику, запропоновану на попередня кроці. Складіть ряд ймовірностей тепер уже діскретної віпадкової величини. Знайдіть ее ентропію и граничних переходом при n>? (? X> 0) поверніться до безперервного розподілу. Всі викладка представлені на рис. 2.
Можна довести, что нормальні (гаусові) розподілу володіють максимальною ентропією в порівнянні з усіма іншімі. Пробачимо Обчислення з остаточної формулою попередня Кроку H (x) = M [-? Ogw (x)], Знайдіть Цю ентропію. Чи не Знадоби ніяке інтегрування. Досить властівостей математичного Очікування. Отримайте H (x) =? Og? (? ХV (2? E)) =? Og? (? Х) +? Og? (V (2? E)) ?? og? (? X) +2,045. Це можливий максимум. Тепер користуючися Якими Даними, про наявний у вас розподілі (починаючі від простої статистичної сукупності) Знайдіть его дісперсію Dx = (? X)?. Підставіте Обчислення? X у виразі для максімальної ентропії. Обчісліть ентропію досліджуваної вами віпадкової величини Н (x).
Складіть ставлені H (x) / Hmax (x) =?. Самостійно віберіть ймовірність ??, якові можна вважаті практично дорівнює одиниці при прійнятті решение про блізькість наявного у вас розподілу и нормального. Назвіть ее, скажімо, ймовірністю правдоподібності. Рекомендуються Значення більші, чем 0,95. Если Вийшла, що?> ??, То ві (з ймовірністю НЕ менше ??) маєте дело з розподілом Гаусса.