Принцип правдоподібностіУ статистиці при́нцип правдоподі́бності (англ. likelihood principle) полягає в тім, що для заданої статистичної моделі все свідчення у вибірці, що має відношення до параметрів моделі, міститься у функції правдоподібності. Функція правдоподібності виникає з функції густини ймовірності, яку розглядають як функцію від її аргументу розподілового параметризування. Наприклад, розгляньмо модель, яка дає функцію густини ймовірності ƒX(x | θ) спостережуваної випадкової змінної X як функцію від параметра θ. Тоді для конкретного значення x змінної X функція (θ | x) = ƒX(x | θ) є функцією правдоподібності θ: вона дає міру того, наскільки «правдоподібним» є певне значення θ, якщо ми знаємо, що X має значення x. Функція густини може бути густиною по відношенню до зліченної міри, тобто, функцією маси ймовірності. Дві функції правдоподібності є еквівале́нтними (англ. equivalent), якщо одна з них є добутком іншої на скаляр.[a] При́нцип правдоподі́бності (англ. likelihood principle) полягає в наступному: вся інформація з даних, доречна для висновувань про значення параметрів моделі, міститься в класі еквівалентності, до якого належить функція правдоподібності. Си́льний при́нцип правдоподі́бності (англ. strong likelihood principle) застосовує той самий критерій до таких випадків, як послідовні експерименти, де вибірка даних є результатами, доступними від ранішого застосування до спостережень в експерименті правила зупину.[1] ПрикладПрипустімо, що
Тоді спостереження X = 3 зумовлює функцію правдоподібності тоді як спостереження Y = 12 зумовлює функцію правдоподібності Принцип правдоподібності каже, що оскільки дані в обох випадках є однаковими, зроблені висновки про значення θ повинні також бути однаковими. Крім того, весь вміст для висновків з даних про значення θ міститься в цих двох правдоподібностях, і є однаковим, якщо вони є пропорційними одна одній. У наведеному вище прикладі саме так воно і є, відображуючи той факт, що різниця між спостеріганням X = 3 та Y = 12 полягає не в фактичних даних, а лише в плануванні експерименту. Детальніше, в одному випадку хтось вирішив наперед спробувати 12 разів, а в іншому — продовжувати пробувати, поки не проспостерігає три успіхи. Висновок про θ повинен бути однаковим, і це відображено в тому факті, що ці дві правдоподібності є пропорційними одна одній. Проте так буває не завжди. Використання частотницьких методів із застосуванням p-значень веде до різних висновків для цих двох випадків,[2] показуючи, що результат частотницьких методів залежить від процедури експериментування, і відтак порушує принцип правдоподібності. Закон правдоподібностіПов'язаним поняттям є зако́н правдоподі́бності (англ. law of likelihood) — уявлення про те, що міра, до якої свідчення підтримує одне значення параметру або гіпотези проти іншого, дорівнює відношенню їхніх правдоподібностей, їхньому відношенню правдоподібностей. Тобто, є мірою, до якої спостереження x підтримує значення параметру або гіпотези a проти b. Якщо цим відношенням є 1, то свідчення є нейтральним; якщо більше за 1, то свідчення підтримує a проти b; якщо менше, то навпаки. У баєсовій статистиці це відношення є відомим як коефіцієнт Баєса, а правило Баєса можливо розглядати як застосування закону правдоподібності до висновування. У частотницькому висновуванні відношення правдоподібностей використовують у перевірці відношенням правдоподібностей, але інші не правдоподібницькі перевірки використовують також. Лема Неймана — Пірсона[en] стверджує, що перевірка відношенням правдоподібностей є найпотужнішою перевіркою для порівнювання двох простих гіпотез на заданому рівні значущості, що дає законові правдоподібності частотницьке обґрунтування. З поєднання принципу правдоподібності з законом правдоподібності випливає, що значення параметру, яке максимізує функцію правдоподібності, є тим значенням, що найсильніше підтримується свідченням. Це є основою для широко вживаного методу максимальної правдоподібності. ІсторіяПринцип правдоподібності було вперше означено цією назвою в друці 1962 року (Барнард та ін., Бірнбаум, та Севідж та ін.), але аргументування такого ж принципу, безіменного, та використання цього принципу в застосуваннях сходять до праць Р. Е. Фішера 1920-х років. Закон правдоподібності було означено цією назвою Яном Гекінгом[en] (1965 рік). Останнім часом принцип правдоподібності як загальний принцип висновування відстоював Е. В. Ф. Едвардс[en]. Р. Роялл застосував принцип правдоподібності до філософії науки.[3] Бірнбаум[en] довів, що принцип правдоподібності випливає з двох простіших та позірно розумних принципів, принципу обумовленості та принципу достатності. Принцип обумовленості каже, що якщо експеримент обирають випадковим процесом, не залежним від станів природи , то лише цей фактично виконуваний експеримент має відношення до висновків про . Принцип достатності каже, що якщо є достатньою статистикою для , і якщо в двох експериментах з даними та ми маємо , то свідчення про , яке несуть ці два експерименти, є одним і тим же. Аргументи за та протиДеякі широко вживані методи звичайної статистики, наприклад, багато перевірок значущості, не відповідають принципові правдоподібності. Розгляньмо коротко деякі аргументи за та проти принципу правдоподібності. Первісний аргумент БірнбаумаПроти доведення Бірнбаума принципу правдоподібності виступали філософи науки, включно з Деборою Майо[en],[4][5] та статистики, включно з Майклом Евансом.[6] З іншого боку, Грегом Ганденбергером було запропоновано нове доведення принципу правдоподібності.[7] Аргументи планування експерименту стосовно принципу правдоподібностіВ деяких поширених статистичних методах мають значення нереалізовані події. Наприклад, результат перевірки значущості залежить від p-значення, ймовірності результату як екстремального або екстремальнішого за спостереження, а ця ймовірність може залежати від планування експерименту. В тій мірі, в якій приймають принцип правдоподібності, такі методи, відповідно, відхиляють. Деякі класичні перевірки значущості не ґрунтуються на правдоподібності. Широко цитованим прикладом є задача довільної зупинки. Припустімо, я сказав вам, що підкинув монету 12 разів, і в процесі проспостерігав 3 аверси. Ви могли би зробити якийсь висновок щодо ймовірності аверсів та щодо того, чи є ця монета справедливою. Припустімо тепер, що я кажу, що підкидав монету допоки не побачив 3 аверси, і підкинув її 12 разів. Чи зробите ви тепер інший висновок? Функція правдоподібності в обох випадках є однаковою: вона є пропорційною до Згідно принципу правдоподібності, висновки в обох випадках повинні бути однаковими. Припустімо, що ряд науковців оцінює в експериментальних пробах ймовірність певного результату (який ми повинні називати «успіхом»). Загальне уявлення підказує, що якщо зсуву в бік успіху або невдачі немає, то ймовірністю успіху буде половина. Андрій, науковець, здійснив 12 проб, й отримав 3 успіхи та 9 невдач. Потім він пішов з лабораторії. Богдан, колега з тієї ж лабораторії, продовжив Андрієву працю, й опублікував Андрієві результати, разом з перевіркою значущості. Він перевірив нульову гіпотезу, що p, ймовірність успіху, дорівнює половині, проти p < 0.5. Ймовірністю спостережуваного результату, що з 12 проб 3 або дещо менше (тобто, екстремальніше) були успішними, якщо H0 є істинною, є що становить 299/4096 = 7.3%. Відтак, нульову гіпотезу на рівні значущості 5% не відкидають. Вікторія, інша науковиця, читає працю Богдана, й пише листа, кажучи, що існує можливість, що Андрій продовжував спроби, поки не отримав 3 успіхи, в разі чого ймовірність потреби здійснити 12 або більше експериментів задається виразом що становить 134/4096 = 3.27%. Тепер цей результат є статистично значущим на рівні 5%. Зауважте, що між цими двома результатами немає суперечності, обидва обчислення є правильними. Для цих науковців, чи є результат значущим, чи ні, залежить від планування експерименту, а не від правдоподібності (в сенсі функції правдоподібності) того, що значенням параметру є 1/2. Дехто розглядає результати такого плану як аргументи проти принципу правдоподібності. Іншим вони ілюструють значення принципу правдоподібності, й є аргументом проти перевірок значущості. Подібні теми виникають при порівнюванні точної перевірки Фішера[en] з критерієм хі-квадрат Пірсона. Історія з вольтметромУ своїй книзі «Правдоподібність» (англ. «Likelihood») Едвардс навів на користь принципу правдоподібності такий аргумент. Він цитує наступну історію від Дж. В. Пратта, подану тут у дещо стислому вигляді. Зауважте, що функція правдоподібності залежить лише від того, що сталося фактично, але не від того, що могло статися.
Цю історію може бути перекладено на Андрієве правило зупину, наведене вище, наступним чином. Андрій зупинився негайно після 3 успіхів, оскільки його начальник Богдан доручив йому вчинити саме так. Після публікації Богданового статистичного аналізу Андрій зрозумів, що він випустив друге доручення від Богдана провести натомість 12 проб, а праця Богдана ґрунтується на цьому другому дорученні. Андрій дуже радий, що отримав свої 3 успіхи після рівно 12 проб, і пояснює своїй подрузі Вікторії, що за збігом обставин він виконав друге доручення. Пізніше він вражений почути про листа Вікторії, який пояснює, що тепер цей результат є значущим. Див. такожЗауваження
Примітки
Посилання
|