Автокореля́ція (англ.autocorrelation), іноді відома як послідо́вна кореля́ція (англ.serial correlation), у випадку дискретного часу[en] — це кореляціясигналу із затриманою копією самого себе як функція від затримки. Неформально — це схожість між спостереженнями як функція від відставання в часі (англ.time lag) між ними. Аналіз автокореляції — це математичний інструмент для пошуку повторюваних закономірностей, таких як наявність періодичного сигналу, заекранованого шумом[en], або визначення відсутньої основної частоти[en] в сигналі, на яку натякають його гармонічні частоти. Його часто використовують в обробці сигналів для аналізу функцій або рядів значень, таких як сигнали часової області.
Різні галузі досліджень визначають автокореляцію по-різному, й не всі ці визначення є рівнозначними. У деяких галузях цей термін використовують взаємозамінно з автоковаріацією.
Віднімання середнього значення перед множенням дає автоковаріаці́йну фу́нкцію (англ.auto-covariance function) між моментами часу та :[1]:с.392[2]:с.168
Зауважте, що цей вираз не є однозначно визначеним для всіх часових рядів та процесів, оскільки середнього значення може не існувати, або дисперсія може бути нульовою (для сталого процесу) чи нескінченною (для процесів із розподілом без коректних моментів, таких як певні типи степеневого розподілу).
Визначення для стаціонарного в широкому сенсі стохастичного процесу
Якщо — стаціонарний у широкому сенсі процес, то середнє значення та дисперсія незалежні від часу, й відтак автоковаріаційна функція залежить лише від відставання між та : автоковаріація залежить лише від часової відстані між парою значень, але не від їхнього положення в часі. Це відтак означає, що автоковаріацію та автокореляцію можливо виразити як функцію від відставання в часі, й що вона буде парною функцією відставання в часі . Це дає звичніші вигляди автокореляційної функції[1]:с.395
Поширеною практикою в деяких дисциплінах (наприклад, у статистиці та аналізі часових рядів) є унормовувати автоковаріаційну функцію, щоб отримувати залежний від часу коефіцієнт кореляції Пірсона. Проте в деяких інших дисциплінах (наприклад, в інженерії) унормовування зазвичай пропускають, а терміни «автокореляція» та «автоковаріація» використовують як взаємозамінні.
Визначення коефіцієнта автокореляції стохастичного процесу:[2]:с.169
Якщо функція однозначно визначена, її значення мусять лежати в діапазоні , причому 1 вказує на ідеальну кореляцію, а −1 — на ідеальну антикореляцію.
Унормовування важливе як тому, що інтерпретація автокореляції як кореляції забезпечує безмасштабну міру сили статистичної залежності, так і тому, що воно впливає на статистичні властивості оцінюваних автокореляцій.
Властивості
Властивість симетрії
Той факт, що автокореляційна функція парна, може бути сформульовано як[2]:с.171
Для дійснозначних функцій симетрична автокореляційна функція має дійсне симетричне перетворення, тож теорему Вінера — Хінчина[en] можливо виразити в термінах лише дійсних косинусів:
Автокореляція випадкових векторів
(Потенційно залежна від часу) автокореляці́йна ма́триця (англ.auto-correlation matrix, також звана другим моментом) (потенційно залежного від часу) випадкового вектора — це матриця , яка містить як елементи автокореляції всіх пар елементів випадкового вектора . Автокореляційну матрицю використовують у різних алгоритмах цифрової обробки сигналів.
Автоковаріаційна матриця додатно напіввизначена,[3]:с.190 тобто, для всіх для дійсного випадкового вектора, й відповідно для всіх у разі комплексного випадкового вектора.
Усі власні значення автокореляційної матриці є дійсними та невід'ємними.
Автоковаріаційна матриця пов'язана з автокореляціною матрицею наступним чином:Відповідно, для комплексних випадкових векторів:
Автокореляція детермінованих сигналів
В обробці сигналів наведене вище визначення часто використовують без унормовування, тобто без віднімання середнього значення й ділення на дисперсію. Коли автокореляційну функцію унормовують за середнім значенням та дисперсією, її іноді називають коефіціє́нтом автокореля́ції (англ.autocorrelation coefficient)[4] або автоковаріаційною функцією.
Автокореляція неперервночасового сигналу
За заданого сигналу неперервну автокореляцію найчастіше визначають як неперервний взаємнокореляційний інтеграл із самим собою, з відставанням .[1]:с.411
де являє собою комплексне спряження. Зверніть увагу, що параметр в інтегралі є фіктивною змінною, необхідною лише для обчислення інтеграла. Вона не несе конкретного змісту.
Автокореляція дискретночасового сигналу
Дискретна автокореляція за відставання для дискретночасового сигналу часу :
Наведені вище визначення працюють для квадратно інтегровних або квадратно сумовних сигналів, тобто, зі скінченною енергією. Сигнали, що «тривають вічно», натомість розглядають як випадкові процеси, й у цьому випадку необхідні відмінні визначення, на основі математичних сподівань. Для стаціонарних у широкому сенсі випадкових процесів автокореляції визначають як
Для процесів, що не є стаціонарними, вони також будуть функціями від та .
Для процесів, що є також ергодичними[en], математичне сподівання можливо замінити границею усереднення за часом. Автокореляцію ергодичного процесу іноді визначають як, або прирівнюють до[4]
Ці визначення мають ту перевагу, що вони дають осмислені однозначно визначені однопараметрові результати для періодичних функцій, навіть якщо ці функції не є результатом стаціонарних ергодичних процесів.
Крім того, сигнали, які тривають вічно, можливо розглядати за допомогою аналізу віконних автокореляційних функцій (англ.short-time autocorrelation function analysis), застосовуючи скінченні інтеграли за часом. (Про пов'язаний процес див. віконне перетворення Фур'є.)
Визначення для періодичних сигналів
Якщо — неперервна періодична функція з періодом , то інтегрування від до замінюють інтегруванням над будь-яким інтервалом довжини :що рівнозначне
Властивості
Далі ми опишемо властивості лише одновимірних автокореляцій, оскільки більшість властивостей легко переносяться з одновимірного випадку на багатовимірні. Ці властивості справедливі для стаціонарних у широкому сенсі процесів.[5]
Основною властивістю автокореляції є симетрія, , що легко довести з визначення. У неперервному випадку
Неперервна автокореляційна функція досягає свого піку в початку координат, де вона набуває дійсного значення, тобто, для будь-якої затримки , .[1]:с.410 Це — наслідок нерівності перестановок. Той самий результат має місце і в дискретному випадку.
Автокореляція періодичної функції сама по собі є періодичною, з тим самим періодом.
Автокореляція суми двох абсолютно некорельованих функцій (взаємна кореляція дорівнює нулеві для всіх ) є сумою автокореляцій кожної з функцій окремо.
Оскільки автокореляція є особливим видом взаємної кореляції, вона зберігає всі властивості взаємної кореляції.
За допомогою символу для подання згортки, й функції , що маніпулює функцією , й визначена як , визначення для може бути записано так:
Коли перед обчисленням автокореляційної функції від сигналів віднімають середні значення, отриману функцію зазвичай називають автоковаріаційною функцією.
Ефективне обчислення
Для даних, виражених як дискретна послідовність, часто необхідно обчислювати автокореляцію з високою обчислювальною ефективністю. Метод грубої сили[en], що ґрунтується на визначенні обробки сигналу , можливо використовувати, коли розмір сигналу невеликий. Наприклад, для обчислення автокореляції послідовності дійсного сигналу (тобто, , й для всіх інших значень i) вручну ми спочатку з'ясовуємо, що щойно наведене визначення таке саме, як і «звичайне» множення, але зі зміщеннями праворуч, де кожне вертикальне додавання дає автокореляцію для певних значень відставання:
Таким чином, потрібна послідовність автокореляції — , де а автокореляція для інших значень відставання дорівнює нулеві. В цьому обчисленні ми не виконуємо операцію перенесення під час додавання, як це зазвичай відбувається при звичайному множенні. Зауважте, що ми можемо зменшити кількість необхідних операцій вдвічі, використовуючи притаманну автокореляції симетрію. Якщо сигнал виявляється періодичним, тобто то ми отримуємо циклічну автокореляцію (англ.circular autocorrelation, подібну до циклічної згортки[en]), де лівий та правий хвости попередньої автокореляційної послідовності перекриватимуться й даватимуть , що має той самий період, що й послідовність сигналу Цю процедуру можливо розглядати як застосування властивості згортки Z-перетворення дискретного сигналу.
В той час як алгоритм грубої сили має порядокn2, існує декілька ефективних алгоритмів, які можуть обчислювати автокореляцію в межах порядку n log(n). Наприклад, Теорема Вінера — Хінчина[en] дозволяє обчислювати автокореляцію з сирих даних X(t) за допомогою двох швидких перетворень Фур'є (англ.fast Fourier transforms, FFT):[6][сторінка?]
Як альтернатива, кореляцію для декількох τ можливо виконувати, використовуючи обчислення грубою сили для низьких значень τ, а потім поступово об'єднуючи дані X(t) з логарифмічною густиною для обчислення для вищих значень, що дає ту ж ефективність n log(n), але з нижчими вимогами до пам'яті.[7][8]
Оцінювання
Для дискретного процесу з відомими середнім значенням та дисперсією, для якого ми спостерігаємо спостережень , оцінку коефіцієнта автокореляції можна отримати через
для будь-якого додатного цілого . Коли істинне середнє значення та дисперсія відомі, ця оцінка є незмі́щеною (англ.unbiased). Якщо істинне середнє значення та дисперсія процесу невідомі, є декілька можливостей:
Якщо та замінити стандартними формулами для вибіркового середнього та вибіркової дисперсії, то це змі́щена оці́нка (англ.biased estimate).
Інші можливості випливають із розгляду двох частин даних та окремо, та обчислення окремих вибіркових середніх та/або вибіркових дисперсій для використання при визначенні оцінки.[джерело?]
Перевага оцінок останнього типу полягає в тому, що набір оцінених автокореляцій, як функція від , потім формує функцію, яка є дійсною автокореляцією в тому сенсі, що можливо визначити теоретичний процес, що має саме таку автокореляцію. Інші оцінки можуть страждати від проблеми, що, якщо їх використовують для обчислення дисперсії лінійної комбінації -ів, то обчислювана дисперсія може виявлятися від'ємною.[11]
У звичайних найменших квадратах[en] (ЗНК, англ.ordinary least squares, OLS) адекватність специфікації моделі можливо частково перевіряти, встановлюючи, чи існує автокореляція залишків регресії. Проблемну автокореляцію похибок, що самі по собі неспостережні, зазвичай можливо виявляти через те, що вона створює автокореляцію у спостережуваних залишках. (Похибки також відомі як «члени похибки», англ.error terms, в економетрії.) Автокореляція похибок порушує припущення звичайних найменших квадратів, що члени похибки некорельовані, що означає незастосовність теореми Гауса — Маркова, і що оцінювачі ЗНК вже не є найкращими лінійними незміщеними оцінювачами (НЛНО, англ.Best Linear Unbiased Estimators, BLUE). Хоч це й не зміщує оцінок коефіцієнтів ЗНК, але коли автокореляції похибок при малих відставання є додатними, то стандартні похибки, як правило, недооцінюються (а t-показники[en] завищуються).
Традиційною перевіркою на наявність автокореляції першого порядку є критерій Дарбіна — Уотсона, або, якщо пояснювальні змінні включають залежну змінну з відставанням, h-критерій Дарбіна. Проте, Дарбіна — Уотсона можливо лінійно відобразити на кореляцію Пірсона між значеннями та їхніми відставаннями.[12] Гнучкішим критерієм, що охоплює автокореляцію вищих порядків, і є застосовним незалежно від того, чи включають незалежні змінні відставання залежної змінної, є критерій Бройша — Ґодфрі[en]. Він включає допоміжну регресію залишків, отримуваних в результаті оцінки цільової моделі, на (а) первинні незалежні змінні, та (б) k відставань залишків, де «k» є порядком цього критерію. Найпростішим варіантом статистичного критерію з цієї допоміжної регресії є TR2, де T — розмір вибірки, а R2 — коефіцієнт детермінації. За нульової гіпотези відсутності автокореляції ця статистика асимптотично має розподіл з k ступенями вільності.
В оцінюванні моделлю ковзного середнього[en] (КС) функцію автокореляції використовують, щоби визначати, яку кількість членів відставання буде доречно включити. Це ґрунтується на тому факті, що для процесу КС порядку q маємо для , й для .
Автокореляцію використовують для аналізу даних динамічного розсіювання світла[en], що, зокрема, дозволяє визначати розподіл розмірів нанометрових частинок або міцел, зважених у рідині. Лазер, що світить у суміш, створює спекл-структуру[en], яка виникає в результаті руху частинок. Автокореляцію цього сигналу можливо аналізувати з точки зору дифузії частинок. З цього, знаючи в'язкість рідини, можливо обчислювати розміри частинок.
Використовують у системі GPS для уточнення затримки поширювання[en], або часового зсуву між моментом передачі опорного сигналу на супутниках і моментом часу в приймачі на землі. Для цього приймач генерує копію сигналу 1 023-бітового коду C/A (англ.Coarse/Acquisition), і генерує рядки кодових імпульсів [-1,1] у пакетах по десять за раз, або 10 230 імпульси (1 023 × 10), злегка зміщуючись по ходу, щоби врахувати доплерівський зсув у вхідному супутниковому сигналі, доки сигнал приймачевої копії та коди супутникового сигналу не збіжаться.[16]
Інтенсивність малокутового рентгенівського розсіювання наноструктурної системи — це перетворенням Фур'є просторової автокореляційної функції електронної густини.
Дифракціювальники рентгенівських променів використовують автокореляцію в просторі замість часу за допомогою функції Паттерсона[en], щоби полегшувати відновлення «фазової інформації Фур'є» про положення атомів, недоступної за допомогою самої лише дифракції.
У статистиці просторова автокореляція між положеннями зразків також допомагає оцінювати невизначеність середнього значення[en] під час вибірки з неоднорідної сукупності.
Алгоритм SEQUEST[en] для аналізу спектрів мас використовує автокореляцію у поєднанні зі взаємною кореляцією, щоб оцінювати подібність спостережуваного спектру до ідеалізованого спектру, що подає якийсь пептид.
В астрофізиці автокореляцію використовують для вивчення та характеризування просторового розподілу галактик у Всесвіті, та при багатохвильових спостереженнях рентгенівських подвійних малої маси.
У панельних даних[en] просторова автокореляція стосується кореляції змінної з самою собою в просторі.
У науках про Землю (зокрема в геофізиці) її можливо використовувати для обчислення автокореляційного сейсмічного параметра за допомогою тривимірної сейсмічної зйомки під землею.
У медичній ультразвуковій візуалізації автокореляцію використовують для унаочнювання кровотоку.
Послідо́вна зале́жність (англ.serial dependence) тісно пов'язана з поняттям автокореляції, але подає окреме поняття (див. кореляцію та залежність). Зокрема, можливо мати послідовну залежність за відсутності (лінійної) кореляції. Проте у деяких областях ці два терміни використовують як синоніми.
Часовий рядвипадкової величини має послідовну залежність, якщо значення в якийсь момент часу цього ряду статистично залежне від значення в інший момент часу . Ряд є послідовно незалежним, якщо між будь-якою парою моментів часу залежності немає.
Якщо часовий ряд стаціонарний, то статистична залежність всередині пари означала би, що існує статистична залежність між усіма парами значень з однаковим відставанням .
↑ абвгдежGubner, John A. (2006). Probability and Random Processes for Electrical and Computer Engineers. Cambridge University Press. ISBN978-0-521-86470-1. (англ.)
↑ абвгдеKun Il Park, Fundamentals of Probability and Stochastic Processes with Applications to Communications, Springer, 2018, ISBN 978-3-319-68074-3(англ.)
↑ абвPapoulis, Athanasius, Probability, Random variables and Stochastic processes, McGraw-Hill, 1991 (англ.)
↑Proakis, John (31 серпня 2001). Communication Systems Engineering (2nd Edition) (вид. 2). Pearson. с. 168. ISBN978-0130617934. (англ.)
↑Box, G. E. P.; Jenkins, G. M.; Reinsel, G. C. (1994). Time Series Analysis: Forecasting and Control (вид. 3rd). Upper Saddle River, NJ: Prentice–Hall. ISBN978-0130607744. (англ.)