Субградієнтний методСубградієнтні методи - це ітераційні методи вирішення задач мінімізації опуклості . Спочатку розроблений Наумом Шором та іншими у 1960-70-і роки, субградієнтні методи є збіжними, коли застосовуються навіть до недиференційованої цільової функції. Коли цільова функція є диференційованою, методи субградієнта для необмежених задач використовують той самий напрямок пошуку, що і метод найкрутішого спуску. Субградієнтні методи повільніші, ніж метод Ньютона, коли застосовуються для мінімізації подвійних безперервно диференційованих опуклих функцій. Однак метод Ньютона не зможе сходитись із проблемами, які мають недиференційовані перегини. В останні роки були запропоновані деякі методи внутрішніх точок для вирішення проблем мінімізації опуклих, але методи граградієнтного прогнозування та пов'язані з ним методи спуску залишаються конкурентоспроможними. Для проблем з мінімізацією опуклості з дуже великою кількістю розмірів підходять методи градієнтного проектування, оскільки вони потребують невеликого зберігання. Субградієнтні методи проєкції часто застосовуються до масштабних задач з технікою розкладання. Такі методи розкладання часто дозволяють простий розподілений метод для проблеми. Класичні субградієнтні правилаПрипустим є опуклою функцією з доменом . Класичний субградієнтний метод ітерується де позначає підградієнт у , і є ітерація . Якщо є диференційованим, то єдиним його градієнтом є градієнтний вектор . Може статися так не є напрямком спуску для у . Тому ми ведемо список що відслідковує найнижнє значення цільової функції, знайдене до цих пір, тобто Багато різних типів правил вибору розміру кроків використовуються субградієнтними методами. У цій статті зазначаються п'ять класичних правил ступінчастості, для яких відомі докази конвергенції:
Для всіх п’яти правил ступінчасті розміри визначаються "офлайн", перш ніж метод ітерується; розміри ступенів не залежать від попередніх ітерацій. Ця "офлайн" властивість субградієнтних методів відрізняється від "он-лайн" ступеневих правил, що застосовуються для методів спуску для диференційованих функцій: Багато методів мінімізації диференційованих функцій задовольняють достатнім умовам Вулфа для збіжності, де розміри кроків зазвичай залежать від поточної точки та поточного напрямоку пошуку. Широке обговорення правил покрокового визначення субградієнтних методів, включаючи інкрементальні версії, подано у книгах Берцекаса [1] та Берцекаса, Недіка та Оздаглара. [2] Результати збіжностіДля постійних довжин кроків та масштабованих субградієнтів, що мають евклідову норму, рівну одиниці, метод субградієнта сходиться до довільно близького наближення до мінімального значення, тобто
Ці класичні субградієнтні методи мають низьку продуктивність і більше не рекомендуються для загального використання. [3] [4] Однак вони все ще широко використовуються в спеціалізованих програмах, оскільки вони прості і їх можна легко адаптувати, щоб скористатися особливою структурою проблеми, що існує. Методи субградієнтного проектування та розшаруванняПротягом 1970-х років Клод Лемарешаль та Філ. Вулф запропонував "методи розшарування" спуску для проблем мінімізації опуклості. [5] Значення терміна "методи зв’язку" значно змінилося з того часу. Сучасні версії та повний аналіз збіжності надав Ківіль. [6] Сучасні методи розшарування часто використовують правила "контролю рівня " для вибору ступеневих розмірів, розробляючи методики методу "субградієнт-проєкція" Бориса Т. Поляка (1969). Однак існують проблеми, за якими методи зв’язку пропонують невелику перевагу перед методами субградієнтного проектування. [3] [4] Обмежена оптимізаціяПроектований субградієнтОдним з розширень методу субградієнта є прогнозований метод субградієнта, який вирішує обмежену задачу оптимізації.
де являє собою опуклий набір . Метод проектування субградієнта використовує ітерацію де є проєкцією на і є будь-яким субградієнтом у Загальні обмеженняМетод субградієнта може бути розширений для вирішення проблеми з обмеженням нерівності
де опуклі. Алгоритм приймає таку ж форму, як і необмежений випадок де - розмір кроку, і є субградієнтом цілі або однією з функцій обмеження при Візьмемо де позначає піддиференціал . Якщо поточна точка підходить, алгоритм використовує об'єктивний підградієнт; якщо поточна точка непідходить, алгоритм вибирає субградієнт будь-якого порушеного обмеження. Список літератури
Подальше читання
Зовнішні посилання |