Поэтапная оптимизация

Градуированная оптимизация — это метод глобальной оптимизации , который пытается решить сложную задачу оптимизации, изначально решая значительно упрощенную задачу и постепенно преобразуя ее (при оптимизации) до тех пор, пока она не станет эквивалентна сложной задаче оптимизации. [1] [2] [3]

Описание техники

Иллюстрация постепенной оптимизации.

Постепенная оптимизация — это усовершенствование метода восхождения на холм , которое позволяет восходящему на холм избегать остановок в локальных оптимумах. [4] Она разбивает сложную задачу оптимизации на последовательность задач оптимизации, так что первая задача в последовательности является выпуклой (или почти выпуклой), решение каждой задачи дает хорошую отправную точку для следующей задачи в последовательности, а последняя задача в последовательности — это сложная задача оптимизации, которую она в конечном итоге стремится решить. Часто ступенчатая оптимизация дает лучшие результаты, чем простое восхождение на холм. Кроме того, при наличии определенных условий можно показать, что она находит оптимальное решение для последней задачи в последовательности. Эти условия таковы:

  • Первую задачу оптимизации в последовательности можно решить, имея начальную отправную точку.
  • Локально выпуклая область вокруг глобального оптимума каждой задачи в последовательности включает точку, которая соответствует глобальному оптимуму предыдущей задачи в последовательности.

Можно показать индуктивно, что если эти условия выполнены, то Hill Climbinger придет к глобальному оптимуму для сложной проблемы. К сожалению, может быть сложно найти последовательность задач оптимизации, которая удовлетворяет этим условиям. Часто градуированная оптимизация дает хорошие результаты, даже когда нельзя доказать, что последовательность задач строго удовлетворяет всем этим условиям.

Некоторые примеры

Градуированная оптимизация обычно используется в обработке изображений для поиска объектов на более крупном изображении. Эту проблему можно сделать более выпуклой, размывая изображения. Таким образом, объекты можно найти, сначала выполнив поиск на самом размытом изображении, затем начав с этой точки и выполнив поиск на менее размытом изображении, и продолжая таким образом, пока объект не будет точно обнаружен на исходном четком изображении. Правильный выбор оператора размытия зависит от геометрического преобразования, связывающего объект на одном изображении с другим. [5]

Градуированная оптимизация может использоваться в многообразном обучении. Например, алгоритм Manifold Sculpting использует градуированную оптимизацию для поиска многообразного встраивания для нелинейного снижения размерности . [6] Он постепенно масштабирует дисперсию из дополнительных измерений в наборе данных, оптимизируя оставшиеся измерения. Он также использовался для расчета условий для фракционирования с опухолями, [7] для отслеживания объектов в компьютерном зрении, [8] и других целей.

Подробный обзор метода и его применения можно найти в [3] .

Имитация отжига тесно связана с градуированной оптимизацией. Вместо сглаживания функции, по которой она оптимизируется, имитация отжига случайным образом возмущает текущее решение на убывающую величину, что может иметь аналогичный эффект. [ необходима цитата ] Поскольку имитация отжига опирается на случайную выборку для поиска улучшений, ее вычислительная сложность экспоненциальна по числу оптимизируемых измерений. [ необходима цитата ] Напротив, градуированная оптимизация сглаживает оптимизируемую функцию, поэтому методы локальной оптимизации, которые эффективны в многомерном пространстве (такие как методы на основе градиента, Hill Climbing и т. д.), по-прежнему могут использоваться.

Смотрите также

Ссылки

  1. ^ Такер, Нил; Кутс, Тим (1996). «Методы оптимизации с градуированной невыпуклостью и множественным разрешением». Видение через оптимизацию .
  2. ^ Блейк, Эндрю; Зиссерман, Эндрю (1987). Визуальная реконструкция. MIT Press. ISBN 0-262-02271-0.[ нужна страница ]
  3. ^ ab Хоссейн Мобахи, Джон У. Фишер III. О связи между гауссовым гомотопическим продолжением и выпуклыми оболочками, в Lecture Notes in Computer Science (EMMCVPR 2015), Springer, 2015.
  4. ^ Халс, Дэниел; Тьюмер, Каган; Хойл, Кристофер; Тьюмер, Ирем (февраль 2019 г.). «Моделирование многопрофильного проектирования с использованием многоагентного обучения». AI EDAM . Том 33. С.  85–99 . doi :10.1017/S0890060418000161.
  5. ^ Хоссейн Мобахи, К. Лоуренс Зитник, Йи Ма. Видение сквозь размытость, Конференция IEEE по компьютерному зрению и распознаванию образов (CVPR), июнь 2012 г.
  6. ^ Гашлер, М.; Вентура, Д.; Мартинес, Т. (2008). «Итеративное нелинейное снижение размерности с помощью скульптурирования многообразий» (PDF) . В Platt, JC; Koller, D.; Singer, Y.; et al. (ред.). Достижения в области нейронных систем обработки информации 20. Кембридж, Массачусетс: MIT Press. стр.  513–20 .
  7. ^ Афанасьев, БП; Акимов, АА; Козлов, АП; Беркович, АН (1989). «Градуированная оптимизация фракционирования с использованием 2-компонентной модели». Radiobiologia, Radiotherapia . 30 (2): 131– 5. PMID  2748803.
  8. ^ Ming Ye; Haralick, RM; Shapiro, LG (2003). «Оценка кусочно-гладкого оптического потока с глобальным соответствием и постепенной оптимизацией». IEEE Transactions on Pattern Analysis and Machine Intelligence . 25 (12): 1625– 30. CiteSeerX 10.1.1.707.7843 . doi :10.1109/TPAMI.2003.1251156. 
Взято с "https://en.wikipedia.org/w/index.php?title=Градуированная_оптимизация&oldid=1194896543"