В математике гладкий максимум индексированного семейства x 1 , ..., x n чисел — это гладкое приближение к максимальной функции, то есть параметрическое семейство функций, такое что для каждого α функция является гладкой, и семейство сходится к максимальной функции как . Понятие гладкого минимума определяется аналогичным образом. Во многих случаях одно семейство аппроксимирует оба: максимум, когда параметр стремится к положительной бесконечности, минимум, когда параметр стремится к отрицательной бесконечности; в символах как и как . Этот термин также может использоваться в широком смысле для определенной гладкой функции, которая ведет себя подобно максимуму, не обязательно являясь частью параметризованного семейства.
Примеры
оператор Больцмана
Для больших положительных значений параметра следующая формулировка является плавной, дифференцируемой аппроксимацией функции максимума. Для отрицательных значений параметра, больших по абсолютной величине, она аппроксимирует минимум.
Это также можно нормализовать, если все неотрицательны, что даст функцию с областью определения и диапазоном :
Этот термин корректирует тот факт, что путем сокращения всех экспонент, кроме одной нулевой, и если все они равны нулю.
Меллоумакс
Оператор mellowmax [1] определяется следующим образом:
Это нерасширяющий оператор. Как , он действует как максимум. Как , он действует как среднее арифметическое. Как , он действует как минимум. Этот оператор можно рассматривать как частную реализацию квазиарифметического среднего . Его также можно вывести из принципов теории информации как способ регуляризации политик с функцией стоимости, определяемой дивергенцией KL. Оператор ранее использовался в других областях, таких как энергетика. [2]
^ ab Asadi, Kavosh; Littman, Michael L. (2017). «Альтернативный оператор Softmax для обучения с подкреплением». PMLR . 70 : 243–252. arXiv : 1612.05628 . Получено 6 января 2023 г. .
^ Safak, Aysel (февраль 1993 г.). «Статистический анализ суммы мощности множественных коррелированных логнормальных компонентов». IEEE Transactions on Vehicular Technology . 42 (1): {58–61. doi :10.1109/25.192387 . Получено 6 января 2023 г.
^ Бисвас, Кошик; Кумар, Сандип; Банерджи, Шилпак; Ашиш Кумар Пандей (2021). «SMU: Сглаженная функция активации для глубоких сетей с использованием метода сглаживания максимума». arXiv : 2111.04682 [cs.LG].
https://www.johndcook.com/soft_maximum.pdf
M. Lange, D. Zühlke, O. Holz и T. Villmann, «Применение lp-норм и их гладких аппроксимаций для квантования векторов обучения на основе градиента», в Proc. ESANN , апрель 2014 г., стр. 271–276. (https://www.elen.ucl.ac.be/Proceedings/esann/esannpdf/es2014-153.pdf)