Приложение для Application for PID control
Введение. В 1995 году Кеннеди и Элберхарт, вдохновленные тем, как птицы ищут себе пищу, предложили алгоритм оптимизации роя частиц (PSO), который привлек внимание ученых кругов и продемонстрировал превосходство в решении практических задач. PSO – это тип эволюционного алгоритма, который похож на алгоритм имитации отжига (SA). PSO начинается из случайного решения, ищет итеративно оптимальное решение, а затем оценивает качество решения на основе пригодности. PSO следует текущему оптимальному значению для поиска глобального оптимума, поэтому он проще, чем генетический алгоритм (GA), без необходимости для операций «крест» и «мутация». Однако PSO страдает двумя проблемами: преждевременная конвергенция и медленная конвергенция на поздней стадии. В последние два десятилетия многие исследователи сосредоточились на решении этих проблем путем введения некоторых методов и концепций. (Далее перечисляются эти методы) Концепция веса инерции была введена и применена в формуле Y.Shi и Эберхарта, они установили вес от 0,9 до 0,4 для обеспечения баланса между эксплуатацией и исследованием. На основании этого более поздние исследователи разработали адаптивный инерционный вес и коэффициенты. Чтобы избежать преждевременной сходимость роя частиц, Риджет Дж. и Вестерстрим Джс. предложили концепцию многообразия: они устанавливают нижнюю границу многообразия для хорошей поисковой возможности роя. Идея имитации отжига (SAPSO) была введена, чтобы помочь частице выпрыгнуть из локального оптимума [9]. Серый реляционный анализ был введен для изменения параметров PSO, чтобы помочь улучшить производительность алгоритма [10]. Идея хаотического поиска для глобального поиска была предложена в [11], которая была улучшена введением алгоритма квадратичной последовательности программы (SQP) для ускорения сходимости в [12]. Градиентный поиск для точного вычисления глобальный минимум был предложен в [13]. Между тем, некоторые исследователи сосредоточились на структурных и гетерогенный фактор, такой как SIPSO [14], SFPSO [15] и LIPSO [16]. Чтобы решить мультимодальные проблемы, J.J. Лян предложил всеобъемлющий обучающий частицу оптимизатор роя (CLPSO) [17]. Позже Лян и Сугантан предложили адаптивный оптимизатор с историческим обучением, для которого вероятности обучения частиц отрегулированы адаптивно. Исходя из этого, исследователи поняли, что метод поиска CLPSO был достаточно эффективным для поиска глобального оптимума. Однако CLPSO имел медленное разрешение как недостаток. К этому моменту было предложено несколько его улучшенных версий. Ортогональный экспериментальный дизайн был введен в CLPSO для того, чтобы определить лучшую комбинацию обучения из лучшей позиции частицы или её исторически сложившихся соседей [19]. Zheng et al. [20] было предложено ACLPSO, который адаптивно устанавливает коэффициенты алгоритма, то есть вес инерции и коэффициент ускорения. Насир [21] предложил DNLPSO, в котором использовалась стратегия обучения, при которой все историческая лучшая информация других частиц была использована для обновления скорости частицы, как в CLPSO. Однако, в отличие от CLPSO, образец частицы был выбран из окрестности. Окрестности создавались динамически по своей природе, то есть реформировались через определенные промежутки времени. Сян Юй ввел некое возмущение в итерационные формы CLPSO. Он определил вероятности обучения частиц между их историческими лучшими ценностями и размерные границы. Поскольку есть предел для возмущения, это ускорит конвергенцию. На основе CLPSO, некоторые многоцелевые задачи оптимизации могут быть решены с использованием концепции доминирования Парето. В этом исследовании был предложен новый улучшенный алгоритм, названный LILPSO, который был основан на CLPSO, введя метод интерполяции Лагранжа. Есть два основных различия между LILPSO и CLPSO. Во-первых, когда этот алгоритм работает как метод поиска CLPSO, иногда вводится одно интерполяционное вычисление Лагранжа для каждого измерения лучшей точки ( Остальная часть этой статьи организована следующим образом: в разделе 2 представлены связанные работы, касающиеся PSO и CLPSO, и обсуждается теория интерполяции Лагранжа. В разделе 3 предлагается LILPSO обсуждается достаточно подробно. В разделе 4 приведены экспериментальные результаты на разных функции, чтобы доказать превосходство LILPSO. В разделе 5 представлены выводы документа.
Сопутствующие работы 2.1 PSO algorithm (Метод роя частиц) Предполагая, что проблема оптимизации:
Если частица обозначается как
где 2.2 CLPSO algorithm (Комплексное Обучение Метода Роя Частиц) Итерационная функция CLPSO отличается от стандартной PSO:
где,
2.3 Lagrange interpolation (Метод интерполяции Лагранжа) Теория интерполяции Лагранжа заключается в использовании полинома для представления отношения между несколькими объектами. Например, при наблюдении физической величины, если мы получаем разные значения в разных местах, то полином может быть смоделирован методом интерполяции Лагранжа. Цель этого метода в основном - подбор данных в инженерных экспериментах. Это своего рода метод плавного подбора кривой. Как правило, если оптимумы (позиции / пригодности)
Если мы хотим оценить точку
где ошибка
Предлагаемые методы 3.1 Local search with Lagrange interpolation (LSLI) (Локальный поиск с помощью метода интерполяции Лагранжа) Основная идея метода поиска CLPSO состоит в том, чтобы заставить частицу сменить максимально возможное количество локальных оптимумов. Следовательно, уравнение 3 CLPSO обрезает глобальную часть оптимума по сравнению с уравнением 1 PSO. Более того, после изучения оптимума другой частицы, CLPSO устанавливает значение разрыва m, чтобы обработать эту информацию. Эта процедура замедляет сходимость частиц роя, однако является полезна для решения многомодальной функций. Чтобы ускорить конвергенцию, было решено добавить в CLPSO своего рода локальный поиск. Безусловно есть несколько видов эффективной техники: субградиент, возмущение, мутация или хаотический поиск с соседством. Техника субградиента может легко найти направление сходимости. Однако для прерывистых и недифференцируемых задач полученное направление вводит в заблуждение сходимость. В дополнение размер шага определить сложно. На технику возмущения с соседством не влияет по форме функции. Однако этот метод не имеет направления сходимости, и обычно нуждается во многих дополнительных оценках функций (FE). Следовательно, мы адаптируем технику локального поиска лагранжевой интерполяции, чтобы ослабить эти проблемы. Для j-го измерения (итерации)
где v (i, j) - скорость частицы, которая наилучшим образом подходит для каждой итерации; η - очень маленький коэффициент. В этом исследовании устанавливается
где
После вычислений получается квадратичный полином:
На рис. 1 показаны различные случаи искомого решения. В случае, когда
По сравнению с другими методами локального поиска интерполяция Лагранжа имеет три характеристики. Во-первых, этот метод имеет очень высокую скорость сходимости, особенно для одномодальных функций. Например, для вычисления функции сферы, глобальный оптимум которой 3.2 Lagrange interpolation learning (LIL) В CLPSO, если Чтобы избежать как застойной природы частицы, так и преждевременной конвергенции, авторы статьи гарантируют, что информация образца имеет две характеристики. Во-первых, пригодность образца, по крайней мере, лучше, чем Это поисковое поведение имеет три сильных стороны: во-первых, образец является минимумом из интерполяция Лагранжа с тремя точками, которые являются двумя 3.3 Parametric settings Для удобного вычисления планируется запустить LSLI для N раз, который равен размеру частицы роя. Однако, для честного сравнения, отмечается, что будет 3*D дополнительных FE для каждого LSLI, и надеются, что суммарные FE всех сравниваемых алгоритмов равны, поэтому сокращают максимальное число итераций (max_gen) до max_gen - 3*D. Стоимость FE в LSLI составляет 3*D*N, и стоимость FE на остальной части Когда запускать LSLI? Устанавливается разрыв g,
Для сравнения с OLPSO в этом алгоритме выбраны
где α = 0,2.
Numerical experiments
В таблице представлены семнадцать функций, где F1, F3, F4 и F5 - унимодальные функции; Розенброк (F2) является мультимодальной функцией, имеющей узкую долину и трудно достижимый глобальный оптимум; F5 - шумная функция, у которой есть дискретная проблема; не повернутые мультимодальные функции включают F6-F11; F12 и F13 вращаются мультимодальные функции; F14-F16 - сдвинутые повернутые мультимодальные функции. Ортогональный матрица M генерируется согласно [38]. Так как некоторые другие алгоритмы, такие как PSO-cf-local [36], UPSO [40], FIPS [41] и DMSPSO [42], доказано, что они менее превосходят CLPSO в ссылке [19]; следовательно, в этом исследовании мы просто нужно сравнить LILCLPSO с CLPSO, ECLPSO, OLPSO и DNLPSO, чей итеративный формы представлены в таблице 2. Параметрическая настройка ЭКЛПСО такая же, как ЭКЛПСО-4 в [22]. Поскольку мы не знаем точную ортогональную матрицу для OLPSO, мы вводим результат непосредственно из ссылки [19]. Для DNLPSO нет точных данных топологии, поэтому вводится результат непосредственно из ссылки [26]. Чтобы доказать производительность LSLI и LIL, тестируются два алгоритма, называемые LILPSO1 и LILPSO2, где, LILPSO1 просто адаптирует технику LSLI, а LILPSO2 адаптирует и технику LSLI, и LIL. Для задач 10*D используются следующие параметры: количество частиц - 50, номер итерации - 2000 и FE - 100 000; Для задач 30*D используются следующие параметры: количество частиц - 40, число итераций - 5000 и FE - 200 000; Для задач 50*D используются следующие параметры: номер частицы - 100, номер итерации - 5000 и FE - 500 000. Каждая функция, каждый алгоритм выполняется по 25 раз, и решения анализируются с использованием двухстороннего t-критерия с уровнем достоверности 0,05, ‘+’, ‘-’ и ‘=’ означают, что LILPSO лучше, хуже и равны другим алгоритмам статистически соответственно. Для одномодальных и низкоразмерных задач DNLPSO имеет относительно лучшую производительность. Для шумной функции F5 LILPSO имеет лучшую производительность. Для универсальной функции F3, DNLPSO и LILPSO имеют равные решения. Потому что итеративная форма DNLPSO содержит Для мультимодальных задач DNLPSO мало превосходит LILPSO практически по всем функциям. Сравнивая OLPSO с LILPSO в 30D задачах, для F2 и F8, LILPSO имеет лучшее решения - для F6, F7, F9, F10 и F11, - LILPSO имеет статистически равные решения с OLPSO, которые иллюстрируют, что метод интерполяции Лагранжа может помочь ускорить сходимость при выполнении локального поиска. Для F12, F13 и F14 OLPSO превосходит LILPSO, который иллюстрирует, что LSLI ограничен вращающимися проблемами, хотя все еще лучше, чем CLPSO. Сравнивая LILPSO1 с LILPSO2, для большинства проблем LILPSO2 превосходит LILPSO1, который показывает, что LIL может помочь в обмене информацией LSLI для ускорения конвергенции. Между тем, в отличие от Сравнивая CLPSO с LILPSO, LILPSO предлагает решения, лучшие, чем CLPSO, тем самым иллюстрирует, что интерполяция Лагранжа является стабильной и эффективной техникой локального поиска. Сравнивая OLPSO с LILPSO, они оба наследуют преимущество CLPSO в решении мультимодальные проблемы, тем не менее, LILPSO явно превосходит OLPSO в решении одномодальные проблемы. Кроме того, OLPSO-L необходимо Приложение для Application for PID control Система вращения вентилятора, управляемая запуском турбовентиляторного масла. Передаточная функция системы:
ПИД-регулирование по усмотрению:
Целевая функция:
где |e ( t )| - ошибка,
Где
Параметры устанавливаются следующим образом: размер роя N=30, функциональные оценки FE = 3000. Результаты показаны в таблице ниже:
Это показывает, что результаты, оптимизированные с помощью LILPSO2, имеют наименьшую цель значение функции и средняя ошибка. Следовательно, алгоритм LILPSO2 более эффективен. Заключение В этом исследовании авторы предложили новый метод, известный как LILPSO, чтобы улучшить современный метод CLPSO. Сначала вводится интерполяционный подход Лагранжа для локального поиска рядом с оптимумом
Популярное: Как вы ведете себя при стрессе?: Вы можете самостоятельно управлять стрессом! Каждый из нас имеет право и возможность уменьшить его воздействие на нас... Модели организации как закрытой, открытой, частично открытой системы: Закрытая система имеет жесткие фиксированные границы, ее действия относительно независимы... ![]() ©2015-2024 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (161)
|
Почему 1285321 студент выбрали МегаОбучалку... Система поиска информации Мобильная версия сайта Удобная навигация Нет шокирующей рекламы |