Название: Верификационные методы анализа оптимального управления процессами и системами(Попов П.М., Попов С.П.)

Жанр: Авиационные технологии и управление

Просмотров: 1025


3.1. теория оптимизации в проектных решениях  подготовки авиационного производства

 

В   современном   представлении   теория   оптимизации   в   инженерной   практике включает   совокупность   фундаментальных   математических   результатов   и   численных методов, ориентированных на нахождение наилучших вариантов из множества альтернатив и позволяющих избежать полного перебора и сравнения возможных вариантов. Процесс оптимизации лежит в основе инженерной деятельности, направленной на проектирование новых, более эффективных и менее дорогостоящих технических объектов. Достижение этих двух основных целей любого процесса проектирования сопряжено, как уже отмечалось, с синтезом различных элементов, анализом множества их состояний и выбором из них такого состояния, при котором обеспечиваются наилучшие показатели функционирования технического объекта.

Размерность большинства инженерных задач достаточно велика, и проведение расчетов по оптимизации требует значительных затрат времени. Поэтому в условиях неавтоматизированного проектирования, и в частности в технологии авиаракетостроения, решение задач оптимизации практически не проводилось. Становление теории оптимизации во многом связано с появлением сходящихся численных методов оптимизации.

Большинство используемых            методов          оптимизации являются        по        своей  сути

инвариантными и могут использоваться при решении различных проектных задач. Поэтому в настоящее время разработаны десятки численных методов оптимизации, оформленных в виде   стандартных   процедур   (алгоритмов)   и   хранящихся   в   библиотеках   прикладных программ           вычислительных    центров,    которые    открыты    для    доступа    различным пользователям. В этих условиях перед проектировщиком встает задача правильного выбора метода и соответствующих наборов программ. Так, при расчете оптимальных режимов резания  могут  использоваться  стандартные  программы  симплекс-метода  или  других методов линейного программирования. Однако при этом достаточно сложной задачей является стыковка принятой математической модели объекта с соответствующими программами оптимизации.

Поиск  оптимальных  технических  решений  в  технологии  авиаракетостроения затруднен в связи с низким уровнем формализации существующих методов проектирования технологических процессов и сложностью построения соответствующих математических моделей.   Поэтому   главным   вопросом   оптимизации   технологических   процессов   при создании САПР ТП является разработка математических моделей различных технологических объектов и их информационное обеспечение.

Сфера  применения  методов  оптимизации  в  технологии  машиностроения  вообще,

достаточно широка: проектирование отдельных структурных элементов технических систем,

какими, например, являются режимы резания, проек-

77

 

Аналитические  методы  находят  применение  при  решении  классических задач  и задач с ограничениями в виде уравнений.

Для решения задач без ограничений используют методы исследования производной функции. Путем приравнивания производной нулю отыскиваются точки экстремума, а затем исследуются точки с помощью второй производной для отыскания максимума.

Рекурсивные методы относятся к методам, позволяющим определить одну переменную  за одну расчетную  операцию.  Решение  всей задачи  осуществляется путем поочередного определения переменных. Наиболее распространенным среди этих методов является динамическое программирование.

Итерационные  методы  объединяют  наибольшую  группу  методов  поиска оптимумов.  К ним относятся способы расчета функции цели в одной или нескольких вероятностных точках для определения «лучшей»  точки.  Расчет выполняют до тех пор, пока не приблизятся к назначенному критерию на расстояние, меньшее некоторого заданного  значения.  Эти  методы  позволяют  устанавливать  только  локальные оптимумы, однако они могут применяться в случаях,  когда оптимизацию проводят в различных исходных точках.

Стохастические         методы           оптимизации (методы          случайного     поиска            решений)

включают процедуры накопления и обработки информации, в которые сознательно вводится элемент случайности. Преимущества этих методов заключаются в их простоте, надежности, достаточной точности и легкости программирования.

Для  использование  классических  методов  определения  экстремумов  функций  и

функционалов - дифференциального и вариационного исчислений — в общем случае обязательно также отсутствие ограничений на искомые параметры. Множители Лагранжа используются  при  решении  задач  вариационного  исчисления  и  некоторых  численных методах оптимизации.

В  задачах  классического  анализа  на  безусловный  экстремум  функции  одной  или

многих  переменных  необходимым  условием  оптимизации  является  равенство  нулю градиента функции F(X)

 

Если dk нормализовано ||dk||=1, то величина шага будет равна | tk |.

Механизм образования последовательности точек и его эффективность в локализации точки минимума в сильной степени зависит от вида минимизируемой функции, а также от банка знаний или информации, которая может быть использована для следующего прогноза точки минимума. Изменяя процедуру выбора dk и tk, можно варьировать методы спуска.

В зависимости от способа выбора направления очередного шага методы спуска подразделяют на и три группы:

методы, использующие при выборе направления информацию только о значениях функций; их называют методами нулевого порядка или прямыми методами;

методы, которые требуют вычисления вторых производных функций, называют методами второго порядка;

методы, использующие, кроме того, первые производные функций, называют методами первого порядка.

Выбор величины и шага во многом определяет эффективность поиска экстремума, в том числе потребное число шагов (итерации), от которого зависят количество и затраты использования вычислительной техники. Среди многих способов выбора шага наиболее эффективны основные на минимизации функции F(X) в выбранном направлении, то есть решении задачи (3.9") однопараметрической оптимизации.

Графическая интерпретация прямых методов и методов, использующих значения производных, представлена на рис.3.3 [23].

 

а          б

 

Рис. 3.3. Графическая интерпретация двух методов поиска экстремума: а -прямые методы; б

- методы,  использующие значения производных;

—> - принятый шаг; - - - исследованный шаг

 

Рис 3 5 Градиентный поиск вдоль «оврага»

 

Существенным недостатком градиентных методов является их слабая сходимость в случае, если оптимум лежит в «овраге» или на длинном узком «гребне» (рис.3.5). В этом случае траектория градиентных методов характеризуется достаточно медленным зигзагообразным движением вдоль дна «оврага» или «гребня» к точке минимума.

Существует ряд приемов, позволяющих избежать «овражных» эффектов, например, путем изменения масштабов независимых переменных, что изменяет топографию поверхности   отклика  целевой  функции  (траектории  линий   равного   уровня).   Однако наиболее эффективным является переход к методам второго порядка, поскольку вторые производные минимизируемой функции чувствительны к кривизне линий уровня. Эти методы являются обобщением метода Ньютона,  который может быть интерпретирован как метод последовательного поиска точек минимума квадратичных аппроксимаций функции F{X). Алгоритм метода Ньютона имеет вид

 

где H1(Xk) - матрица Гессе целевой функции, вычисленная в точке Xk.

Ясно,  что  если  функция  F(X) строго  квадратична,  метод  Ньютона  дает  решение

задачи за один шаг. Однако и в общем случае неквадратичной функции F(X) этот метод потенциально более эффективен при отыскании минимума, чем градиентные методы, поскольку квадратичная функция локально более точно аппроксимирует функцию F(X), чем линейная, лежащая в основе градиентных методов.

Для  уменьшения  трудностей,  связанных  с  вычислением  вторых  производных,  в

методе переменной методики (метод Флетчера-Пауэла) вычисление минимума ведется по следующей формуле

 

 

При этом матрицу Гессе вычисляют по приближенной формуле без определения вторых частных производных. Величина шага определяется одномерной минимизацией целевой функции на луче

 

В   методе   Ньютона   -   Рафсона   для   обеспечения   сходимости   от   начального приближения в алгоритм минимизации помимо определения направления поиска вводится процедура выбора длины шага вдоль него

 

Общим для первого и второго методов является то, что все они предусматривают поиск локальных минимумов на последовательности направлений (лучей). Этот поиск является составной частью общей процедуры минимизации. Поиск локального минимума целевой функции F(X) вдоль заданного направления представляет собой задачу однопараметрической минимизации (3.9"). Из разработанных алгоритмов решения этой задачи заслуживают внимание три из них: метод золотого сечения, метод Фибоначчи и метод хорд.

Первые два метода не требуют вычисления производной функции. Их основная идея -

уменьшить количество вычисления функций и заключить минимум в последовательно убывающие вложенные интервалы [aI,bI]. С этой целью функцию вычисляют в двух внутренних точках II, (левая) и г, (правая) текущего интервала [aI,bI]. В качестве нового меньшего интервала [aI+1, bI+1] берется либо [aI,rI], либо [II,bI]. Оба метода основаны на том, что оставшаяся внутренняя точка II, или г, интервала [aI+1, bI+1] используется на следующем шаге как одна из внутренних точек этого интервала, с которыми поступают так же, как [aI,bI].   Оба   метода   применяются   для   оптимизации   унимодальных   (имеющих   один экстремум) функций.

Метод хорд основан на использовании дискретного варианта метода Ньютона для отыскания нуля производной F'(X} функции F(X) в интервале [а,  Ь], если он существует. Собственно метод Ньютона состоит в линеаризации F(X) в окрестности текущей точки, в выборе нуля этой линеаризованной функции в качестве исходной точки следующей итерации.

Существуют методы нулевого порядка, которые конкурируют с методами первого и второго порядков в случае, когда целевая функция F(X) обладает несколькими локальными экстремумами.

Характерной особенностью прямых методов является их эвристический характер, отсутствие строго обоснования. Известные методы этой группы: метод покоординатного спуска (метод Гаусса - Зейделя), метод конфигураций (метод Хука и Дживса), метод деформируемого  многогранника  (метод  Нел-дера  и  Мида),  метод  Розенброка,   метод Пауэла [20,21,22,23].

Наиболее  простым  из  них  является  метод  покоординатного  спуска,   сущность

которого состоит в последовательной минимизации целевой функции по отдельным переменным.

Метод  конфигурации по своей сути является достаточно общим методом прямого

поиска. Согласно этому методу для выбранной начальной точки

 

X0  путем изменения одной или нескольких значений компонент вектора X° обследуется ее окрестность (см. рис. 3.3,а). После нахождения приемлемого направления вычисляют функцию при постепенно увеличивающемся шаге до тех пор, пока это позволяет определять точки Х с меньшими значениями функции F(X) и т.д.

Метод деформируемого многогранника является модификацией метода конфигураций. Здесь функция п переменных F(X) минимизируется с использованием (n+1) вершин некоторого деформируемого многогранника в пространстве этих переменных Rn. Вершина (точка) в Rn, в которой F(X) максимально, проектируется через «центр тяжести» оставшихся вершин. Улучшенные (более низкие) значения целевой функции находятся последовательной заменой точки с максимальным значением F(X) на точки с меньшим зна- чением функции, пока не будет найден минимум. Формально алгоритм записывается следующим образом:

1. Формирование в л-мерном пространстве многогранника

 

6. Сжатие:

 

В          методе            Розенброка,    который         также является          модификацией           метода покоординатного спуска, для преодоления сложностей поиска минимума при наличие узких

«оврагов» используется процедура поворота ортогональных координатных осей так, чтобы одна из них совпадала с направлением «оврага». Траектория поиска экстремума по этому методу показана на рис.3.6.

В более сложном методе Пауэла  поиск экстремума производится вдоль сопряженных,

а не ортогональных направлений. Также усовершенствована процедура линейного поиска, позволяющая  отыскивать  не  локальный,  а  глобальный  оптимум.  Особую  группу  среди прямых методов занимают методы случайного  поиска.

Среди методов случайного поиска наиболее эффективен поиск по случайным точкам и поиск по случайным лучам.

 

Рассмотрим способы решения задачи нелинейного  программирования с ограничениями, то есть задачи (3.9), представляющей наибольший интерес для проектировщика. Существует два подхода при решении задачи.

Первый основан на непосредственном учете ограничений. Такой подход лежит в основе метода возможных направлений (метод Зойтендейка), метод проективного градиента, методов аппроксимирующего линейного  программирования.

Второй подход к решению задачи (3.9) основан на преобразовании задач с ограничениями к более простым задачам без ограничений. Этой цели можно достигнуть заменой переменных либо видоизменением целевой функции с помощью некоторых функций  ограничивающих  уравнений.  Наиболее  распространенным  является  метод штрафных функций,  основная цель которого заключается в сведении задачи на условный экстремум к последовательности задач безусловной оптимизации путем использования функций штрафов.

Кратко о некоторых вышеназванных методах условной оптимизации:

1. Метод возможных  направлений. Целевую функцию минимизируют как функцию без

ограничений до тех пор, пока не встретятся ограничения. Затем находят направление поиска, позволяющее уменьшить целевую функцию, не нарушая ограничений. Такое направление называется допустимым (возможным). Обозначим его Sk, тогда новая точка будет определяться по соотношению

 

при условии (3.16), определяют вектор допустимых направлений Sk , вдоль которого целевая функция имеет наибольшую скорость убывания. Величину шага hk вдоль выбранного направления можно определить, решая задачу однопараметрической минимизации вида

 

многогранник, являющийся линейной аппроксимацией допустимого множества вблизи точки

Xk. Это позволяет учитывать ограничения, как в виде неравенств, так и равенств.

3. Метод аппроксимирующего линейного программирования заключается в сведении задачи нелинейного программирования к задаче линейного программирования путем замены нелинейной целевой функции и функции ограничений последовательностью аппроксимирующих линейных функций. В одних алгоритмах эта цель достигается путем использования линейной интерполяции нелинейных функций, в других — их разложением в

ряд Тейлора в окрестности точки Xk.

4. Метод штрафных функций заключается в том, что задача условной оптимизации сводится к эквивалентной задаче безусловной оптимизации путем преобразования целевой функции. Новая целевая функция F(X) образуется путем добавления к целевой функции F(X) функции  штрафа,  составленной  из  ограничивающих  условий  таким  образом,  что приближение к границе допустимой области приводит к резкому увеличению новой целевой функции, то есть нарушение ограничений штрафуется ухудшением F(X).

В  зависимости  от  того,  находится  ли  решение задачи  на  безусловный  экстремум

внутри или вне исходной допустимой области, различают два типа алгоритмов решения задач методом штрафных функций - алгоритм внутренней штрафной функции и алгоритм внешней штрафной функции. В первом случае поиск оптимума должен начинаться из допустимой области и его траектория полностью будет лежать внутри этой области. Это достигается при образовании новой целевой функции, например, вида

 

 

 

где Rk>0 - весовой коэффициент.

(3.19)

При приближении к границе допустимой области изнутри какой-либо из элементов

вектора ограничений стремится к нулю, а следовательно, функция штрафа приближается к бесконечности. Недостатками этого алгоритма являются необходимость выбора исходной точки внутри области существования, а также его неприменимость при ограничениях в виде равенств.

Во втором случае поиск может начинаться из любой точки, в том числе находящейся вне допустимой области. При этом функция выбирается таким образом, чтобы значения новой целевой функции в допустимой области точно или приближенно равнялись значениям исходной   целевой   функции,   а   вне   ее   -существенно   превосходили   значениям   F(X). Возможный вид такой новой целевой функции

 

(3.20)

 

 

Величина штрафа зависит от выбора весового коэффициента Rk. чем он больше, тем ближе F(X) к F(X), тем точнее решение. Однако необходимо иметь в виду, что увеличение Rk ведет к росту роли ошибок счета и, что самое важное, к усложнению поиска экстремума. Это связано с тем, что введение штрафа «искривляет» целевую функцию, образуя двухсторонний

«овраг» при ограничениях в виде равенств и односторонний «утес» для ограничений в виде неравенств. Вследствие этого формулировка ограничений в виде неравенств предпочтительна при решении задачи методом штрафных функций.

В силу указанных причин рассмотренный метод обычно применяется для получения приближенных решений при небольших значениях весовых коэффициентов Rk.

Рассмотренные          выше   методы           оптимизации             применяют     при      исследовании

детерминированных  (неслучайных)  функций  и  процессов,  однако  в  практике проектирования приходится решать оптимизационные задачи, в которых необходимо учитывать случайные факторы. Такие задачи решают методами стохастического программирования.

В  практике  проектирования  самолетов  могут  иметь  место  задачи  оптимизации

одновременно по нескольким показателям качества. Например, перед проектировщиком поставлена задача получить наилучшие значения для нескольких характеристик самолета, например, максимизировать дальность полета, минимизировать потребную длину взлетно- посадочной полосы и взлетную массу самолета. Как правило, эти характеристики, выбираемые  в  качестве  критериев,  противоречивы  и  оптимизация  по  каждому  из  них привела бы к разным значениям проектных параметров X. В тех случаях, когда не удается найти обобщенный показатель качества, включающий в себя указанные частные показатели, возникает задача многокритериальной (векторной) оптимизации. Для многокритериальной задачи в общем случае решение не является оптимальным ни для одного из частных случаев. В то же время оно является компромиссным для векторного критерия

 

(3.21)

 

Такое решение называется областью компромиссов или областью решений, оптимальных по Парето.  Для определения минимума по Парето необходимо перейти от задачи векторной оптимизации к задачи нелинейной оптимизации со специально сконструированной  скалярной  целевой  функцией,  решив  предварительно  задачу свертывания векторного критерия оптимальности.

Способы свертывания векторного критерия оптимальности зависят от информации о степени сравниваемости частных критериев оптимальности.