Болезни Военный билет Призыв

Метод хука дживса с одномерной минимизацией. Метод конфигураций Хука-Дживса. Теоритические основ метода оптимизации

Стратегия поиска. Метод представляет собой комбинацию исследующего поиска с циклическим изменением переменных и ускоряющего поиска по образцу . Цель исследующего поиска – выявление локального поведения целевой функции и определение направления ее убывания. Эта информация используется при поиске по образцу вдоль направления убывания целевой функции.

Исследующий поиск начинается из некоторой начальной точки , называемой старым базисом . В качестве множества направлений поиска выбирается множество координатных направлений. Задается величина шага, которая может быть различной для разных координатных направлений. Фиксируется первое координатное направление и делается шаг в сторону увеличения соответствующей переменной. Если значение исходной функции f(x) в пробной точке меньше значения функции в исходной точке, то шаг считается удачным. В противном случае из исходной точки делается шаг в противоположном направлении с последующей проверкой поведения функции. Если и в этом случае не происходит уменьшения функции, то происходит уменьшение шага и процедура повторяется. Исследующий поиск по данному направлению заканчивается, когда текущая величина шага становится меньше некоторой величины. После перебора всех координат исследующий поиск завершается, полученная точка называется новым базисом.

Поиск по образцу заключается в движении по направлению от старого базиса к новому . Величина ускоряющего шага задается ускоряющим множи-телем . Успех поиска по образцу определяется с помощью исследующего поиска из полученной точки. Если значение функции в наилучшей точке меньше, чем в точке предыдущего базиса, то поиск по образцу удачен, в противном случае происходит возврат в новый базис , где продолжается исследующий поиск с уменьшенным шагом.

Обозначим через – координатные направления:

Отметим, что при поиске по направлению меняется только переменная , а остальные переменные остаются зафиксированными.

Алгоритм метода.

Шаг 1. Задать начальную точку , число - для остановки алгоритма, начальные значения приращений по координатным приращениям , ускоряющий множитель

Шаг 2. Провести исследующий поиск по выбранному координатному направлению:

Шаг 3. Проверить условия:

а) если i < n, то положить i= i+1 и перейти к шагу 2. (продолжить исследующий поиск по оставшимся направлениям);

б) если i = n, проверить успешность исследующего поиска:

Если , перейти к шагу 4.

Если , перейти к шагу 5.

Шаг 4. Провести поиск по образцу.

В точке провести исследующий поиск , в результате которого получается точка

Если , то точка становится точкой нового базиса , а - точкой старого базиса . Перейти к шагу 5. .

Если , то поиск по образцу считается неудачным, точки , аннулируются, точка остается точкой нового базиса, а - точкой старого базиса. Перейти к шагу 2.

Шаг 5. Проверить условие окончания счета:

а) если все , то поиск закончить ;

б) для тех i, для которых , уменьшить величину шага и перейти к шагу 2.

Найти минимум функции

Зададим начальную точку ; число . Положим i=1, k=0.

То шаг неудачен. , то шаг удачен.

Поскольку i=1 <2=n, то положим i=2 и перейдем к шагу 2.

То шаг неудачен.

То шаг удачен

Поскольку i=2=n и , то перейдем к шагу 4.

Проведем поиск по образцу из точки Положим i=1, k= k+1=1. и перейдем к шагу 2.

Выполняем исследующий поиск из точки . , то шаг неудачен. Т.к. , то шаг удачен.

Поскольку i=1 <2=n, то положим i= i+1=2 и перейдем к шагу 2.

То шаг неудачен. , то шаг неудачен.

Метод Хука-Дживса был разработан в 1961 году, но до сих пор является весьма эффективным и оригинальным. Поиск состоит из последовательности шагов исследующего поиска вокруг базисной точки, за которой в случае успеха следует поиск по образцу. Он применяется для решения задачи минимизирования функции без учета ограничений

Описание этой процедуры представлено ниже:

А. Выбрать начальную базисную точку b 1 и шаг длиной h 1 для каждой переменной x j , j = 1, 2,…, n. В приведенной ниже программе для каждой переменной используется шаг h , однако указанная выше модификация тоже может оказаться полезной

Б. Вычислить f (х) в базисной точке b 1 с целью получения сведений о локальном поведении функции f (x). Эти сведения будут использоваться для нахождения подходящего направления поиска по образцу, с помощью которого можно надеяться достичь большего убывания значения функции. Функция f (x) в базисной точке b 1 , находится следующим образом:

  • 1. Вычисляется значение функции f (b 1) в базисной точке b 1
  • 2. Каждая переменная по очереди изменяется прибавлением длины шага. Таким образом, мы вычисляем значение функции f (b 1 +h 1 e 1), где e 1 - единичный вектор в направлении оси x 1 . Если это приводит к уменьшению значения функции, то b 1 заменяется на b 1 +h 1 e 1 . В противном случае вычисляется значение функции f (b 1 -h 1 e 1), и если ее значение уменьшилось, то b 1 заменяем на b 1 -h 1 e 1 . Если ни один из проделанных шагов не приводит к уменьшению значения функции, то точка b 1 остается неизменной и рассматриваются изменения в направлении оси х 2, т. е. находится значение функции f (b 1 +h 2 e 2) и т. д. Когда будут рассмотрены все n переменные, мы будем иметь новую базисную точку b 2
  • 3. Если b 2 =b 1 , т. е. уменьшение функции не было достигнуто, то исследование повторяется вокруг той же базисной точки b 1 , но с уменьшенной длиной шага. На практике удовлетворительным является уменьшение шага (шагов) в десять раз от начальной длины
  • 4. Если b 2 b 1 , то производится поиск по образцу

В. При поиске по образцу используется информация, полученная в процессе исследования, и минимизация функции завершается поиском в направлении, заданном образцом. Эта процедура производится следующим образом:

Разумно двигаться из базисной точки b 2 в направлении b 2 -b 1 , поскольку поиск в этом направлении уже привел к уменьшению значения функции. Поэтому вычислим функцию в точке образца

P 1 =b 1 +2(b 2 -b 1)

В общем случае

P i =b i +2(b i+1 -b i)

  • 2. Затем исследование следует продолжать вокруг точки Р 1 (Р i)
  • 3. Если наименьшее значение на шаге В, 2 меньше значения в базисной точке b 2 (в общем случае b i+1), то получают новую базисную точку b 3 (b i+2), после чего следует повторить шаг В, 1. В противном случае не производить поиск по образцу из точки b 2 (b i+1), а продолжить исследования в точке b 2 (b i+1)

Г. Завершить этот процесс, когда длина шага (длины шагов) будет уменьшена до заданного малого значения.

Модифицированный метод Хука-Дживса

Этот метод нетрудно модифицировать и для учета ограничений. Было выдвинуто предложение, что для этого будет вполне достаточно при решении задачи минимизации присвоить целевой функции очень большое значение там, где ограничения нарушаются. К тому же такую идею просто реализовать с помощью программирования.

Нужно проверить, каждая ли точка, полученная в процессе поиска, принадлежит области ограничений. Если каждая, то целевая функция вычисляется обычным путем. Если нет, то целевой функции присваивается очень большое значение. Таким образом, поиск будет осуществляться снова в допустимой области в направлении к минимальной точке внутри этой области.

В тексте программы модифицированного метода прямого поиска Хука-Дживса сделана попытка реализовать такую процедуру. Рассматриваемая задача формулируется следующим образом:

минимизировать f (x 1 ,x 2) = 3x 1 2 +4x 1 x 2 +5x 2 2 ,


Текст программы

program HuDjMody;

  • (*** Модифицированный метод Хука-Дживса ***)
  • (*** (при наличии ограничений) ***)

label 0,1,2,3,4,5,6,7;

var k,h,z,ps,bs,fb,fi:real;

i,j,n,fe:integer;

x,y,b,p:array of real;

(*** Процедура,вычисляющая функцию ***)

procedure calculate;

z:=3*sqr(x)+(4*x*x)+(5*sqr(x));

if (x<0) or (x<0) or ((x+x)<4) then

fe:=fe+1; (*** Счетчик ***)

writeln("Модифицированный метод Хука-Дживса");

writeln("(при наличии ограничений)");

writeln("Введите число переменных:");

writeln("Введите начальную точку x1,x2,…,xN");

for i:=1 to n do

writeln("Введите длину шага");

for i:=1 to n do

writeln("Начальное значение функции", z:2:3);

for i:=1 to n do

writeln(x[i]:2:3);

(*** Исследование вокруг базисной точки ***)

0: x[j]:=y[j]+k;

if z

if z

  • 1: y[j]:=x[j];
  • 2: calculate;

writeln("Пробный шаг"," ", z:2:3);

for i:=1 to n do

writeln(x[i]:2:3);

if j=n then goto 3;

  • 3: if fi
  • (*** После оператора 3,если функция не уменьшилась, ***)
  • (*** произвести поиск по образцу ***)

if (ps=1) and (bs=0) then

  • (*** Но если исследование производилось вокруг точки ***)
  • (*** шаблона PT,и уменьшение функции не было достигнуто,***)
  • (*** то изменить базисную точку в операторе 4: ***)
  • (*** в противном случае уменьшить длину шага в операторе***)
  • (*** 5: ***)

4: for i:=1 to n do

writeln("Замена базисной точки"," ",z:2:3);

for i:=1 to n do

writeln(x[i]:1:3);

  • (*** (следует за последним комментарием) ***)
  • (*** и провести исследование вокруг новой базисной точки ***)

writeln("Уменьшить длину шага");

if k<1e-08 then goto 7;

  • (*** Если поиск незакончен,то произвести новое ***)
  • (*** исследование вокруг новой базисной точки ***)
  • (*** Поиск по образцу ***)
  • 6: for i:=1 to n do

p[i]:=2*y[i]-b[i];

writeln("Поиск по образцу"," ",z:2:3);

for i:=1 to n do

writeln(x[i]:2:3);

  • (*** После этого произвести исследование вокруг ***)
  • (*** последней точки образца ***)

7: writeln("Минимум найден");

for i:=1 to n do

writeln("x(",i,")=",p[i]:2:3);

writeln("Минимум функции равен"," ",fb:2:3);

writeln("Количество вычислений функции равно"," ",fe);

repeat until keypressed;

Приведенная выше программа реализует описанную процедуру. Одной или двух точек бывает недостаточно для определения начальной точки. Первая точка всегда должна выбираться осмотрительно. ЭВМ работает только с ограниченной точностью, и ошибки могут накапливаться в процессе сложных вычислений, особенно если шаг имеет “неудобную” длину. (Обычно мы будем избегать “неудобной” длины, но программа должна быть работоспособна и в таких ситуациях.) Поэтому в строке, где выясняется вопрос об изменении базисной точки, мы избегаем уменьшения длины шага из-за накапливания ошибки введением длины шага, равной. Мы отслеживаем, где производится исследование - в базисной точке (В5 = 1, Р5 = 0) или в точке образца (В5 = 0, Р5 = 1). Как можно убедиться на практике, если не принимаются такие меры предосторожности даже программа с удовлетворительной логикой будет неработоспособна.

В приведенной программе минимальная длина шага равна, но она может быть изменена. Для контроля за выполнением процедуры в программу введена печать промежуточных результатов. Для увеличения скорости счета могут быть удалены строки вывода подсказок и пояснений

Процедура calculate вычисляет значение минимизируемой функции, в нашем случае: f (x 1 ,x 2) = 3x 1 2 +4x 1 x 2 +5x 2 2 ,

при ограничениях x 1 x 2 x 1 +x 2

Минимум, равный 44, достигается в точке (3;1) при ограничении x 1 +x 2 =4

Для начальной точки (4;3) и при длине шага, равной единице, программой успешно решена задача минимизации

Ниже приведена распечатка результата работы программы:

Введите число переменных

Введите длину шага

Начальное значение функции 141.000

  • 4.000
  • 3.000

Пробный шаг 108.000

  • 3.000
  • 3.000

Пробный шаг 71.000

  • 3.000
  • 2.000
  • 2.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Поиск по образцу 1.70000000000001566Е+0038

  • 3.000
  • 0.000

Пробный шаг 48.000

  • 4.000
  • 0.000

Пробный шаг 48.000

  • 4.000
  • 0.000

Замена базисной точки 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Пробный шаг 44.000

  • 3.000
  • 1.000

Пробный шаг 44.000

  • 3.000
  • 1.000

Уменьшить длину шага

Минимум найден

Минимум функции равен 44.000

Количество вычислений равно 74

Для начальной точки (3;4) и длины шага, равной единице, программой также успешно решена задача минимизации

Для начальной точки (5;6) и длины шага, равной единице, задача не решена, т.к. программа остановилась в точке (1;3), т.е. на активном ограничении, и выдала неверный результат

Распечатка результата работы программы приведена ниже:

Модифицированный метод Хука-Дживса (при наличии ограничений)

Введите число переменных

Введите начальную точку х1,х2,…,хN

Введите длину шага

Начальное значение функции 375.000

  • 5.000
  • 6.000

Пробный шаг 324.000

  • 4.000
  • 6.000

Пробный шаг 253.000

  • 4.000
  • 5.000

Поиск по образцу 155.000

  • 3.000
  • 4.000

Пробный шаг 124.000

  • 2.000
  • 4.000

Пробный шаг 81.000

  • 2.000
  • 3.000

Поиск по образцу 1.70000000000001566Е+0038

  • 0.000
  • 1.000
  • 0.000
  • 1.000

Пробный шаг 1.70000000000001566Е+0038

  • 0.000
  • 1.000

Замена базисной точки 81.000

  • 2.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Поиск по образцу 1.70000000000001566Е+0038

  • 0.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Замена базисной точки 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Пробный шаг 60.000

  • 1.000
  • 3.000

Пробный шаг 60.000

  • 1.000
  • 3.000

Уменьшить длину шага

Минимум найден

Минимум функции равен 60.000

Количество вычислений равно 89

Аналогичные неутешительные результаты были получены для начальной точки (5;6) и длины шага, равной 0.5.Неверное решение было найдено в точке (1.5;2.5). Для начальной точки (4;3) и длины шага, равной 0.5,программа работала нормально, но было получено неверное решение в точке (2.5;1.5)

Проблема понятна. С помощью данного метода невозможно двигаться вдоль границы области ограничений и сходимость достигается в первой же точке границы, где и находится решение. Общая задача оптимизации при наличии ограничений очень сложна и для получения практического метода решения требуются более изощренные процедуры, чем приведенная выше.

Введение

В науке существует большое количество методов, с помощью которых определяются те или иные свойства и параметры функций. Эти методы постоянно совершенствовались, уточнялись, получали новое применение.

В этой работе пойдет речь об одном из методов, так называемого, прямого поиска. Это - метод Хука-Дживса. Он применяется для определения минимума функций и переменных. Этот метод, созданный в середине двадцатого столетия применяется и сейчас, так как очень хорошо себя зарекомендовал.

Целю данной работы, является освещения концепций метода Хука-Дживса.

Основными задачами, подлежащими рассмотрению в связи с поставленной целью являются:

  • - объяснить в чем состоит суть метода Хука-Дживса;
  • - показать его отличие от других методов данного типа;
  • - рассмотреть алгоритм работы метода;
  • - пояснить этапы выполнения метода;
  • - уточнить в чем состоит модификация данного метода;
  • - наглядно продемонстрировать работу метода с помощью блок-схем.

Актуальность данной работы заключается в конкретизации и резюмированию знаний об этом методе.

хук дживс функция минимизирование

Метод Хука-Дживса

На разработку методов прямого поиска для определения минимума функций и переменных было затрачено много усилий. Методы прямого поиска являются методами, в которых используются только значения функции. Мы рассмотрим подробно лишь один из них. Практика показала, что этот метод эффективен и применим для широкого числа приложений. Рассмотрим функцию двух переменных.

Минимум лежит в точке (x 1 * ,x 2 *). Простейшим методом поиска является метод покоординатного спуска. Из точки А мы производим поиск минимума вдоль направления оси и, таким образом, находим точку В, в которой касательная к линии постоянного уровня параллельна оси. Затем, производя поиск из точки В направлении оси, получаем точку С, производя поиск параллельно оси, получаем точку D, и т. д. Таким образом, мы приходим к оптимальной точке. Очевидным образом эту идею можно применить для функций n-переменных.

Теоретически данный метод эффективен в случае единственного минимума функции. Но на практике он оказывается слишком медленным. Поэтому были разработаны более сложные методы, использующие больше информации на основании уже полученных значений функции.

Метод Хука-Дживса был разработан в 1961 году, но до сих пор является весьма эффективным и оригинальным. Поиск состоит из последовательности шагов исследующего поиска вокруг базисной точки, за которой в случае успеха следует поиск по образцу. Он применяется для решения задачи минимизирования функции без учета ограничений.

Описание этой процедуры представлено ниже:

А . Выбрать начальную базисную точку b 1 и шаг длиной h 1 для каждой переменной x j , j = 1, 2,…, n. В приведенной ниже программе для каждой переменной используется шаг h , однако указанная выше модификация тоже может оказаться полезной.

Б . Вычислить f (х) в базисной точке b 1 с целью получения сведений о локальном поведении функции f (x). Эти сведения будут использоваться для нахождения подходящего направления поиска по образцу, с помощью которого можно надеяться достичь большего убывания значения функции. Функция f (x) в базисной точке b 1 , находится следующим образом:

  • 1. Вычисляется значение функции f (b 1) в базисной точке b 1 .
  • 2. Каждая переменная по очереди изменяется прибавлением длины шага. Таким образом, мы вычисляем значение функции f (b 1 +h 1 e 1), где e 1 - единичный вектор в направлении оси x 1 . Если это приводит к уменьшению значения функции, то b 1 заменяется на b 1 +h 1 e 1 . В противном случае вычисляется значение функции f (b 1 -h- 1 e 1), и если ее значение уменьшилось, то b 1 заменяем на b 1 -h 1 e 1 . Если ни один из проделанных шагов не приводит к уменьшению значения функции, то точка b- 1 остается неизменной и рассматриваются изменения в направлении оси х 2 , т. е. находится значение функции f (b 1 +h 2 e 2) и т. д. Когда будут рассмотрены все n переменные, мы будем иметь новую базисную точку b 2 .
  • 3. Если b 2 =b 1 , т. е. уменьшение функции не было достигнуто, то исследование повторяется вокруг той же базисной точки b 1 , но с уменьшенной длиной шага. На практике удовлетворительным является уменьшение шага (шагов) в десять раз от начальной длины.
  • 4. Если b 2 b 1 , то производится поиск по образцу.

В . При поиске по образцу используется информация, полученная в процессе исследования, и минимизация функции завершается поиском в направлении, заданном образцом. Эта процедура производится следующим образом:

1. Разумно двигаться из базисной точки b2 в направлении b2-b-1, поскольку поиск в этом направлении уже привел к уменьшению значения функции. Поэтому вычислим функцию в точке образца

P 1 =b 1 +2(b 2 -b 1).

В общем случае

P i =b i +2(b i+1 -b i).

  • 2. Затем исследование следует продолжать вокруг точки Р 1 (Р i) .
  • 3. Если наименьшее значение на шаге В, 2 меньше значения в базисной точке b 2 (в общем случае b i+1), то получают новую базисную точку b 3 (b i+2), после чего следует повторить шаг В, 1. В противном случае не производить поиск по образцу из точки b 2 (b i+1), а продолжить исследования в точке b 2 (b i+1).

Г . Завершить этот процесс, когда длина шага (длины шагов) будет уменьшена до заданного малого значения.


Министерство образования и науки РФ Федеральное государственное бюджетное образовательное учреждение

высшего профессионального образования "Сибирский государственный индустриальный университет"

Кафедра информационных технологий в металлургии.

Курсовая работа

по дисциплине: «Оптимизация в технике и технологиях»

Многомерная оптимизация методом Хука-Дживса

Выполнил:

ст. гр. ИС-10

Хлыстов Д.С.

Проверил:

к.т.н., доцент

Рыбенко И.А.

Новокузнецк2013

  • 1.Теор е тические основ ы метода оптимизации
    • 1.1. Постановка задачи
    • 1.2 Математические основы метода
      • 1.2.1 Метод Хука--Дживса
      • 1.2.2 Метод квадратичной аппроксимации
    • 1.3 Разработка алгоритма численной реализации
      • 1.3.1 Метод Хука--Дживса
    • 1.4 Составление и реализация контрольных примеров средствами Excel
  • 2. Программная реализация системы на ЭВМ средствами Delphi
    • 2.1 Описание структуры программы и ее компонентов
    • 2.2 Результаты отладки программы на контрольных примерах
    • 2.3 Составление инструкции по использованию программы
    • 3.2 Исследование влияния параметров задачи (начальное приближение, точность, параметры алгоритма) на количество
    • расчетов целевой функции
    • 3.3 Исследование работоспособности метода путем решения задач различной размерности и сложности
  • Заключение
  • Список литературы
  • Приложение 1

1.Теоритические основ метода оптимизации.

1.1 Постановка задачи

Многомерная оптимизация заключается в нахождении для функции n действительных переменных

f (x 1 , x 2 , x 3 , …, x n ) = f (X ), x E n

компонентов вектора X * , которые дают условие

f (X *) = min(max)f (X ).

Рассматривая локальный X 0 и глобальный X * экстремумы функции можно отметить их особенности. Функция f (X ) имеет локальный минимум в точке X 0 , если существует окрестность, такая, что f (X ) больше f (X 0) во всех точках этой окрестности. В случае глобального минимума в точке X * для всех X справедливо неравенство

f (X ) f (X *).

Для решения поставленной задачи я использовал алгоритмы безусловной оптимизации методами:

Для многомерной Хука--Дживса.

Для одномерной квадратичной аппроксимации.

1.2 Математические основы метода

1.2.1 Метод Хука--Дживса.

Метод включает два этапа: “исследующий поиск” вокруг базисной точки и “поиск по образцу” в направлении, выбранном для минимизации. В исследующем поиске задается начальное приближение X (1) и приращения по координатам X . Рассчитывается значение f (X (1)) в базисной точке. Затем в циклическом порядке совершаются пробные шаги. Если приращение улучшает целевую функцию, то шаг считается “удачным”. По этой переменной значение изменяется на величину шага и дается приращение по другой переменной Иначе - “неудачным” и делается шаг в противоположном направлении. И если он тоже оказался “неудачным”, то значение этой переменной оставляют без изменения, и дается приращение по другой переменой и т.д. пока не будут изменены все независимые переменные. На этом завершается первый исследующий поиск, найдена точка X (2) . Поиск по образцу осуществляется вдоль направления, соединяющего X (2) иX (1) . Совершается один или несколько шагов до тех пор, пока шаги являются “удачными”.

Применяют две модификации метода прямого поиска:

в исследующем поиске используется одномерная минимизация вдоль координатных направлений;

исследующий поиск осуществляется на основе дискретных шагов по направлениям.

1.2.2 Метод квадратичной аппроксимации.

Метод основан на предположении о том, что в ограниченном интервале можно аппроксимировать функцию квадратичным полиномом, который используется для оценивания координаты оптимума. Оценка оптимального значения рассчитывается по формуле:

= (x 2 + x 1)/2 - (a 1 /2a 2).

Предполагается, что заданы x 1 , x 2 , x 3 , и известны значения функции в этих точках f 1 , f 2 , f 3 , а аппроксимирующая функция

g (x ) = a 0 + a 1 (x - x 1) + a 2 (x - x 1)(x - x 2)

совпадает с f (x ) в трех указанных точках.

Коэффициенты полинома определяются уравнениями

a 0 = f 1 ; a 1 = (f 2 - f 1)/(x 2 - x 1); a 2 = 1/(x 3 - x 2)[(f 3 - f 1)/(x 3 - x 1) - (f 2 - f 1)(x 2 - x 1)].

Для унимодальных функций оказывается приемлемой для оценки оптимума x * .

1.3 Разработка алгоритма численной реализации

1.3.1 Метод Хука--Дживса

Начальный этап . Выбрать начальную точку X (1) , и 0 - скаляр, используемый в критерии остановки. Пусть единичные координатные направления, б - коэффициент сжатия шага. Положить Y (1) = X (1) , k = j = 1 и перейти к основному этапу.

Основной этап.Шаг 1 . Любым методом одномерной оптимизации найти j * - оптимальное решение задачи минимизации функции f (Y (j ) + j ) при условии и положить Y (j+1 ) = Y (j ) + j * . Если j n , то заменить j на j + 1 и вернуться к шагу 1. Если j=n , то перейти к шагу 2.

Шаг 2 . Положить X (k+ 1) = Y (n ) . Если ||X (k+ 1) - X (k ) || , то остановиться; в противном случае вычислить шаг а=||X (k+ 1) - X (k ) || ?б, Y (1) = X (k ) , заменить k на k + 1, положить j = 1 и перейти к шагу 3.

Шаг 3. Вычислить Y (j+1) = Y (j ) +a и f(Y (j) ) , f(Y (j+1) ) . Если f(Y (j+1) ) <f(Y (j) ) , то j=j +1 и вернуться к шагу 3. Иначе положить X (k ) =Y (j ) ,j= 1, Y (1) = X (k) , и вернуться к шагу 1.

1.3.2 Метод квадратичной аппроксимации

Шаг 1 . Задать x 1 , x 2 , x 3 , и вычислить значения функции в этих точках f(х 1), f(х 2), f(х 3).

Шаг 2 . Рассчитать a 0 = f(х 1); a 1 = (f(х 2) - f(х 1))/(x 2 - x 1); a 2 = 1/(x 3 - x 2)[(f(х 3) - f(х 1))/(x 3 - x 1) - (f(х 2) - f(х 1))(x 2 - x 1)].

Шаг 2 . Вычислить оптимальное решение: = (x 2 + x 1)/2 - (a 1 /2a 2).

1 .4 Составление и реализация контрольных примеров средствами Excel

Рассмотрим функцию f(x)=(х1+х2)^2+(х2-1)^2 с точностью e=0,01 и начальными значениями х1=5 , х2=6 . Результаты расчетов приведены в таблице 1.

Таблица 1 -- Расчет экстремума функции f(x)=(х1+х2)^2+(х2-1)^2 методом Хука--Дживса.

По образцу

Критерий

Не достигнут

По образцу

Критерий

Не достигнут

По образцу

Критерий

Не достигнут

По образцу

Критерий

Не достигнут

По образцу

Критерий

Не достигнут

По образцу

Критерий

Достигнут

Таким образом экстремум в точке [-1;1] найден за шесть итерации с точностью e =0,01 .

1.5 Анализ результатов расчета

При подсчете функции f(x)=(х1+х2)^2+(х2-1)^2 с точностью e =0,01 , был найден экстремум в точке [-1;1]за 6 итераций.

Достоинства метода:

Простая стратегия поиска, вычисление только значений функции, небольшой объём требуемой памяти.

Недостатки:

Алгоритм основан на циклическом движении по координатам. Это может привести к вырождению алгоритма в бесконечную последовательность исследующих поисков без поиска по образцу.

2. Программная реализация системы на ЭВМ средствами Delphi

2.1 Описание структуры программы и ее компонентов

В программе реализуются строго заданные функции, но со свободным выбором начальных координат и точности. По этому в программе присутствует:

Поле для ввода начальных координат

Поле для ввода точности поиска

Выбор функции.

Поле для вывода всех шагов и итераций.

Поля для вывода экстремума в точках.

Вывод конечного числа итераций.

Программа реализованная в среде Delphiи имеет следующий вид (рис.1).

Рисунок 1 -- интерфейс программы Хука--Дживса

Ознакомится с листингом программы на примере одной функции можно в приложении 1.

2.2 Результаты отладки программы на контрольных примерах

В программной реализации использовались функции различной сложности:

f(x) = (x 1 +x 2 ) 2 +(x 2 -1) 2

f(x)= (x 1 +x 2 ) 2 +(x 2 +4) 2

f(x)= (x 1 -3x 2 ) 2 +(x 2 +1) 2

f(x)= (x 1 -6x 2 ) 2 +(x 2 +1) 2

f(x)= (x 1 -2x 2 ) 2 +(x 2 -3) 2

f(x)= (x 1 +2x 2 ) 2 +(x 2 -4) 2

Мною была выбрана функция для отладки программы f(x) = (x 1 +x 2 ) 2 +(x 2 -1) 2 , с начальным интервалом и точность поиска равную e=0,01 .

Отладка программы производилась с помощью изменения точности и начального интервала. Реализованная программа показала хорошую работоспособность, так как производила быстрый подсчет результата с заданной точностью.

2.3 Составление инструкции по использованию программы

1) Запустить программу - после открытия программы перед вами появится окно интерфейса программы (Рис.2).

Рисунок 2-- Интерфейс программы.

2) Вводим точность и начальныезначения интервала (Рис.3)

Рисунок 3--Поля для ввода точности и начального значения интервала.

оптимизация программа хук дживс

3) Выбираем функцию и нажимаем кнопку «Рассчитать» (Рис.4).

Рисунок 4-- Окно для выбора функций.

Рисунок 5--Поля вывода.

Рисунок 6 -- Подробные расчеты выбранной функции.

3. Исследование эффективности работы метода оптимизации на тестовых задачах

3.1 Выбор и описание тестовых задач

Для тестов выбралфункцию f(x)= (x 1 -6x 2 ) 2 +(x 2 +1) 2 с начальными координатами[-5; -3] и точность e=0,015

Сначала делаем исследующий поиск с помощью квадратичной аппроксимации f(x)= (x 1 -6x 2 ) 2 +(x 2 +1) 2 при х1=-5,х2=-3 и получаем х`1=-18. После для х1=-18 и х2=-3 и получаем х`2=-2,945. Вычисляем S1=-13и S2=0,054,а также h1=-1,2 и h2=0,0054.

Далее переходим к поиску по образцу. Первое действие подставляем в функцию f(x)= (x 1 -6x 2 ) 2 +(x 2 +1) 2 наши значения х1=-5,х2=-3 получая f(x)=173. Второе действие меняем х1=х1+h1 а х2=x2+h2 и снова считаем значение функции получая f(x)=140,11. Повторяем второе действие пока функция убывает, как только она начинает возрастать прекращаем поиск по образцу. Мне потребовалось 12 итераций на 11 итерации значения былих1=-18, х2=-2,94595,f(x)=3,891891892 на 12 итерации стали такими былих1=-19,3, х2=-2,94054,f(x)=6,510540541.

Теперь проверяем критерий точности, который получился 14,30012362.Он больше чем заданная точность, значит, переходим ко второй итерации исследующего поиска.

И так выполняем исследующий поиск и поиск по образцу пока критерий точности не станет меньше заданной точности.

3.2 Исследование влияния параметров задачи (начальное приближение, точность, параметры алгоритма) на количество расчетов целевой функции

Проведя исследования заданных мной функций выяснилось:

1. Что количество итераций будет зависть от начального приближения и если точки выбраны грамотно, итерация может быть всего несколько в противном случаи количество итераций возрастет.

2. Для некоторых функций точность влияет на количество итераций.

3.3 Исследование работоспособности метода путем решения задач различной размерности и сложности.

Алгоритм Хука--Дживса показал себя как быстро работающий. Если e=<0,9 то количество итерация не возрастает, но если точность будет больше e>0,9 то количество итераций уменьшится.

При исследовании сложных функций было выявленочто не у всех функций можно найти точный экстремум.

3.4 Обработка результатов исследований визуальными и формальными средствами Excel

В качестве показателей будут выступать начальное приближение, точность и количество итераций.

Рассмотрим первую функциюf(x)= (x 1 -6x 2 ) 2 +(x 2 +1) 2 при х1=-5,х2=-3 получаем таблицу 2, а также график 1.

Таблица 2--зависимость итераций от точности и начального приближения

точность

итерации

График 1--зависимость итераций и начального приближения

Поменяем начальное приближение,но точность оставим прежней e=0.015, так как при изменении точности количество итераций в данной функции не меняется, и тогда получим таблицу 3 и график 2.

Таблица 2 -- зависимость итерации от начального приближения

итерации

График 2 -- зависимость итерации от начального приближения

Заключение

При выполнении работы я рассмотрел и разработал систему многомерной безусловной оптимизации методом Хука--Дживса с минимизацией по направлению, с использованием для исследующего поиска метод одномерной квадратичной оптимизации.

Список литературы.

1. Р.Хук,Т.А.Дживс “ Прямой поиск решения для числовых и статических проблем ”, 212-219 с., 1961.

2. Алгоритмы и примеры решения задач одномерной оптимизации: Метод.указ./ Сост.: С.П Мочалов, И.А. Рыбенко.: СибГИУ.- Новокузнецк, 2004.- 18с., ил.

3. Мочалов С.П. Методы оптимизации металлургических процессов: Учебное пособие / КузПИ. -Кемерово, 1989.- 81с.

Приложение 1

Var //описание глобальных переменных

iteration:integer;

functionRB1ExplSearch(x1,x2:double;check:integer):Double; //Функция для расчета метода квадратичной аппроксимации она же исследующий поиск

f1,f2,f3:double;

a0,a1,a2:double;

tx1,tx2,tx3:double;

ifcheck=1 then //для расчета первого х

f1:=sqr(tx1+x2)+sqr(x2-1);

f2:=sqr(tx2+x2)+sqr(x2-1);

f3:=sqr(tx3+x2)+sqr(x2-1);

a1:=(f2-f1)/(tx2-tx1);

xopt:=(tx2+tx1)/2-a1/2/a2;

ifcheck=2 then //для расчета второго х

f1:=sqr(tx1+x1)+sqr(tx1-1);

f2:=sqr(tx2+x1)+sqr(tx2-1);

f3:=sqr(tx3+x1)+sqr(tx3-1);

a1:=(f2-f1)/(tx2-tx1);

a2:=1/(tx3-tx2)*((f3-f1)/(tx3-tx1)-(f2-f1)/(tx2-tx1));

xopt:=(tx2+tx1)/2-a1/2/a2;

procedure TForm1.RezClick(Sender: TObject); //основная процедура

x1opt,x2opt:double;

error:single; //погрешность

ListBox1.Items.Clear;

EXopt1.Text:="";

EXopt2.Text:="";

EIteration.Text:="";

x1:=StrToFloat(Ex1.text);

x2:=StrToFloat(Ex2.text);

error:=strtofloat(Eerror.Text);

ifRB1.Checkedthen //проверка на выбор функции и запуск метода Хука--Дживса

x1opt:=RB1ExplSearch(x1,x2,1); //Передача значений в функцию квадратичной аппроксимации для первого х

x2opt:=RB1ExplSearch(x1opt,x2,2); // Передача значений в функцию квадратичной аппроксимации для второго х

ListBox1.Items.Add("Исследующий поиск");

ListBox1.Items.Add("x1 = "+FloatToStr(x1opt)+" x2 = "+FloatToStr(x2opt));

h1:=(x1opt-x1)*0.1;

h2:=(x2opt-x2)*0.1;

F:=sqr(x1+x2)+sqr(x2-1);

whiledF

F:=sqr(x1+x2)+sqr(x2-1);

ListBox1.Items.Add("Поискпообразцу");

ListBox1.Items.Add("x1 = "+FloatToStr(x1)+" x2 = "+FloatToStr(x2));

dF:=sqr(x1+x2)+sqr(x2-1);

test:=sqrt(sqr(x1-sx1)+sqr(x2-sx2)); // расчет критерий для окончание поиска

iteration:=iteration+1; //подсчет количества итераций

untiltest<=error //проверка критерий с заданной точность

raiseException.Create("Выбиритефункцию");

ListBox1.Items.Add("");

ListBox1.Items.Add("Количество итераций "+inttostr(iteration));

EIteration.Text:=IntToStr(iteration); //вывод результатов итерации

EXopt1.Text:=FloatToStr(x1); //вывод результатов для х первого

EXopt2.Text:=FloatToStr(x2); //вывод результатов для ч второго

EFunc.Text:=FloatToStr(F); //вывод результатов для функции в точках х1 х2

Except //блок обработки ошибок

onEConvertError do

ShowMessage("х1 должен быть числом или вместо точки должна быть запятая");

ShowMessage("х2 должен быть числом или вместо точки должна быть запятая");

Eerror.SetFocus;

ShowMessage("Точность должна быть числом или вместо точки должна быть запятая");

Подобные документы

    Сравнение методов многомерной оптимизации Хука-Дживса и Розенброка по числу вычислений и по числу вызова оптимизируемой функции в процессе оптимизации. Особенности применения алгоритмов ускоряющего шага, в которых используется поиск по направлению.

    лабораторная работа , добавлен 14.07.2012

    Пример расчета экстремума функции методом прямого поиска с дискретным шагом. Результаты отладки программы на контрольных примерах. Составление инструкции по использованию программы. Обработка результатов исследований визуальными средствами Excel.

    курсовая работа , добавлен 20.05.2012

    Программная реализация приложения для вычисления заданных функций. Процедура поиска минимума функции. Применение методов Хука-Дживса и градиентного спуска для решения задачи. Исследование функции в окрестности базисной точки, определение ее координат.

    контрольная работа , добавлен 02.02.2014

    Решения алгебраических уравнений методом выделения корней. Аппроксимация функций методом наименьших квадратов; дихотомия, бисекция. Одномерная оптимизация многоэкстремальных функций; метод золотого сечения. Многомерная оптимизация градиентным методом.

    курсовая работа , добавлен 04.03.2013

    Нахождение стационарной точки. Расчет безусловного экстремума функции методами прямого поиска. Графическое пояснение метода равномерного симплекса. Метод поиска Хука-Дживса. Метод сопряженных направлений Пауэлла. Разработка программного модуля расчетов.

    курсовая работа , добавлен 16.09.2012

    Сущность задач оптимизации и методы их решения с ориентацией на современные средства компьютерной техники. Область допустимых решений. Структура оптимизационной модели. Проверка правильности нахождения точек координат методом половинного деления.

    курсовая работа , добавлен 25.04.2015

    Теоретические основы вариационного исчисления и область применения метода. Практическое решение задач оптимизации методом вариационного исчисления. Нахождение экстремума функционала и частных производных. Составление дифференциального уравнения Эйлера.

    лабораторная работа , добавлен 16.12.2014

    Методы решения задач параметрической оптимизации. Решение однокритериальных задач с параметром в целевой функции и в ограничениях. Решение многокритериальной задачи методом свертки критериев, методом главного критерия, методом последовательных уступок.

    курсовая работа , добавлен 14.07.2012

    Необходимые условия экстремума. Разработка машинного алгоритма и программы многомерной оптимизации для градиентного метода с использованием метода равномерного поиска. Проверка необходимых и достаточных условий экстремума для найденной точки минимума.

    курсовая работа , добавлен 25.09.2013

    Описание и функциональное назначение программы по оптимизации функции, ее логическая структура и используемые технические средства. Практическое применение программы, вызов и загрузка, входные и выходные данные, выполнение контрольного примера и листинг.

  • Введение
  • Метод Хука-Дживса
  • Блок-схема данного метода
  • Блок-схема единичного исследования
  • Текст программы
  • Распечатка результатов работы программы
  • Литература
  • Введение

    На разработку методов прямого поиска для определения минимума функций и переменных было затрачено много усилий. Методы прямого поиска являются методами, в которых используются только значения функции. Мы рассмотрим подробно лишь один из них. Практика показала, что этот метод эффективен и применим для широкого числа приложений. Рассмотрим функцию двух переменных. Ее линии постоянного уровня 1 на рис. 1,

    а минимум лежит в точке (x 1 * ,x 2 *). Простейшим методом поиска является метод покоординатного спуска. Из точки А мы производим поиск минимума вдоль направления оси и, таким образом, находим точку В, в которой касательная к линии постоянного уровня параллельна оси. Затем, производя поиск из точки В в направлении оси, получаем точку С, производя поиск параллельно оси, получаем точку D, и т. д. Таким образом, мы приходим к оптимальной точке. Очевидным образом эту идую можно применить для функций n-переменных.

    Теоретически данный метод эффективен в случае единственного минимума функции. Но на практике он оказывается слишком медленным. Поэтому были разработаны более сложные методы, использующие больше информации на основании уже полученных значений функции.

    Метод Хука-Дживса

    Метод Хука-Дживса был разработан в 1961 году, но до сих пор является весьма эффективным и оригинальным. Поиск состоит из последовательности шагов исследующего поиска вокруг базисной точки, за которой в случае успеха следует поиск по образцу. Он применяется для решения задачи минимизирования функции без учета ограничений.

    Описание этой процедуры представлено ниже:

    А. Выбрать начальную базисную точку b 1 и шаг длиной h 1 для каждой переменной x j , j = 1, 2,…, n. В приведенной ниже программе для каждой переменной используется шаг h , однако указанная выше модификация тоже может оказаться полезной.

    Б. Вычислить f (х) в базисной точке b 1 с целью получения сведений о локальном поведении функции f (x). Эти сведения будут использоваться для нахождения подходящего направления поиска по образцу, с помощью которого можно надеяться достичь большего убывания значения функции. Функция f (x) в базисной точке b 1 , находится следующим образом:

    1. Вычисляется значение функции f (b 1) в базисной точке b 1 .

    2. Каждая переменная по очереди изменяется прибавлением длины шага. Таким образом, мы вычисляем значение функции f (b 1 +h 1 e 1), где e 1 – единичный вектор в направлении оси x 1 . Если это приводит к уменьшению значения функции, то b 1 заменяется на b 1 +h 1 e 1 . В противном случае вычисляется значение функции f (b 1 -h 1 e 1), и если ее значение уменьшилось, то b 1 заменяем на b 1 -h 1 e 1 . Если ни один из проделанных шагов не приводит к уменьшению значения функции, то точка b 1 остается неизменной и рассматриваются изменения в направлении оси х 2 , т. е. находится значение функции f (b 1 +h 2 e 2) и т. д. Когда будут рассмотрены все n переменные, мы будем иметь новую базисную точку b 2 .

    3. Если b 2 =b 1 , т. е. уменьшение функции не было достигнуто, то исследование повторяется вокруг той же базисной точки b 1 , но с уменьшенной длиной шага. На практике удовлетворительным является уменьшение шага (шагов) в десять раз от начальной длины.

    4. Если b 2 b 1 , то производится поиск по образцу.

    В. При поиске по образцу используется информация, полученная в процессе исследования, и минимизация функции завершается поиском в направлении, заданном образцом. Эта процедура производится следующим образом:

    1. Разумно двигаться из базисной точки b 2 в направлении b 2 -b 1 , поскольку поиск в этом направлении уже привел к уменьшению значения функции. Поэтому вычислим функцию в точке образца

    P 1 =b 1 +2(b 2 -b 1) .

    В общем случае

    P i =b i +2(b i+1 -b i) .

    2. Затем исследование следует продолжать вокруг точки Р 1 (Р i) .

    3. Если наименьшее значение на шаге В, 2 меньше значения в базисной точке b 2 (в общем случае b i+1), то получают новую базисную точку b 3 (b i+2), после чего следует повторить шаг В, 1. В противном случае не производить поиск по образцу из точки b 2 (b i+1), а продолжить исследования в точке b 2 (b i+1).

    Г. Завершить этот процесс, когда длина шага (длины шагов) будет уменьшена до заданного малого значения.

    Модифицированный метод Хука-Дживса

    Этот метод нетрудно модифицировать и для учета ограничений.Было выдвинуто предложение, что для этого будет вполне достаточно при решении задачи минимизации присвоить целевой функции очень большое значение там,где ограничения нарушаются.К тому же такую идею просто реализовать с помощью програмирования.

    Нужно проверить,каждая ли точка,полученная в процессе поиска, принадлежит области ограничений.Если каждая, то целевая функция вычисляется обычным путем. Если нет, то целевой функции присваивается очень большое значение. Таким образом, поиск будет осуществляться снова в допустимой области в направлении к минимальной точке внутри этой области.

    В тексте прогаммы модифицированного метода прямого поиска Хука-Дживса сделана попытка реализовать такую процедуру. Рассматриваемая задача формулируется следующим образом:

    минимизировать f

    Текст программы

    program HuDjMody;

    (*** Модифицированный метод Хука-Дживса ***)

    (*** (при наличии ограничений) ***)

    label 0,1,2,3,4,5,6,7;

    var k,h,z,ps,bs,fb,fi:real;

    i,j,n,fe:integer;

    x,y,b,p:array of real;

    (*** Процедура,вычисляющая функцию ***)

    procedure calculate;

    z:=3*sqr(x)+(4*x*x)+(5*sqr(x));

    if (x<0) or (x<0) or ((x+x)<4) then

    fe:=fe+1; (*** Счетчик ***)

    writeln("Модифицированный метод Хука-Дживса");

    writeln("(при наличии ограничений)");

    writeln("Введите число переменных:");

    writeln("Введите начальную точку x1,x2,…,xN");

    for i:=1 to n do

    writeln("Введите длину шага");

    for i:=1 to n do

    writeln("Начальное значение функции", z:2:3);

    for i:=1 to n do

    writeln(x[i]:2:3);

    (*** Исследование вокруг базисной точки ***)

    0: x[j]:=y[j]+k;

    if z

    if z

    writeln("Пробный шаг"," ", z:2:3);

    for i:=1 to n do

    writeln(x[i]:2:3);

    if j=n then goto 3;

    3: if fi

    (*** После оператора 3,если функция не уменьшилась, ***)

    (*** произвести поиск по образцу ***)

    if (ps=1) and (bs=0) then

    (*** Но если исследование производилось вокруг точки ***)

    (*** шаблона PT,и уменьшение функции не было достигнуто,***)

    (*** то изменить базисную точку в операторе 4: ***)

    (*** в противном случае уменьшить длину шага в операторе***)

    4: for i:=1 to n do

    writeln("Замена базисной точки"," ",z:2:3);

    for i:=1 to n do

    writeln(x[i]:1:3);

    (*** (следует за последним комментарием) ***)

    (*** и провести исследование вокруг новой базисной точки ***)

    writeln("Уменьшить длину шага");

    if k<1e-08 then goto 7;

    (*** Если поиск незакончен,то произвести новое ***)

    (*** исследование вокруг новой базисной точки ***)

    (*** Поиск по образцу ***)

    6: for i:=1 to n do

    p[i]:=2*y[i]-b[i];

    writeln("Поиск по образцу"," ",z:2:3);

    for i:=1 to n do

    writeln(x[i]:2:3);

    (*** После этого произвести исследование вокруг ***)

    (*** последней точки образца ***)

    7: writeln("Минимум найден");

    for i:=1 to n do

    writeln("x(",i,")=",p[i]:2:3);

    writeln("Минимум функции равен"," ",fb:2:3);

    writeln("Количество вычислений функции равно"," ",fe);

    repeat until keypressed;

    Приведенная выше программа реализует описанную процедуру. Одной или двух точек бывает недостаточно для определения начальной точки. Первая точка всегда должна выбираться осмотрительно. ЭВМ работает только с ограниченной точностью, и ошибки могут накапливаться в процессе сложных вычислений, особенно если шаг имеет “неудобную” длину. (Обычно мы будем избегать “неудобной” длины, но программа должна быть работоспособна и в таких ситуациях.) Поэтому в строке, где выясняется вопрос об изменении базисной точки, мы избегаем уменьшения длины шага из-за накапливания ошибки введением длины шага, равной . Мы отслеживаем, где производится исследование – в базисной точке (В5 = 1, Р5 = 0) или в точке образца (В5 = 0, Р5 = 1). Как можно убедиться на практике, если не принимаются такие меры предосторожности даже программа с удовлетворительной логикой будет неработоспособна.

    В приведенной программе минимальная длина шага равна , но она может быть изменена. Для контроля за выполнением процедуры в программу введена печать промежуточных результатов. Для увеличения скорости счета могут быть удалены строки вывода подсказок и пояснений.

    Процедура calculate вычисляет значение минимизируемой функции,в нашем случае: f (x 1 ,x 2) = 3x 1 2 +4x 1 x 2 +5x 2 2 ,

    при ограничениях x 1 x 2 x 1 +x 2 .

    Минимум, равный 44, достигается в точке (3;1) при ограничении x 1 +x 2 =4.

    Для начальной точки (4;3) и при длине шага, равной единице, программой успешно решена задача минимизации.

    Ниже приведена распечатка результата работы программы:

    Модифицированный метод Хука-Дживса

    (при наличииограничений)

    Введите число переменных

    Введите длину шага

    Начальное значение функции 141.000

    Пробный шаг 108.000

    Пробный шаг 71.000

    Пробный шаг 44.000

    Пробный шаг 44.000

    Поиск по образцу 1.70000000000001566Е+0038

    Пробный шаг 48.000

    Пробный шаг 48.000

    Замена базисной точки 44.000

    Пробный шаг 44.000

    Пробный шаг 44.000

    Уменьшить длину шага

    Пробный шаг 44.000

    Пробный шаг 44.000

    Уменьшить длину шага

    Пробный шаг 44.000

    Пробный шаг 44.000

    Уменьшить длину шага

    Пробный шаг 44.000

    Пробный шаг 44.000

    Уменьшить длину шага

    Пробный шаг 44.000

    Пробный шаг 44.000

    Уменьшить длину шага

    Пробный шаг 44.000

    Пробный шаг 44.000

    Уменьшить длину шага

    Пробный шаг 44.000

    Пробный шаг 44.000

    Уменьшить длину шага

    Пробный шаг 44.000

    Пробный шаг 44.000

    Уменьшить длину шага

    Минимум найден

    Минимум функции равен 44.000

    Количество вычислений равно 74

    Для начальной точки (3;4) и длины шага, равной единице, программой также успешно решена задача минимизации.

    Для начальной точки (5;6) и длины шага, равной единице, задача не решена, т.к. программа остановилась в точке (1;3) , т.е. на активном ограничении, и выдала неверный результат.

    Распечатка результата работы программы приведена ниже:

    Модифицированный метод Хука-Дживса

    (при наличииограничений)

    Введите число переменных

    Введите начальную точку х1,х2,…,хN

    Введите длину шага

    Начальное значение функции 375.000

    Пробный шаг 324.000

    Пробный шаг 253.000

    Поиск по образцу 155.000

    Пробный шаг 124.000

    Пробный шаг 81.000

    Поиск по образцу 1.70000000000001566Е+0038

    Пробный шаг 1.70000000000001566Е+0038

    Замена базисной точки 81.000

    Пробный шаг 60.000

    Пробный шаг 60.000

    Поиск по образцу 1.70000000000001566Е+0038

    Пробный шаг 60.000

    Пробный шаг 60.000

    Замена базисной точки 60.000

    Пробный шаг 60.000

    Пробный шаг 60.000

    Уменьшить длину шага

    Пробный шаг 60.000

    Пробный шаг 60.000

    Уменьшить длину шага

    Пробный шаг 60.000

    Пробный шаг 60.000

    Уменьшить длину шага

    Пробный шаг 60.000

    Пробный шаг 60.000

    Уменьшить длину шага

    Пробный шаг 60.000

    Пробный шаг 60.000

    Уменьшить длину шага

    Пробный шаг 60.000

    Пробный шаг 60.000

    Уменьшить длину шага

    Пробный шаг 60.000

    Пробный шаг 60.000

    Уменьшить длину шага

    Пробный шаг 60.000

    Пробный шаг 60.000

    Уменьшить длину шага

    Минимум найден

    Минимум функции равен 60.000

    Количество вычислений равно 89

    Аналогичные неутешительные результаты были получены для начальной точки (5;6) и длины шага, равной 0.5 .Неверное решение было найдено в точке (1.5;2.5) . Для начальной точки (4;3) и длины шага, равной 0.5 ,программа работала нормально, но было получено неверное решение в точке (2.5;1.5) .

    Проблема понятна. С помощью данного метода невозможно двигаться вдоль границы области ограничений и сходимость достигается в первой же точке границы, где и находится решение. Общая задача оптимизации при наличии ограничений очень сложна и для получения практического метода решения требуются более изощренные процедуры, чем приведенная выше.

    Литература:

    1. Б.Банди “Методы оптимизации”
    2. Р.Хук, Т.А.Дживс “ Прямой поиск решения для числовых и статических проблем ”, 212-219 с., 1961 .