Рассматривается следующая многомерная задача глобальной условной оптимизации: найти минимум критерия оптимальности , определенного во множестве пространства ,
 (1)

где множество допустимых значений
 (2)

Положим, что множество допустимых значений задается только с помощью ограничений типа неравенств и представляет собой гиперпараллелепипед
 (3)

Метод сведения к совокупности вложенных одномерных задач глобальной оптимизации состоит в решении вместо задачи (1), (3) следующей совокупности вложенных одномерных задач условной оптимизации.
 (4)

где множества , представляют собой соответствующие сечения множества (см. ниже).
Поясним смысл метода с помощью примера.
Пример 1
Положим, что и , т.е. . Вложенные одномерные задачи глобальной оптимизации (4) в этом случае можно представить в виде (см. рис. 1)
 (5)

 (6)

где — сечение области прямой, параллельной оси . Задача (5) представляет собой одномерную задачу глобальной оптимизации критерия оптимальности по параметру , для вычисления значения которого при данном фиксированном необходимо решить одномерную задачу глобальной оптимизации критерия оптимальности по параметру
Рис. 1.  К прим. 1. При решении задачи (5) вычисление значения критерия оптимальности Ф(Х) при некотором x = x1 требует решения задачи минимизации (6) на множестве D(x1).
Положим, что для решения всех вложенных одномерных задач глобальной оптимизации (4) используется метод случайного поиска. Обозначим число испытаний, необходимых для отыскания методом перебора с заданной точностью глобального минимума функции по параметру (когда параметры фиксированы). Тогда общее количество испытаний для решения задачи , равно, очевидно,
Поэтому при такой алгоритм становится неэффективным. При надежность алгоритма достаточно высока, а затраты на поиск значительно меньше затрат на полный перебор на той же сетке.
Метод решения многомерной задачи глобальной условной оптимизации путем сведения к совокупности вложенных одномерных задач глобальной оптимизации может быть скомбинирован со всеми рассмотренными в главе 5 методами решения одномерных задач глобальной оптимизации. Рассмотрим комбинацию этого метода с методом случайного поиска для двумерной задачи (1), (3).
Схема комбинации метода с методом случайного поиска (n = 2).
  1. Задаем величины – количества испытаний при решении задач (5), (6), соответственно. Полагаем .
  2. Генерируем с помощью какого-либо программного генератора случайных чисел, равномерно распределенных в интервале , случайное число .
  3. Методом случайного поиска решаем задачу (6) при – находим точку и вычисляем значение критерия оптимальности .
  4. Аналогично п.2 генерируем случайное число .
  5. Методом случайного поиска решаем задачу (6) при – находим точку и вычисляем значение критерия оптимальности .
  6. Если , то выполняем присваивания .
  7. Если , то выполняем присваивание и переходим на п.4. Иначе принимаем точку в качестве приближенного значения точки глобального минимума функции в области или каким-либо из рассмотренных ранее методов организуем в окрестности указной точки поиск локального минимума функции и заканчиваем вычисления
Отметим еще раз, что рассмотренный метод, как и любой другой метод глобальной оптимизации, при отсутствии априорной информации о свойствах минимизируемой функции не гарантирует нахождение глобального минимума.
Комбинацию рассматриваемого метода с методом случайного поиска для двумерной задачи иллюстрирует рис. 2, на котором показан фрагмент линий уровня функции Химмельблау. Принято, что X* — точка минимума функции Ф(X) в области D после (r — 1)-ой итерации. Точки на прямой x1 = xr1 случайным образом сгенерированы на r-ой итерации. После завершения r-ой итерации, очевидно, X* = xr1, xr1.
Рис. 2.  Итерация номер r комбинации метода сведения с методом случайного поиска для двумерной задачи.
Линии уровня на рис. 1 получены с помощью следующей MATLAB-программы:
x = -6 : 0.05 : 6;
y = x;
[X, Y] = meshgrid(x);
Z = (X.^2 + Y - 11).^2 + (X + Y.^2 - 7).^2;
V = [1, 4, 8, 16, 32, 64, 100, 150, 200, 250];
[C, h] = contour(X, Y, Z, V);
clabel(C, h);