Рассматривается следующая многомерная задача локальной безусловной оптимизации: найти минимум критерия оптимальности (), определенного в -мерном евклидовом пространстве ,

 (1)

В методе повторяющегося случайного поиска (трех-шаговый метод) используется итерационная схема (см. рис. 1)

 (2)

где - величина шага (скаляр) на -ой итерации, - (*1)-вектор, определяющий направление шага на -ой итерации:

 (3)

Здесь - вектор «предыстории», определяющий среднее направление поиска на двух предыдущих шагах; - некоторая векторная норма; - -мерный вектор псевдослучайных чисел, равномерно распределенных в интервале ; скаляр - коэффициент, задающий относительные веса детерминированной и случайной компонент в векторе (свободный параметр метода); скаляр - коэффициент, задающий относительные веса векторов в векторе (свободный параметр метода).
Заметим, что отношение представляет собой единичный вектор направления , а отношение - единичный вектор направления .
Рис. 1.  К итерационной схеме метода повторяющегося случайного поиска.
Принято , , , так что и .
Упрощенная схема метода повторяющегося случайного поиска.
  1. Задаем начальную точку , начальный шаг , значения коэффициентов , и полагаем счетчик числа итераций =2.
  2. Тем или иным способом, например, с помощью одношагового метода наилучшей пробы определяем точки , - этап «разгона» метода.
  3. Генерируем -мерный случайный вектор и по формулам (2), (3) вычисляем координаты точки и значение () функции () в этой точке.
  4. Если , то проверяем условие окончания итераций (см. ниже). Если условие окончания выполнено, то полагаем и завершаем итерации. Если условие окончания итераций не выполнено, то некоторому правилу увеличиваем длину шага , например, полагая , принимаем и переходим к п.3. Если , то переходим к п. 5.
  5. Некоторое фиксированное количество раз делаем попытку, исходя из той же точки , не меняя длины шага , добиться уменьшения значения функции () путем только изменения вектора , т.е., не меняя и , переходим на п. 3. Если это фиксированное количество попыток не привело к успеху, то, исходя из той же точки ,по некоторому правилу уменьшаем длину шага , например, полагая , и переходим к п.3
В качестве условия окончания поиска можно использоваться одно из стандартных условий окончания итераций


где - константа, определяющая требуемую точность решения по ;


где - константа, определяющая требуемую точность решения по .
Известно множество модификаций рассмотренной простейшей схемы метода повторяющегося случайного поиска. Например, в процессе поиска могут изменяться по некоторым правилам не только длина шага , но и коэффициенты , .
Метод повторяющегося случайного поиска иллюстрирует рис. 2, на котором показан фрагмент линий уровня функции Химмельблау.
Рис. 2.  Траектория поиска минимума функции Химмельблау методом повторяющегося случайного поиска.
На рисунке принято , , , , , так что и . Пунктиром показаны отвергнутые векторы .