Особенность задач оптимизации в САПР состоит в том, что вычисление значения критерия оптимальности и значений ограничивающих функций при фиксированных значениях параметров может требовать больших затрат компьютерного времени. В связи с этим возникает проблема решения задачи оптимизации при наименьшем числе испытаний.
Рассмотрим для простоты записи только ограничении типа неравенств:
Испытанием называется операция однократного вычисления функций и, быть может, их производных, в некоторой точке .
Далее будем говорить, что детерминированная задача оптимизации решается с помощью поискового метода оптимизации, если используется следующая процедура поиска оптимального решения :
Классификация по наличию или отсутствию ограничений на вектор варьируемых параметров.
Метод поиска, ориентированный на решение задач безусловной оптимизации, называется методом безусловной оптимизации. Аналогично, метод поиска, ориентированный на решение задач условной оптимизации, называется методом условной оптимизации.
Классификация по размерности вектора X.
Если в формулах (1), (2) есть скаляр, то метод поиска называется одномерным методом поиска; если есть вектор (>1), то метод поиска называется многопараметрическим методом поиска.
Классификация по характеру искомого решения.
Если метод поиска гарантирует отыскание только локального минимума функции (), то метод называется методом локального поиска. Если делается попытка отыскать глобальный минимум (), то метод называется методом глобального поиска. Сразу отметим, что удовлетворительных с точки зрения вычислительной эффективности методов глобального поиска не существует.
Классификация по характеру функции Fr.
Если функции , являются детерминированными, то метод поиска называется детерминированным методом поиска. Если функции содержат случайные параметры, то метод поиска называется стохастическим методом поиска.
Методы пассивного и последовательного поиска.
Если все точки , =0,1,2,…, назначаются заранее (до проведения испытаний), то метод поиска называется пассивным методом поиска. Если точка определяется на основе всей или части информации об испытаниях в предыдущих точках, то метод называется последовательным методом поиска.
Классификация по количеству предыдущих учитываемых шагов.
Если при вычислении координат точки учитывается информация только об одном (предыдущем) испытании, то метод поиска называется одношаговым методом поиска.
Схема одношагового последовательного метода поиска:

Если при вычислении координат точки учитывается информация о >1 предыдущих испытаниях, то метод поиска называется многошаговым методом поиска (конкретнее, -шаговым).
Классификация по виду функций Fr.
Если функции на всех шагах одинаковы, то метод поиска называется итерационным методом поиска.
Схема одношагового итерационного метода последовательного поиска:

Если функции различны на различных шагах поиска, то метод называется не итерационным методом поиска.
Классификация по "близости" точек соседних точек, в которых производятся испытания.
Если точка принадлежит некоторой малой окрестности точки , т.е. , то метод поиска называется локальным методом поиска. Если точка может принадлежать любой точки множества , т.е. , то метод поиска называется нелокальным методом поиска.
Классификация по порядку используемых производных.
Если при вычислении значений функции производные не используются, то метод поиска называется прямым методом поиска или методом поиска нулевого порядка. Если при этом используются производные -го порядка, то метод поиска называется методом поиска k-го порядка. Метод поиска первого порядка называется также градиентным методом поиска.
Способ выбора начальной точки и конкретная совокупность функций называются алгоритмом поисковой оптимизации. Таким образом, понятие алгоритма является более частным по сравнению с понятием метода (одному и тому же методу могут соответствовать различные алгоритмы).
Важной проблемой при построении методов решения задач оптимизации является проблема выбора условия окончания поиска (критерия окончания поиска). Простейшими, но широко используемыми в вычислительной практике, являются следующие критерии окончания поиска:

 (3)

где — константа, определяющая требуемую точность решения по ;

 (4)

где — константа, определяющая требуемую точность решения по . Здесь — некоторая векторная норма (например, евклидова).
Будем далее условия окончания поиска (3), (4) называть стандартными условиями окончания поиска (стандартными критериями окончания поиска).