Искусственный нейрон (или в данном контексте просто нейрон) — искусственный объект, имитирующий некоторые свойства (функции) естественного нейрона. Математическая модель нейрона представляется уравнением
 (1)

где — выходной сигнал (выход) нейрона, — функция активации (возбуждения), — коэффициент (вес) -го входа, — начальное состояние нейрона, - сигнал на -м входе нейрона. Функция активации во многом определяет свойства нейрона. На практике используют ряд функций активации. Одной из популярных является сигмоидная функция

Модель (1) может быть представлена в виде структурной схемы рис. 1.
Рис. 1.  Структурная схема искусственного нейрона
Совокупность взаимосвязанных нейронов называют нейронной сетью.
Нейронные сети классифицируют по ряду признаков.
В зависимости от числа слоев нейронов различают сети одно-, двух- , трех- и многослойные. На рис. 2 в качестве примера показана топология трехслойной сети (на рисунке нейроны изображены овалами).
Рис. 2.  Пример топологии нейронной сети
Исторически первыми создавались персептроны — однослойные нейросети. Однако в персептронах нельзя реализовать большинство моделей, встречающихся в практических задачах. Такими моделями являются линейно неразделимые функции. Линейная неразделимость имеет место для немонотонных функций, простым примером которых может служить функция "Исключающее ИЛИ".
Этот недостатое персептронов преодолевается в многослойных нейросетях.
При настройке нейросети на решение задач требуется ее обучение, заключающееся в расчете весов входов каждого слоя. Обучение может быть с учителем или без учителя (самообучение).
По своей сути задача обучения является оптимизационной задачей. Задается несколько обучающих пар, состоящих каждая из входного вектора и соответствующего ему выходного вектора . Целевой функцией при оптимизации является вектор рассогласования реакции сети и заданного . Оптимизация (обучение) проводится поочередно для каждой обучающей пары каким-либо поисковым методом.
Наиболее распространенным методом обучения является метод обратного распространения ошибки . Алгоритм этого метода включает шаги:
  1. Выбор очередной обучающей пары;
  2. Расчет и .
  3. Корректировка весов, которая выполняется по градиентному методу сначала для весов выходного слоя, затем для весов предыдущего скрытого слоя и далее вплоть до весов входного слоя;
  4. Если невязка превышает заданный порог, то повторение пунктов 1-3.
Процедура обучения может быть довольно длительной из-за плохой обусловленности задачи.
Одним из способов упрощения задач обучения сети является использование сетей встречного распространения. Сеть встречного распространения состоит из двух слоев нейронов — слоя Кохонена и слоя Гроссберга. Слой Кохонена благодаря обучению настраивается на выполнение кластеризации входных векторов, причем каждому кластеру соответствует возбуждение какого-либо одного нейрона. Это возбуждение переводится нейронами выходного слоя Гроссберга в заданный код кластера.
В сетях с обратными связями на входы предыдущего слоя подаются сигналы с выходов последующих слоев. Сеть Хопфилда за счет введения обратной связи устанавливается в одно из возможных своих состояний. Каждому состоянию соответствуют определенный экстремум функции , где — выходной, а — входной векторы сети. Если сеть обучена, то подача на вход некоторого , находящегося в области притяжения экстремума , приводит к переходу сети в устойчивое состояние . Тем самым решаются задачи распознавания, ассоциативной памяти, кластеризации и т.п.
Нейрокомпьютером называют компьютер, в котором основной операционный блок представлен нейронной сетью.