Ошибка нейрона на скрытом слое

    • обратное распространение

      Обратное распространение ошибки — это способ обучения нейронной сети. Цели обратного распространения просты: отрегулировать каждый вес пропорционально тому, насколько он способствует общей ошибке. Если мы будем итеративно уменьшать ошибку каждого веса, в конце концов у нас будет ряд весов, которые дают хорошие прогнозы.

      Обновление правила цепочки

      Прямое распространение можно рассматривать как длинный ряд вложенных уравнений. Если вы так думаете о прямом распространении, то обратное распространение — это просто приложение правила цепочки (дифференцирования сложной функции) для поиска производных потерь по любой переменной во вложенном уравнении. С учётом функции прямого распространения:

      f(x)=A(B(C(x)))

      A, B, и C — функции активации на различных слоях. Пользуясь правилом цепочки, мы легко вычисляем производную f(x) по x:

      f′(x)=f′(A)⋅A′(B)⋅B′(C)⋅C′(x)

      Что насчёт производной относительно B? Чтобы найти производную по B, вы можете сделать вид, что B (C(x)) является константой, заменить ее переменной-заполнителем B, и продолжить поиск производной по B стандартно.

      f′(B)=f′(A)⋅A′(B)

      Этот простой метод распространяется на любую переменную внутри функции, и позволяет нам в точности определить влияние каждой переменной на общий результат.

      Применение правила цепочки

      Давайте используем правило цепочки для вычисления производной потерь по любому весу в сети. Правило цепочки поможет нам определить, какой вклад каждый вес вносит в нашу общую ошибку и направление обновления каждого веса, чтобы уменьшить ошибку. Вот уравнения, которые нужны, чтобы сделать прогноз и рассчитать общую ошибку или потерю:

      обратное распространение ошибки

      Учитывая сеть, состоящую из одного нейрона, общая потеря нейросети может быть рассчитана как:

      Cost=C(R(Z(XW)))

      Используя правило цепочки, мы легко можем найти производную потери относительно веса W.

      C′(W)=C′(R)⋅R′(Z)⋅Z′(W)=(y^−y)⋅R′(Z)⋅X

      Теперь, когда у нас есть уравнение для вычисления производной потери по любому весу, давайте обратимся к примеру с нейронной сетью:

      обратное распространение ошибки нейронная сеть

      Какова производная от потери по Wo?

      C′(WO)=C′(y^)⋅y^′(ZO)⋅Z′O(WO)=(y^−y)⋅R′(ZO)⋅H

      А что насчет Wh? Чтобы узнать это, мы просто продолжаем возвращаться в нашу функцию, рекурсивно применяя правило цепочки, пока не доберемся до функции, которая имеет элемент Wh.

      C′(Wh)=C′(y^)⋅O′(Zo)⋅Z′o(H)⋅H′(Zh)⋅Z′h(Wh)=(y^−y)⋅R′(Zo)⋅Wo⋅R′(Zh)⋅X

      И просто забавы ради, что, если в нашей сети было бы 10 скрытых слоев. Что такое производная потери для первого веса w1?

      C(w1)=(dC/dy^)⋅(dy^/dZ11)⋅(dZ11/dH10)⋅(dH10/dZ10)⋅(dZ10/dH9)⋅(dH9/dZ9)⋅(dZ9/dH8)⋅(dH8/dZ8)⋅(dZ8/dH7)⋅(dH7/dZ7)⋅(dZ7/dH6)⋅(dH6/dZ6)⋅(dZ6/dH5)⋅(dH5/dZ5)⋅(dZ5/dH4)⋅(dH4/dZ4)⋅(dZ4/dH3)⋅(dH3/dZ3)⋅(dZ3/dH2)⋅(dH2/dZ2)⋅(dZ2/dH1)⋅(dH1/dZ1)⋅(dZ1/dW1)

      Заметили закономерность? Количество вычислений, необходимых для расчёта производных потерь, увеличивается по мере углубления нашей сети. Также обратите внимание на избыточность в наших расчетах производных. Производная потерь каждого слоя добавляет два новых элемента к элементам, которые уже были вычислены слоями над ним. Что, если бы был какой-то способ сохранить нашу работу и избежать этих повторяющихся вычислений?

      Сохранение работы с мемоизацией

      Мемоизация — это термин в информатике, имеющий простое значение: не пересчитывать одно и то же снова и снова. В мемоизации мы сохраняем ранее вычисленные результаты, чтобы избежать пересчета одной и той же функции. Это удобно для ускорения рекурсивных функций, одной из которых является обратное распространение. Обратите внимание на закономерность в уравнениях производных приведённых ниже.

      уравнение обратного распространения

      Каждый из этих слоев пересчитывает одни и те же производные! Вместо того, чтобы выписывать длинные уравнения производных для каждого веса, можно использовать мемоизацию, чтобы сохранить нашу работу, так как мы возвращаем ошибку через сеть. Для этого мы определяем 3 уравнения (ниже), которые вместе выражают в краткой форме все вычисления, необходимые для обратного распространения. Математика та же, но уравнения дают хорошее сокращение, которое мы можем использовать, чтобы отслеживать те вычисления, которые мы уже выполнили, и сохранять нашу работу по мере продвижения назад по сети.

      уравнение

      Для начала мы вычисляем ошибку выходного слоя и передаем результат на скрытый слой перед ним. После вычисления ошибки скрытого слоя мы передаем ее значение обратно на предыдущий скрытый слой. И так далее и тому подобное. Возвращаясь назад по сети, мы применяем 3-ю формулу на каждом слое, чтобы вычислить производную потерь по весам этого слоя. Эта производная говорит нам, в каком направлении регулировать наши веса, чтобы уменьшить общие потери.

      Примечание: термин ошибка слоя относится к производной потерь по входу в слой. Он отвечает на вопрос: как изменяется выход функции потерь при изменении входа в этот слой?

      Ошибка выходного слоя

      Для расчета ошибки выходного слоя необходимо найти производную потерь по входу выходному слою, Zo. Это отвечает на вопрос: как веса последнего слоя влияют на общую ошибку в сети?  Тогда производная такова:

      C′(Zo)=(y^−y)⋅R′(Zo)

      Чтобы упростить запись, практикующие МО обычно заменяют последовательность (y^−y)∗R'(Zo) термином Eo. Итак, наша формула для ошибки выходного слоя равна:

      Eo=(y^−y)⋅R′(Zo)

      Ошибка скрытого слоя

      Для вычисления ошибки скрытого слоя нужно найти производную потерь по входу скрытого слоя, Zh.

      C′(Zh)=(y^−y)⋅R′(Zo)⋅Wo⋅R′(Zh)

      Далее мы можем поменять местами элемент Eo выше, чтобы избежать дублирования и создать новое упрощенное уравнение для ошибки скрытого слоя:

      Eh=Eo⋅Wo⋅R′(Zh)

      Эта формула лежит в основе обратного распространения. Мы вычисляем ошибку текущего слоя и передаем взвешенную ошибку обратно на предыдущий слой, продолжая процесс, пока не достигнем нашего первого скрытого слоя. Попутно мы обновляем веса, используя производную потерь по каждому весу.

      Производная потерь по любому весу

      Вернемся к нашей формуле для производной потерь по весу выходного слоя Wo.

      C′(WO)=(y^−y)⋅R′(ZO)⋅H

      Мы знаем, что можем заменить первую часть уравнением для ошибки выходного слоя EhH представляет собой активацию скрытого слоя.

      C′(Wo)=Eo⋅H

      Таким образом, чтобы найти производную потерь по любому весу в нашей сети, мы просто умножаем ошибку соответствующего слоя на его вход (выход предыдущего слоя).

      C′(w)=CurrentLayerError⋅CurrentLayerInput

      Примечание: вход относится к активации с предыдущего слоя, а не к взвешенному входу, Z.

      Подводя итог

      Вот последние 3 уравнения, которые вместе образуют основу обратного распространения.

      основа обратного распространения

      Вот процесс, визуализированный с использованием нашего примера нейронной сети выше:

      _images/backprop_visually.png

      Обратное распространение: пример кода

      def relu_prime(z):
      if z > 0:
      return 1
      return 0
      
      def cost(yHat, y):
      return 0.5 * (yHat - y)**2
      
      def cost_prime(yHat, y):
      return yHat - y
      
      def backprop(x, y, Wh, Wo, lr):
      yHat = feed_forward(x, Wh, Wo)
      
      # Layer Error
      Eo = (yHat - y) * relu_prime(Zo)
      Eh = Eo * Wo * relu_prime(Zh)
      
      # Cost derivative for weights
      dWo = Eo * H
      dWh = Eh * x
      
      # Update weights
      Wh -= lr * dWh
      Wo -= lr * dWo

      Рад снова всех приветствовать, и сегодня продолжим планомерно двигаться в выбранном направлении. Речь, конечно, о масштабном разборе искусственных нейронных сетей для решения широкого спектра задач. Продолжим ровно с того момента, на котором остановились в предыдущей части, и это означает, что героем данного поста будет ключевой процесс — обучение нейронных сетей.

      • Градиентный спуск
      • Функция ошибки
      • Метод обратного распространения ошибки
      • Пример расчета

      Тема эта крайне важна, поскольку именно процесс обучения позволяет сети начать выполнять задачу, для которой она, собственно, и предназначена. То есть нейронная сеть функционирует не по какому-либо жестко заданному на этапе проектирования алгоритму, она совершенствуется в процессе анализа имеющихся данных. Этот процесс и называется обучением нейронной сети. Математически суть процесса обучения заключается в корректировке значений весов синапсов (связей между имеющимися нейронами). Изначально значения весов задаются случайно, затем производится обучение, результатом которого будут новые значения синаптических весов. Это все мы максимально подробно разберем как раз в этой статье.

      На своем сайте я всегда придерживаюсь концепции, при которой теоретические выкладки по максимуму сопровождаются практическими примерами для максимальной наглядности. Так мы поступим и сейчас 👍

      Итак, суть заключается в следующем. Пусть у нас есть простейшая нейронная сеть, которую мы хотим обучить (продолжаем рассматривать сети прямого распространения):

      Обучение нейронных сетей.

      То есть на входы нейронов I1 и I2 мы подаем какие-либо числа, а на выходе сети получаем соответственно новое значение. При этом нам необходима некая выборка данных, включающая в себя значения входов и соответствующее им, правильное, значение на выходе:

      bold{I_1} bold{I_2} bold{O_{net}}
      x_{11} x_{12} y_{1}
      x_{21} x_{22} y_{2}
      x_{31} x_{32} y_{3}
      x_{N1} x_{N2} y_{N}

      Допустим, сеть выполняет суммирование значений на входе, тогда данный набор данных может быть таким:

      bold{I_1} bold{I_2} bold{O_{net}}
      1 4 5
      2 7 9
      3 5 8
      1000 1500 2500

      Эти значения и используются для обучения сети. Как именно — рассмотрим чуть ниже, пока сконцентрируемся на идее процесса в целом. Для того, чтобы иметь возможность тестировать работу сети в процессе обучения, исходную выборку данных делят на две части — обучающую и тестовую. Пусть имеется 1000 образцов, тогда можно 900 использовать для обучения, а оставшиеся 100 — для тестирования. Эти величины взяты исключительно ради наглядности и демонстрации логики выполнения операций, на практике все зависит от задачи, размер обучающей выборки может спокойно достигать и сотен тысяч образцов.

      Итак, итог имеем следующий — обучающая выборка прогоняется через сеть, в результате чего происходит настройка значений синаптических весов. Один полный проход по всей выборке называется эпохой. И опять же, обучение нейронной сети — это процесс, требующий многократных экспериментов, анализа результатов и творческого подхода. Все перечисленные параметры (размер выборки, количество эпох обучения) могут иметь абсолютно разные значения для разных задач и сетей. Четкого правила тут просто нет, в этом и кроется дополнительный шарм и изящность )

      Возвращаемся к разбору, и в результате прохода обучающей выборки через сеть мы получаем сеть с новыми значениями весов синапсов.

      Далее мы через эту, уже обученную в той или иной степени, сеть прогоняем тестовую выборку, которая не участвовала в обучении. При этом сеть выдает нам выходные значения для каждого образца, которые мы сравниваем с теми верными значениями, которые имеем.

      Анализируем нашу гипотетическую выборку:

      Обучающая выборка.

      Таким образом, для тестирования подаем на вход сети значения x_{(M+1)1}, x_{(M+1)2} и проверяем, чему равен выход, ожидаем очевидно значение y_{(M+1)}. Аналогично поступаем и для оставшихся тестовых образцов. После чего мы можем сделать вывод, успешно или нет работает сеть. Например, сеть дает правильный ответ для 90% тестовых данных, дальше уже встает вопрос — устраивает ли нас данная точность или процесс обучения необходимо повторить, либо провести заново, изменив какие-либо параметры сети.

      В этом и заключается суть обучения нейронных сетей, теперь перейдем к деталям и конкретным действиям, которые необходимо осуществить для выполнения данного процесса. Двигаться снова будем поэтапно, чтобы сформировать максимально четкую и полную картину. Поэтому начнем с понятия градиентного спуска, который используется при обучении по методу обратного распространения ошибки. Обо всем этом далее…

      Обучение нейронных сетей. Градиентный спуск.

      Рассмотрев идею процесса обучения в целом, на данном этапе мы можем однозначно сформулировать текущую цель — необходимо определить математический алгоритм, который позволит рассчитать значения весовых коэффициентов таким образом, чтобы ошибка сети была минимальна. То есть грубо говоря нам необходима конкретная формула для вычисления:

      Здесь Delta w_{ij} — величина, на которую необходимо изменить вес синапса, связывающего нейроны i и j нашей сети. Соответственно, зная это, необходимо на каждом этапе обучения производить корректировку весов связей между всеми элементами нейронной сети. Задача ясна, переходим к делу.

      Пусть функция ошибки от веса имеет следующий вид:

      Для удобства рассмотрим зависимость функции ошибки от одного конкретного веса:

      График ошибки.

      В начальный момент мы находимся в некоторой точке кривой, а для минимизации ошибки попасть мы хотим в точку глобального минимума функции:

      Минимизация ошибки при обучении нейронной сети.

      Нанесем на график вектора градиентов в разных точках. Длина векторов численно равна скорости роста функции в данной точке, что в свою очередь соответствует значению производной функции по данной точке. Исходя из этого, делаем вывод, что длина вектора градиента определяется крутизной функции в данной точке:

      Градиентный спуск.

      Вывод прост — величина градиента будет уменьшаться по мере приближения к минимуму функции. Это важный вывод, к которому мы еще вернемся. А тем временем разберемся с направлением вектора, для чего рассмотрим еще несколько возможных точек:

      Алгоритм обратного распространения ошибки.

      Находясь в точке 1, целью является перейти в точку 2, поскольку в ней значение ошибки меньше (E_2 < E_1), а глобальная задача по-прежнему заключается в ее минимизации. Для этого необходимо изменить величину w на некое значение Delta w (Delta w = w_2 — w_1 > 0). При всем при этом в точке 1 градиент отрицательный. Фиксируем данные факты и переходим к точке 3, предположим, что мы находимся именно в ней.

      Тогда для уменьшения ошибки наш путь лежит в точку 4, а необходимое изменение значения: Delta w = w_4 — w_3 < 0. Градиент же в точке 3 положителен. Этот факт также фиксируем.

      А теперь соберем воедино эту информацию в виде следующей иллюстрации:

      Переход bold{Delta w} Знак bold{Delta w} Градиент
      1 rArr 2 w_2 — w_1 +
      3 rArr 4 w_4 — w_3 +

      Вывод напрашивается сам собой — величина, на которую необходимо изменить значение w, в любой точке противоположна по знаку градиенту. И, таким образом, представим эту самую величину в виде:

      Delta w = -alpha cdot frac{dE}{dw}

      Имеем в наличии:

      • Delta w — величина, на которую необходимо изменить значение w.
      • frac{dE}{dw} — градиент в этой точке.
      • alpha — скорость обучения.

      Собственно, логика метода градиентного спуска и заключается в данном математическом выражении, а именно в том, что для минимизации ошибки необходимо изменять w в направлении противоположном градиенту. В контексте нейронных сетей имеем искомый закон для корректировки весов синаптических связей (для синапса между нейронами i и j):

      Delta w_{ij} = -alpha cdot frac{dE}{dw_{ij}}

      Более того, вспомним о важном свойстве, которое мы отдельно пометили. И заключается оно в том, что величина градиента будет уменьшаться по мере приближения к минимуму функции. Что это нам дает? А то, что в том случае, если наша текущая дислокация далека от места назначения, то величина, корректирующая вес связи, будет больше. А это обеспечит скорейшее приближение к цели. При приближении к целевому пункту, величина frac{dE}{dw_{ij}} будет уменьшаться, что поможет нам точнее попасть в нужную точку, а кроме того, не позволит нам ее проскочить. Визуализируем вышеописанное:

      Скорость обучения.

      Скорость же обучения несет в себе следующий смысл. Она определяет величину каждого шага при поиске минимума ошибки. Слишком большое значение приводит к тому, что точка может «перепрыгнуть» через нужное значение и оказаться по другую сторону от цели:

      Норма обучения.

      Если же величина будет мала, то это приведет к тому, что спуск будет осуществляться очень медленно, что также является нежелательным эффектом. Поэтому скорость обучения, как и многие другие параметры нейронной сети, является очень важной величиной, для которой нет единственно верного значения. Все снова зависит от конкретного случая и оптимальная величина определяется исключительно исходя из текущих условий.

      И даже на этом еще не все, здесь присутствует один важный нюанс, который в большинстве статей опускается, либо вовсе не упоминается. Реальная зависимость может иметь совсем другой вид:

      Локальные минимумы при обучении нейронных сетей.

      Из чего вытекает потенциальная возможность попадания в локальный минимум, вместо глобального, что является большой проблемой. Для предотвращения данного эффекта вводится понятие момента обучения и формула принимает следующий вид:

      Delta w_{ij} = -alpha cdot frac{dE}{dw_{ij}} + gamma cdot Delta w_{ij}^{t - 1}

      То есть добавляется второе слагаемое, которое представляет из себя произведение момента на величину корректировки веса на предыдущем шаге.

      Итого, резюмируем продвижение к цели:

      • Нашей задачей было найти закон, по которому необходимо изменять величину весов связей между нейронами.
      • Наш результат — Delta w_{ij} = -alpha cdot frac{dE}{dw_{ij}} + gamma cdot Delta w_{ij}^{t — 1} — именно то, что и требовалось 👍

      И опять же, полученный результат логичным образом перенаправляет нас на следующий этап, ставя вопросы — что из себя представляет функция ошибки, и как определить ее градиент.

      Обучение нейронных сетей. Функция ошибки.

      Начнем с того, что определимся с тем, что у нас в наличии, для этого вернемся к конкретной нейронной сети. Пусть вид ее таков:

      Пример нейронной сети.

      Интересует нас, в первую очередь, часть, относящаяся к нейронам выходного слоя. Подав на вход определенные значения, получаем значения на выходе сети: O_{net, 1} и O_{net, 2}. Кроме того, поскольку мы ведем речь о процессе обучения нейронной сети, то нам известны целевые значения: O_{correct, 1} и O_{correct, 2}. И именно этот набор данных на этом этапе является для нас исходным:

      • Известно: O_{net, 1}, O_{net, 2}, O_{correct, 1} и O_{correct, 2}.
      • Необходимо определить величины Delta w_{ij} для корректировки весов, для этого нужно вычислить градиенты (frac{dE}{dw_{ij}}) для каждого из синапсов.

      Полдела сделано — задача четко сформулирована, начинаем деятельность по поиску решения.

      В плане того, как определять ошибку, первым и самым очевидным вариантом кажется простая алгебраическая разность. Для каждого из выходных нейронов:

      E_k = O_{correct, k} - O_{net, k}

      Дополним пример числовыми значениями:

      Нейрон bold{O_{net}} bold{O_{correct}} bold{E}
      1 0.9 0.5 -0.4
      2 0.2 0.6 0.4

      Недостатком данного варианта является то, что в том случае, если мы попытаемся просуммировать ошибки нейронов, то получим:

      E_{sum} = e_1 + e_2 = -0.4 + 0.4 = 0

      Что не соответствует действительности (нулевая ошибка, говорит об идеальной работе нейронной сети, по факту оба нейрона дали неверный результат). Так что вариант с разностью откидываем за несостоятельностью.

      Вторым, традиционно упоминаемым, методом вычисления ошибки является использование модуля разности:

      E_k = | O_{correct, k} - O_{net, k} |

      Тут в действие вступает уже проблема иного рода:

      График модуля.

      Функция, бесспорно, симпатична, но при приближении к минимуму ее градиент является постоянной величиной, скачкообразно меняясь при переходе через точку минимума. Это нас также не устраивает, поскольку, как мы обсуждали, концепция заключалась в том числе в том, чтобы по мере приближения к минимуму значение градиента уменьшалось.

      В итоге хороший результат дает зависимость (для выходного нейрона под номером k):

      E_k = (O_{correct, k} - O_{net, k})^2

      Функция по многим своим свойствам идеально удовлетворяет нуждам обучения нейронной сети, так что выбор сделан, остановимся на ней. Хотя, как и во многих аспектах, качающихся нейронных сетей, данное решение не является единственно и неоспоримо верным. В каких-то случаях лучше себя могут проявить другие зависимости, возможно, что какой-то вариант даст большую точность, но неоправданно высокие затраты производительности при обучении. В общем, непаханное поле для экспериментов и исследований, это и привлекательно.

      Краткий вывод промежуточного шага, на который мы вышли:

      • Имеющееся: frac{dE}{dw_{jk}} = frac{d}{d w_{jk}}(O_{correct, k} — O_{net, k})^2.
      • Искомое по-прежнему: Delta w_{jk}.

      Несложные диффернциально-математические изыскания выводят на следующий результат:

      frac{dE}{d w_{jk}} = -(O_{correct, k} - O_{net, k}) cdot f{Large{prime}}(sum_{j}w_{jk}O_j) cdot O_j

      Здесь эти самые изыскания я все-таки решил не вставлять, дабы не перегружать статью, которая и так выходит объемной. Но в случае необходимости и интереса, отпишите в комментарии, я добавлю вычисления и закину их под спойлер, как вариант.

      Освежим в памяти структуру сети:

      Пример обучения нейронных сетей.

      Формулу можно упростить, сгруппировав отдельные ее части:

      • (O_{correct, k} — O_{net, k}) cdot f{Large{prime}}(sum_{j}w_{jk}O_j) — ошибка нейрона k.
      • O_j — тут все понятно, выходной сигнал нейрона j.

      f{Large{prime}}(sum_{j}w_{jk}O_j) — значение производной функции активации. Причем, обратите внимание, что sum_{j}w_{jk}O_j — это не что иное, как сигнал на входе нейрона k (I_{k}). Тогда для расчета ошибки выходного нейрона: delta_k = (O_{correct, k} — O_{net, k}) cdot f{Large{prime}}(I_k).

      Итог: frac{dE}{d w_{jk}} = -delta_k cdot O_j.

      Одной из причин популярности сигмоидальной функции активности является то, что ее производная очень просто выражается через саму функцию:

      f{'}(x) = f(x)medspace (1medspace-medspace f(x))

      Данные алгебраические вычисления справедливы для корректировки весов между скрытым и выходным слоем, поскольку для расчета ошибки мы используем просто разность между целевым и полученным результатом, умноженную на производную.

      Для других слоев будут незначительные изменения, касающиеся исключительно первого множителя в формуле:

      frac{dE}{d w_{ij}} = -delta_j cdot O_i

      Который примет следующий вид:

      delta_j = (sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_j)

      То есть ошибка для элемента слоя j получается путем взвешенного суммирования ошибок, «приходящих» к нему от нейронов следующего слоя и умножения на производную функции активации. В результате:

      frac{dE}{d w_{ij}} = -(sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_j) cdot O_i

      Снова подводим промежуточный итог, чтобы иметь максимально полную и структурированную картину происходящего. Вот результаты, полученные нами на двух этапах, которые мы успешно миновали:

      • Ошибка:
        • выходной слой: delta_k = (O_{correct, k} — O_{net, k}) cdot f{Large{prime}}(I_k)
        • скрытые слои: delta_j = (sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_j)
      • Градиент: frac{dE}{d w_{ij}} = -delta_j cdot O_i
      • Корректировка весовых коэффициентов: Delta w_{ij} = -alpha cdot frac{dE}{dw_{ij}} + gamma cdot Delta w_{ij}^{t — 1}

      Преобразуем последнюю формулу:

      Delta w_{ij} = alpha cdot delta_j cdot O_i + gamma cdot Delta w_{ij}^{t - 1}

      Из этого мы делаем вывод, что на данный момент у нас есть все, что необходимо для того, чтобы произвести обучение нейронной сети. И героем следующего подраздела будет алгоритм обратного распространения ошибки.

      Метод обратного распространения ошибки.

      Данный метод является одним из наиболее распространенных и популярных, чем и продиктован его выбор для анализа и разбора. Алгоритм обратного распространения ошибки относится к методам обучение с учителем, что на деле означает необходимость наличия целевых значений в обучающих сетах.

      Суть же метода подразумевает наличие двух этапов:

      • Прямой проход — входные сигналы двигаются в прямом направлении, в результате чего мы получаем выходной сигнал, из которого в дальнейшем рассчитываем значение ошибки.
      • Обратный проход — обратное распространение ошибки — величина ошибки двигается в обратном направлении, в результате происходит корректировка весовых коэффициентов связей сети.

      Начальные значения весов (перед обучением) задаются случайными, есть ряд методик для выбора этих значений, я опишу в отдельном материале максимально подробно. Пока вот можно полистать — ссылка.

      Вернемся к конкретному примеру для явной демонстрации этих принципов:

      Обратное распространение ошибки.

      Итак, имеется нейронная сеть, также имеется набор данных обучающей выборки. Как уже обсудили в начале статьи — обучающая выборка представляет из себя набор образцов (сетов), каждый из которых состоит из значений входных сигналов и соответствующих им «правильных» значений выходных величин.

      Процесс обучения нейронной сети для алгоритма обратного распространения ошибки будет таким:

      1. Прямой проход. Подаем на вход значения I_1, I_2, I_3 из обучающей выборки. В результате работы сети получаем выходные значения O_{net, 1}, O_{net, 2}. Этому целиком и полностью был посвящен предыдущий манускрипт.
      2. Рассчитываем величины ошибок для всех слоев:
        • для выходного: delta_k = (O_{correct, k} — O_{net, k}) cdot f{Large{prime}}(I_k)
        • для скрытых: delta_j = (sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_j)
      3. Далее используем полученные значения для расчета Delta w_{ij} = alpha cdot delta_j cdot O_i + gamma cdot Delta w_{ij}^{t — 1}
      4. И финишируем, рассчитывая новые значения весов: w_{ij medspace new} = w_{ij} + Delta w_{ij}
      5. На этом один цикл обучения закончен, данные шаги 1 — 4 повторяются для других образцов из обучающей выборки.

      Обратный проход завершен, а вместе с ним и одна итерация процесса обучения нейронной сети по данному методу. Собственно, обучение в целом заключается в многократном повторении этих шагов для разных образцов из обучающей выборки. Логику мы полностью разобрали, при повторном проведении операций она остается в точности такой же.

      Таким образом, максимально подробно концентрируясь именно на сути и логике процессов, мы в деталях разобрали метод обратного распространения ошибки. Поэтому переходим к завершающей части статьи, в которой разберем практический пример, произведя полностью все вычисления для конкретных числовых величин. Все в рамках продвигаемой мной концепции, что любая теоретическая информация на порядок лучше может быть осознана при применении ее на практике.

      Пример расчетов для метода обратного распространения ошибки.

      Возьмем нейронную сеть и зададим начальные значения весов:

      Пример расчетов для метода обратного распространения ошибки.

      Здесь я задал значения не в соответствии с существующими на сегодняшний день методами, а просто случайным образом для наглядности примера.

      В качестве функции активации используем сигмоиду:

      f(x) = frac{1}{1 + e^{-x}}

      И ее производная:

      f{Large{prime}}(x) = f(x)medspace (1medspace-medspace f(x))

      Берем один образец из обучающей выборки, пусть будут такие значения:

      • Входные: I_1 = 0.6, I_1 = 0.7.
      • Выходное: O_{correct} = 0.9.

      Скорость обучения alpha пусть будет равна 0.3, момент — gamma = 0.1. Все готово, теперь проведем полный цикл для метода обратного распространения ошибки, то есть прямой проход и обратный.

      Прямой проход.

      Начинаем с выходных значений нейронов 1 и 2, поскольку они являются входными, то:

      O_1 = I_1 = 0.6 \
      O_2 = I_2 = 0.7

      Значения на входе нейронов 3, 4 и 5:

      I_3 = O_1 cdot w_{13} + O_2 cdot w_{23} = 0.6 cdot (-1medspace) + 0.7 cdot 1 = 0.1 \
      I_4 = 0.6 cdot 2.5 + 0.7 cdot 0.4 = 1.78 \
      I_5 = 0.6 cdot 1 + 0.7 cdot (-1.5medspace) = -0.45

      На выходе этих же нейронов первого скрытого слоя:

      O_3 = f(I3medspace) = 0.52 \
      O_4 = 0.86\
      O_5 = 0.39

      Продолжаем аналогично для следующего скрытого слоя:

      I_6 = O_3 cdot w_{36} + O_4 cdot w_{46} + O_5 cdot w_{56} = 0.52 cdot 2.2 + 0.86 cdot (-1.4medspace) + 0.39 cdot 0.56 = 0.158 \
      I_7 = 0.52 cdot 0.34 + 0.86 cdot 1.05 + 0.39 cdot 3.1 = 2.288 \
      O_6 = f(I_6) = 0.54 \
      O_7 = 0.908

      Добрались до выходного нейрона:

      I_8 = O_6 cdot w_{68} + O_7 cdot w_{78} = 0.54 cdot 0.75 + 0.908 cdot (-0.22medspace) = 0.205 \
      O_8 = O_{net} = f(I_8) = 0.551

      Получили значение на выходе сети, кроме того, у нас есть целевое значение O_{correct} = 0.9. То есть все, что необходимо для обратного прохода, имеется.

      Обратный проход.

      Как мы и обсуждали, первым этапом будет вычисление ошибок всех нейронов, действуем:

      delta_8 = (O_{correct} - O_{net}) cdot f{Large{prime}}(I_8) = (O_{correct} - O_{net}) cdot f(I_8) cdot (1-f(I_8)) = (0.9 - 0.551medspace) cdot 0.551 cdot (1-0.551medspace) = 0.0863 \
      delta_7 = (sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_7) = (delta_8 cdot w_{78}) cdot f{Large{prime}}(I_7) = 0.0863 cdot (-0.22medspace) cdot 0.908 cdot (1 - 0.908medspace) = -0.0016 \
      delta_6 = 0.086 cdot 0.75 cdot 0.54 cdot (1 - 0.54medspace) = 0.016 \
      delta_5 = (sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_5) = (delta_7 cdot w_{57} + delta_6 cdot w_{56}) cdot f{Large{prime}}(I_7) = (-0.0016 cdot 3.1 + 0.016 cdot 0.56) cdot 0.39 cdot (1 - 0.39medspace) = 0.001 \
      delta_4 = (-0.0016 cdot 1.05 + 0.016 cdot (-1.4)) cdot 0.86 cdot (1 - 0.86medspace) = -0.003 \
      delta_3 = (-0.0016 cdot 0.34 + 0.016 cdot 2.2) cdot 0.52 cdot (1 - 0.52medspace) = -0.0087

      С расчетом ошибок закончили, следующий этап — расчет корректировочных величин для весов всех связей. Для этого мы вывели формулу:

      Delta w_{ij} = alpha cdot delta_j cdot O_i + gamma cdot Delta w_{ij}^{t - 1}

      Как вы помните, Delta w_{ij}^{t — 1} — это величина поправки для данного веса на предыдущей итерации. Но поскольку у нас это первый проход, то данное значение будет нулевым, соответственно, в данном случае второе слагаемое отпадает. Но забывать о нем нельзя. Продолжаем калькулировать:

      Delta w_{78} = alpha cdot delta_8 cdot O_7 = 0.3 cdot 0.0863 cdot 0.908 = 0.0235 \
      Delta w_{68} = 0.3 cdot 0.0863 cdot 0.54= 0.014 \
      Delta w_{57} = alpha cdot delta_7 cdot O_5 = 0.3 cdot (−0.0016medspace) cdot 0.39= -0.00019 \
      Delta w_{47} = 0.3 cdot (−0.0016medspace) cdot 0.86= -0.0004 \
      Delta w_{37} = 0.3 cdot (−0.0016medspace) cdot 0.52= -0.00025 \
      Delta w_{56} = alpha cdot delta_6 cdot O_5 = 0.3 cdot 0.016 cdot 0.39= 0.0019 \
      Delta w_{46} = 0.3 cdot 0.016 cdot 0.86= 0.0041 \
      Delta w_{36} = 0.3 cdot 0.016 cdot 0.52= 0.0025 \
      Delta w_{25} = alpha cdot delta_5 cdot O_2 = 0.3 cdot 0.001 cdot 0.7= 0.00021 \
      Delta w_{15} = 0.3 cdot 0.001 cdot 0.6= 0.00018 \
      Delta w_{24} = alpha cdot delta_4 cdot O_2 = 0.3 cdot (-0.003medspace) cdot 0.7= -0.00063 \
      Delta w_{14} = 0.3 cdot (-0.003medspace) cdot 0.6= -0.00054 \
      Delta w_{23} = alpha cdot delta_3 cdot O_2 = 0.3 cdot (−0.0087medspace) cdot 0.7= -0.00183 \
      Delta w_{13} = 0.3 cdot (−0.0087medspace) cdot 0.6= -0.00157

      И самый что ни на есть заключительный этап — непосредственно изменение значений весовых коэффициентов:

      w_{78 medspace new} = w_{78} + Delta w_{78} = -0.22 + 0.0235 = -0.1965 \
      w_{68 medspace new} = 0.75+ 0.014 = 0.764 \
      w_{57 medspace new} = 3.1 + (−0.00019medspace) = 3.0998\
      w_{47 medspace new} = 1.05 + (−0.0004medspace) = 1.0496\
      w_{37 medspace new} = 0.34 + (−0.00025medspace) = 0.3398\
      w_{56 medspace new} = 0.56 + 0.0019 = 0.5619 \
      w_{46 medspace new} = -1.4 + 0.0041 = -1.3959 \
      w_{36 medspace new} = 2.2 + 0.0025 = 2.2025 \
      w_{25 medspace new} = -1.5 + 0.00021 = -1.4998 \
      w_{15 medspace new} = 1 + 0.00018 = 1.00018 \
      w_{24 medspace new} = 0.4 + (−0.00063medspace) = 0.39937 \
      w_{14 medspace new} = 2.5 + (−0.00054medspace) = 2.49946 \
      w_{23 medspace new} = 1 + (−0.00183medspace) = 0.99817 \
      w_{13 medspace new} = -1 + (−0.00157medspace) = -1.00157\

      И на этом данную масштабную статью завершаем, конечно же, не завершая на этом деятельность по использованию нейронных сетей. Так что всем спасибо за прочтение, любые вопросы пишите в комментариях и на форуме, ну и обязательно следите за обновлениями и новыми материалами, до встречи!

      В первой части были рассмотрены: структура, топология, функции активации и обучающее множество. В этой части попробую объяснить как происходит обучение сверточной нейронной сети.

      Обучение сверточной нейронной сети

      На начальном этапе нейронная сеть является необученной (ненастроенной). В общем смысле под обучением понимают последовательное предъявление образа на вход нейросети, из обучающего набора, затем полученный ответ сравнивается с желаемым выходом, в нашем случае это 1 – образ представляет лицо, минус 1 – образ представляет фон (не лицо), полученная разница между ожидаемым ответом и полученным является результат функции ошибки (дельта ошибки). Затем эту дельту ошибки необходимо распространить на все связанные нейроны сети.

      Таким образом обучение нейронной сети сводится к минимизации функции ошибки, путем корректировки весовых коэффициентов синаптических связей между нейронами. Под функцией ошибки понимается разность между полученным ответом и желаемым. Например, на вход был подан образ лица, предположим, что выход нейросети был 0.73, а желаемый результат 1 (т.к. образ лица), получим, что ошибка сети является разницей, то есть 0.27. Затем веса выходного слоя нейронов корректируются в соответствии с ошибкой. Для нейронов выходного слоя известны их фактические и желаемые значения выходов. Поэтому настройка весов связей для таких нейронов является относительно простой. Однако для нейронов предыдущих слоев настройка не столь очевидна. Долгое время не было известно алгоритма распространения ошибки по скрытым слоям.

      Алгоритм обратного распространения ошибки

      Для обучения описанной нейронной сети был использован алгоритм обратного распространения ошибки (backpropagation). Этот метод обучения многослойной нейронной сети называется обобщенным дельта-правилом. Метод был предложен в 1986 г. Румельхартом, Макклеландом и Вильямсом. Это ознаменовало возрождение интереса к нейронным сетям, который стал угасать в начале 70-х годов. Данный алгоритм является первым и основным практически применимым для обучения многослойных нейронных сетей.

      Для выходного слоя корректировка весов интуитивна понятна, но для скрытых слоев долгое время не было известно алгоритма. Веса скрытого нейрона должны изменяться прямо пропорционально ошибке тех нейронов, с которыми данный нейрон связан. Вот почему обратное распространение этих ошибок через сеть позволяет корректно настраивать веса связей между всеми слоями. В этом случае величина функции ошибки уменьшается и сеть обучается.

      Основные соотношения метода обратного распространения ошибки получены при следующих обозначениях:

      Величина ошибки определяется по формуле 2.8 среднеквадратичная ошибка:

      Неактивированное состояние каждого нейрона j для образа p записывается в виде взвешенной суммы по формуле 2.9:

      Выход каждого нейрона j является значением активационной функции

      , которая переводит нейрон в активированное состояние. В качестве функции активации может использоваться любая непрерывно дифференцируемая монотонная функция. Активированное состояние нейрона вычисляется по формуле 2.10:

      В качестве метода минимизации ошибки используется метод градиентного спуска, суть этого метода сводится к поиску минимума (или максимума) функции за счет движения вдоль вектора градиента. Для поиска минимума движение должно быть осуществляться в направлении антиградиента. Метод градиентного спуска в соответствии с рисунком 2.7.

      Градиент функции потери представляет из себя вектор частных производных, вычисляющийся по формуле 2.11:

      Производную функции ошибки по конкретному образу можно записать по правилу цепочки, формула 2.12:

      Ошибка нейрона обычно записывается в виде символа δ (дельта). Для выходного слоя ошибка определена в явном виде, если взять производную от формулы 2.8, то получим t минус y, то есть разницу между желаемым и полученным выходом. Но как рассчитать ошибку для скрытых слоев? Для решения этой задачи, как раз и был придуман алгоритм обратного распространения ошибки. Суть его заключается в последовательном вычислении ошибок скрытых слоев с помощью значений ошибки выходного слоя, т.е. значения ошибки распространяются по сети в обратном направлении от выхода к входу.

      Ошибка δ для скрытого слоя рассчитывается по формуле 2.13:

      Алгоритм распространения ошибки сводится к следующим этапам:

      • прямое распространение сигнала по сети, вычисления состояния нейронов;
      • вычисление значения ошибки δ для выходного слоя;
      • обратное распространение: последовательно от конца к началу для всех скрытых слоев вычисляем δ по формуле 2.13;
      • обновление весов сети на вычисленную ранее δ ошибки.

      Алгоритм обратного распространения ошибки в многослойном персептроне продемонстрирован ниже:

      До этого момента были рассмотрены случаи распространения ошибки по слоям персептрона, то есть по выходному и скрытому, но помимо них, в сверточной нейросети имеются подвыборочный и сверточный.

      Расчет ошибки на подвыборочном слое

      Расчет ошибки на подвыборочном слое представляется в нескольких вариантах. Первый случай, когда подвыборочный слой находится перед полносвязным, тогда он имеет нейроны и связи такого же типа, как в полносвязном слое, соответственно вычисление δ ошибки ничем не отличается от вычисления δ скрытого слоя. Второй случай, когда подвыборочный слой находится перед сверточным, вычисление δ происходит путем обратной свертки. Для понимания обратно свертки, необходимо сперва понять обычную свертку и то, что скользящее окно по карте признаков (во время прямого распространения сигнала) можно интерпретировать, как обычный скрытый слой со связями между нейронами, но главное отличие — это то, что эти связи разделяемы, то есть одна связь с конкретным значением веса может быть у нескольких пар нейронов, а не только одной. Интерпретация операции свертки в привычном многослойном виде в соответствии с рисунком 2.8.


      Рисунок 2.8 — Интерпретация операции свертки в многослойный вид, где связи с одинаковым цветом имеют один и тот же вес. Синим цветом обозначена подвыборочная карта, разноцветным – синаптическое ядро, оранжевым – получившаяся свертка

      Теперь, когда операция свертки представлена в привычном многослойном виде, можно интуитивно понять, что вычисление дельт происходит таким же образом, как и в скрытом слое полносвязной сети. Соответственно имея вычисленные ранее дельты сверточного слоя можно вычислить дельты подвыборочного, в соответствии с рисунком 2.9.

      Рисунок 2.9 — Вычисление δ подвыборочного слоя за счет δ сверточного слоя и ядра

      Обратная свертка – это тот же самый способ вычисления дельт, только немного хитрым способом, заключающийся в повороте ядра на 180 градусов и скользящем процессе сканирования сверточной карты дельт с измененными краевыми эффектами. Простыми словами, нам необходимо взять ядро сверточной карты (следующего за подвыборочным слоем) повернуть его на 180 градусов и сделать обычную свертку по вычисленным ранее дельтам сверточной карты, но так чтобы окно сканирования выходило за пределы карты. Результат операции обратной свертки в соответствии с рисунком 2.10, цикл прохода обратной свертки в соответствии с рисунком 2.11.

      Рисунок 2.10 — Результат операции обратной свертки


      Рисунок 2.11 — Повернутое ядро на 180 градусов сканирует сверточную карту

      Расчет ошибки на сверточном слое

      Обычно впередиидущий слой после сверточного это подвыборочный, соответственно наша задача вычислить дельты текущего слоя (сверточного) за счет знаний о дельтах подвыборочного слоя. На самом деле дельта ошибка не вычисляется, а копируется. При прямом распространении сигнала нейроны подвыборочного слоя формировались за счет неперекрывающегося окна сканирования по сверточному слою, в процессе которого выбирались нейроны с максимальным значением, при обратном распространении, мы возвращаем дельту ошибки тому ранее выбранному максимальному нейрону, остальные же получают нулевую дельту ошибки.

      Заключение

      Представив операцию свертки в привычном многослойном виде (рисунок 2.8), можно интуитивно понять, что вычисление дельт происходит таким же образом, как и в скрытом слое полносвязной сети.

      Источники

      Алгоритм обратного распространения ошибки для сверточной нейронной сети

      Обратное распространение ошибки в сверточных слоях
      раз и два

      Обратное распространение ошибки в персептроне

      Еще можно почитать в РГБ диссертацию Макаренко: АЛГОРИТМЫ И ПРОГРАММНАЯ СИСТЕМА КЛАССИФИКАЦИИ

      Рад снова всех приветствовать, и сегодня продолжим планомерно двигаться в выбранном направлении. Речь, конечно, о масштабном разборе искусственных нейронных сетей для решения широкого спектра задач. Продолжим ровно с того момента, на котором остановились в предыдущей части, и это означает, что героем данного поста будет ключевой процесс — обучение нейронных сетей.

      Тема эта крайне важна, поскольку именно процесс обучения позволяет сети начать выполнять задачу, для которой она, собственно, и предназначена. То есть нейронная сеть функционирует не по какому-либо жестко заданному на этапе проектирования алгоритму, она совершенствуется в процессе анализа имеющихся данных. Этот процесс и называется обучением нейронной сети. Математически суть процесса обучения заключается в корректировке значений весов синапсов (связей между имеющимися нейронами). Изначально значения весов задаются случайно, затем производится обучение, результатом которого будут новые значения синаптических весов. Это все мы максимально подробно разберем как раз в этой статье.

      На своем сайте я всегда придерживаюсь концепции, при которой теоретические выкладки по максимуму сопровождаются практическими примерами для максимальной наглядности. Так мы поступим и сейчас 👍

      Итак, суть заключается в следующем. Пусть у нас есть простейшая нейронная сеть, которую мы хотим обучить (продолжаем рассматривать сети прямого распространения):

      Обучение нейронных сетей.

      То есть на входы нейронов I1 и I2 мы подаем какие-либо числа, а на выходе сети получаем соответственно новое значение. При этом нам необходима некая выборка данных, включающая в себя значения входов и соответствующее им, правильное, значение на выходе:

      bold{I_1} bold{I_2} bold{O_{net}}
      x_{11} x_{12} y_{1}
      x_{21} x_{22} y_{2}
      x_{31} x_{32} y_{3}
      x_{N1} x_{N2} y_{N}

      Допустим, сеть выполняет суммирование значений на входе, тогда данный набор данных может быть таким:

      bold{I_1} bold{I_2} bold{O_{net}}
      1 4 5
      2 7 9
      3 5 8
      1000 1500 2500

      Эти значения и используются для обучения сети. Как именно — рассмотрим чуть ниже, пока сконцентрируемся на идее процесса в целом. Для того, чтобы иметь возможность тестировать работу сети в процессе обучения, исходную выборку данных делят на две части — обучающую и тестовую. Пусть имеется 1000 образцов, тогда можно 900 использовать для обучения, а оставшиеся 100 — для тестирования. Эти величины взяты исключительно ради наглядности и демонстрации логики выполнения операций, на практике все зависит от задачи, размер обучающей выборки может спокойно достигать и сотен тысяч образцов.

      Итак, итог имеем следующий — обучающая выборка прогоняется через сеть, в результате чего происходит настройка значений синаптических весов. Один полный проход по всей выборке называется эпохой. И опять же, обучение нейронной сети — это процесс, требующий многократных экспериментов, анализа результатов и творческого подхода. Все перечисленные параметры (размер выборки, количество эпох обучения) могут иметь абсолютно разные значения для разных задач и сетей. Четкого правила тут просто нет, в этом и кроется дополнительный шарм и изящность )

      Возвращаемся к разбору, и в результате прохода обучающей выборки через сеть мы получаем сеть с новыми значениями весов синапсов.

      Далее мы через эту, уже обученную в той или иной степени, сеть прогоняем тестовую выборку, которая не участвовала в обучении. При этом сеть выдает нам выходные значения для каждого образца, которые мы сравниваем с теми верными значениями, которые имеем.

      Анализируем нашу гипотетическую выборку:

      Обучающая выборка.

      Таким образом, для тестирования подаем на вход сети значения x_{(M+1)1}, x_{(M+1)2} и проверяем, чему равен выход, ожидаем очевидно значение y_{(M+1)}. Аналогично поступаем и для оставшихся тестовых образцов. После чего мы можем сделать вывод, успешно или нет работает сеть. Например, сеть дает правильный ответ для 90% тестовых данных, дальше уже встает вопрос — устраивает ли нас данная точность или процесс обучения необходимо повторить, либо провести заново, изменив какие-либо параметры сети.

      В этом и заключается суть обучения нейронных сетей, теперь перейдем к деталям и конкретным действиям, которые необходимо осуществить для выполнения данного процесса. Двигаться снова будем поэтапно, чтобы сформировать максимально четкую и полную картину. Поэтому начнем с понятия градиентного спуска, который используется при обучении по методу обратного распространения ошибки. Обо всем этом далее…

      Обучение нейронных сетей. Градиентный спуск.

      Рассмотрев идею процесса обучения в целом, на данном этапе мы можем однозначно сформулировать текущую цель — необходимо определить математический алгоритм, который позволит рассчитать значения весовых коэффициентов таким образом, чтобы ошибка сети была минимальна. То есть грубо говоря нам необходима конкретная формула для вычисления:

      Здесь Delta w_{ij} — величина, на которую необходимо изменить вес синапса, связывающего нейроны i и j нашей сети. Соответственно, зная это, необходимо на каждом этапе обучения производить корректировку весов связей между всеми элементами нейронной сети. Задача ясна, переходим к делу.

      Пусть функция ошибки от веса имеет следующий вид:

      Для удобства рассмотрим зависимость функции ошибки от одного конкретного веса:

      График ошибки.

      В начальный момент мы находимся в некоторой точке кривой, а для минимизации ошибки попасть мы хотим в точку глобального минимума функции:

      Минимизация ошибки при обучении нейронной сети.

      Нанесем на график вектора градиентов в разных точках. Длина векторов численно равна скорости роста функции в данной точке, что в свою очередь соответствует значению производной функции по данной точке. Исходя из этого, делаем вывод, что длина вектора градиента определяется крутизной функции в данной точке:

      Градиентный спуск.

      Вывод прост — величина градиента будет уменьшаться по мере приближения к минимуму функции. Это важный вывод, к которому мы еще вернемся. А тем временем разберемся с направлением вектора, для чего рассмотрим еще несколько возможных точек:

      Алгоритм обратного распространения ошибки.

      Находясь в точке 1, целью является перейти в точку 2, поскольку в ней значение ошибки меньше (E_2 < E_1), а глобальная задача по-прежнему заключается в ее минимизации. Для этого необходимо изменить величину w на некое значение Delta w (Delta w = w_2 — w_1 > 0). При всем при этом в точке 1 градиент отрицательный. Фиксируем данные факты и переходим к точке 3, предположим, что мы находимся именно в ней.

      Тогда для уменьшения ошибки наш путь лежит в точку 4, а необходимое изменение значения: Delta w = w_4 — w_3 < 0. Градиент же в точке 3 положителен. Этот факт также фиксируем.

      А теперь соберем воедино эту информацию в виде следующей иллюстрации:

      Переход bold{Delta w} Знак bold{Delta w} Градиент
      1 rArr 2 w_2 — w_1 +
      3 rArr 4 w_4 — w_3 +

      Вывод напрашивается сам собой — величина, на которую необходимо изменить значение w, в любой точке противоположна по знаку градиенту. И, таким образом, представим эту самую величину в виде:

      Delta w = -alpha cdot frac{dE}{dw}

      Имеем в наличии:

      • Delta w — величина, на которую необходимо изменить значение w.
      • frac{dE}{dw} — градиент в этой точке.
      • alpha — скорость обучения.

      Собственно, логика метода градиентного спуска и заключается в данном математическом выражении, а именно в том, что для минимизации ошибки необходимо изменять w в направлении противоположном градиенту. В контексте нейронных сетей имеем искомый закон для корректировки весов синаптических связей (для синапса между нейронами i и j):

      Delta w_{ij} = -alpha cdot frac{dE}{dw_{ij}}

      Более того, вспомним о важном свойстве, которое мы отдельно пометили. И заключается оно в том, что величина градиента будет уменьшаться по мере приближения к минимуму функции. Что это нам дает? А то, что в том случае, если наша текущая дислокация далека от места назначения, то величина, корректирующая вес связи, будет больше. А это обеспечит скорейшее приближение к цели. При приближении к целевому пункту, величина frac{dE}{dw_{ij}} будет уменьшаться, что поможет нам точнее попасть в нужную точку, а кроме того, не позволит нам ее проскочить. Визуализируем вышеописанное:

      Скорость обучения.

      Скорость же обучения несет в себе следующий смысл. Она определяет величину каждого шага при поиске минимума ошибки. Слишком большое значение приводит к тому, что точка может «перепрыгнуть» через нужное значение и оказаться по другую сторону от цели:

      Норма обучения.

      Если же величина будет мала, то это приведет к тому, что спуск будет осуществляться очень медленно, что также является нежелательным эффектом. Поэтому скорость обучения, как и многие другие параметры нейронной сети, является очень важной величиной, для которой нет единственно верного значения. Все снова зависит от конкретного случая и оптимальная величина определяется исключительно исходя из текущих условий.

      И даже на этом еще не все, здесь присутствует один важный нюанс, который в большинстве статей опускается, либо вовсе не упоминается. Реальная зависимость может иметь совсем другой вид:

      Локальные минимумы при обучении нейронных сетей.

      Из чего вытекает потенциальная возможность попадания в локальный минимум, вместо глобального, что является большой проблемой. Для предотвращения данного эффекта вводится понятие момента обучения и формула принимает следующий вид:

      Delta w_{ij} = -alpha cdot frac{dE}{dw_{ij}} + gamma cdot Delta w_{ij}^{t - 1}

      То есть добавляется второе слагаемое, которое представляет из себя произведение момента на величину корректировки веса на предыдущем шаге.

      Итого, резюмируем продвижение к цели:

      • Нашей задачей было найти закон, по которому необходимо изменять величину весов связей между нейронами.
      • Наш результат — Delta w_{ij} = -alpha cdot frac{dE}{dw_{ij}} + gamma cdot Delta w_{ij}^{t — 1} — именно то, что и требовалось 👍

      И опять же, полученный результат логичным образом перенаправляет нас на следующий этап, ставя вопросы — что из себя представляет функция ошибки, и как определить ее градиент.

      Обучение нейронных сетей. Функция ошибки.

      Начнем с того, что определимся с тем, что у нас в наличии, для этого вернемся к конкретной нейронной сети. Пусть вид ее таков:

      Пример нейронной сети.

      Интересует нас, в первую очередь, часть, относящаяся к нейронам выходного слоя. Подав на вход определенные значения, получаем значения на выходе сети: O_{net, 1} и O_{net, 2}. Кроме того, поскольку мы ведем речь о процессе обучения нейронной сети, то нам известны целевые значения: O_{correct, 1} и O_{correct, 2}. И именно этот набор данных на этом этапе является для нас исходным:

      • Известно: O_{net, 1}, O_{net, 2}, O_{correct, 1} и O_{correct, 2}.
      • Необходимо определить величины Delta w_{ij} для корректировки весов, для этого нужно вычислить градиенты (frac{dE}{dw_{ij}}) для каждого из синапсов.

      Полдела сделано — задача четко сформулирована, начинаем деятельность по поиску решения.

      В плане того, как определять ошибку, первым и самым очевидным вариантом кажется простая алгебраическая разность. Для каждого из выходных нейронов:

      E_k = O_{correct, k} - O_{net, k}

      Дополним пример числовыми значениями:

      Нейрон bold{O_{net}} bold{O_{correct}} bold{E}
      1 0.9 0.5 -0.4
      2 0.2 0.6 0.4

      Недостатком данного варианта является то, что в том случае, если мы попытаемся просуммировать ошибки нейронов, то получим:

      E_{sum} = e_1 + e_2 = -0.4 + 0.4 = 0

      Что не соответствует действительности (нулевая ошибка, говорит об идеальной работе нейронной сети, по факту оба нейрона дали неверный результат). Так что вариант с разностью откидываем за несостоятельностью.

      Вторым, традиционно упоминаемым, методом вычисления ошибки является использование модуля разности:

      E_k = | O_{correct, k} - O_{net, k} |

      Тут в действие вступает уже проблема иного рода:

      График модуля.

      Функция, бесспорно, симпатична, но при приближении к минимуму ее градиент является постоянной величиной, скачкообразно меняясь при переходе через точку минимума. Это нас также не устраивает, поскольку, как мы обсуждали, концепция заключалась в том числе в том, чтобы по мере приближения к минимуму значение градиента уменьшалось.

      В итоге хороший результат дает зависимость (для выходного нейрона под номером k):

      E_k = (O_{correct, k} - O_{net, k})^2

      Функция по многим своим свойствам идеально удовлетворяет нуждам обучения нейронной сети, так что выбор сделан, остановимся на ней. Хотя, как и во многих аспектах, качающихся нейронных сетей, данное решение не является единственно и неоспоримо верным. В каких-то случаях лучше себя могут проявить другие зависимости, возможно, что какой-то вариант даст большую точность, но неоправданно высокие затраты производительности при обучении. В общем, непаханное поле для экспериментов и исследований, это и привлекательно.

      Краткий вывод промежуточного шага, на который мы вышли:

      • Имеющееся: frac{dE}{dw_{jk}} = frac{d}{d w_{jk}}(O_{correct, k} — O_{net, k})^2.
      • Искомое по-прежнему: Delta w_{jk}.

      Несложные диффернциально-математические изыскания выводят на следующий результат:

      frac{dE}{d w_{jk}} = -(O_{correct, k} - O_{net, k}) cdot f{Large{prime}}(sum_{j}w_{jk}O_j) cdot O_j

      Здесь эти самые изыскания я все-таки решил не вставлять, дабы не перегружать статью, которая и так выходит объемной. Но в случае необходимости и интереса, отпишите в комментарии, я добавлю вычисления и закину их под спойлер, как вариант.

      Освежим в памяти структуру сети:

      Пример обучения нейронных сетей.

      Формулу можно упростить, сгруппировав отдельные ее части:

      • (O_{correct, k} — O_{net, k}) cdot f{Large{prime}}(sum_{j}w_{jk}O_j) — ошибка нейрона k.
      • O_j — тут все понятно, выходной сигнал нейрона j.

      f{Large{prime}}(sum_{j}w_{jk}O_j) — значение производной функции активации. Причем, обратите внимание, что sum_{j}w_{jk}O_j — это не что иное, как сигнал на входе нейрона k (I_{k}). Тогда для расчета ошибки выходного нейрона: delta_k = (O_{correct, k} — O_{net, k}) cdot f{Large{prime}}(I_k).

      Итог: frac{dE}{d w_{jk}} = -delta_k cdot O_j.

      Одной из причин популярности сигмоидальной функции активности является то, что ее производная очень просто выражается через саму функцию:

      f{'}(x) = f(x)medspace (1medspace-medspace f(x))

      Данные алгебраические вычисления справедливы для корректировки весов между скрытым и выходным слоем, поскольку для расчета ошибки мы используем просто разность между целевым и полученным результатом, умноженную на производную.

      Для других слоев будут незначительные изменения, касающиеся исключительно первого множителя в формуле:

      frac{dE}{d w_{ij}} = -delta_j cdot O_i

      Который примет следующий вид:

      delta_j = (sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_j)

      То есть ошибка для элемента слоя j получается путем взвешенного суммирования ошибок, «приходящих» к нему от нейронов следующего слоя и умножения на производную функции активации. В результате:

      frac{dE}{d w_{ij}} = -(sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_j) cdot O_i

      Снова подводим промежуточный итог, чтобы иметь максимально полную и структурированную картину происходящего. Вот результаты, полученные нами на двух этапах, которые мы успешно миновали:

      • Ошибка:
        • выходной слой: delta_k = (O_{correct, k} — O_{net, k}) cdot f{Large{prime}}(I_k)
        • скрытые слои: delta_j = (sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_j)
      • Градиент: frac{dE}{d w_{ij}} = -delta_j cdot O_i
      • Корректировка весовых коэффициентов: Delta w_{ij} = -alpha cdot frac{dE}{dw_{ij}} + gamma cdot Delta w_{ij}^{t — 1}

      Преобразуем последнюю формулу:

      Delta w_{ij} = alpha cdot delta_j cdot O_i + gamma cdot Delta w_{ij}^{t - 1}

      Из этого мы делаем вывод, что на данный момент у нас есть все, что необходимо для того, чтобы произвести обучение нейронной сети. И героем следующего подраздела будет алгоритм обратного распространения ошибки.

      Метод обратного распространения ошибки.

      Данный метод является одним из наиболее распространенных и популярных, чем и продиктован его выбор для анализа и разбора. Алгоритм обратного распространения ошибки относится к методам обучение с учителем, что на деле означает необходимость наличия целевых значений в обучающих сетах.

      Суть же метода подразумевает наличие двух этапов:

      • Прямой проход — входные сигналы двигаются в прямом направлении, в результате чего мы получаем выходной сигнал, из которого в дальнейшем рассчитываем значение ошибки.
      • Обратный проход — обратное распространение ошибки — величина ошибки двигается в обратном направлении, в результате происходит корректировка весовых коэффициентов связей сети.

      Начальные значения весов (перед обучением) задаются случайными, есть ряд методик для выбора этих значений, я опишу в отдельном материале максимально подробно. Пока вот можно полистать — ссылка.

      Вернемся к конкретному примеру для явной демонстрации этих принципов:

      Обратное распространение ошибки.

      Итак, имеется нейронная сеть, также имеется набор данных обучающей выборки. Как уже обсудили в начале статьи — обучающая выборка представляет из себя набор образцов (сетов), каждый из которых состоит из значений входных сигналов и соответствующих им «правильных» значений выходных величин.

      Процесс обучения нейронной сети для алгоритма обратного распространения ошибки будет таким:

      1. Прямой проход. Подаем на вход значения I_1, I_2, I_3 из обучающей выборки. В результате работы сети получаем выходные значения O_{net, 1}, O_{net, 2}. Этому целиком и полностью был посвящен предыдущий манускрипт.
      2. Рассчитываем величины ошибок для всех слоев:
        • для выходного: delta_k = (O_{correct, k} — O_{net, k}) cdot f{Large{prime}}(I_k)
        • для скрытых: delta_j = (sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_j)
      3. Далее используем полученные значения для расчета Delta w_{ij} = alpha cdot delta_j cdot O_i + gamma cdot Delta w_{ij}^{t — 1}
      4. И финишируем, рассчитывая новые значения весов: w_{ij medspace new} = w_{ij} + Delta w_{ij}
      5. На этом один цикл обучения закончен, данные шаги 1 — 4 повторяются для других образцов из обучающей выборки.

      Обратный проход завершен, а вместе с ним и одна итерация процесса обучения нейронной сети по данному методу. Собственно, обучение в целом заключается в многократном повторении этих шагов для разных образцов из обучающей выборки. Логику мы полностью разобрали, при повторном проведении операций она остается в точности такой же.

      Таким образом, максимально подробно концентрируясь именно на сути и логике процессов, мы в деталях разобрали метод обратного распространения ошибки. Поэтому переходим к завершающей части статьи, в которой разберем практический пример, произведя полностью все вычисления для конкретных числовых величин. Все в рамках продвигаемой мной концепции, что любая теоретическая информация на порядок лучше может быть осознана при применении ее на практике.

      Пример расчетов для метода обратного распространения ошибки.

      Возьмем нейронную сеть и зададим начальные значения весов:

      Пример расчетов для метода обратного распространения ошибки.

      Здесь я задал значения не в соответствии с существующими на сегодняшний день методами, а просто случайным образом для наглядности примера.

      В качестве функции активации используем сигмоиду:

      f(x) = frac{1}{1 + e^{-x}}

      И ее производная:

      f{Large{prime}}(x) = f(x)medspace (1medspace-medspace f(x))

      Берем один образец из обучающей выборки, пусть будут такие значения:

      • Входные: I_1 = 0.6, I_1 = 0.7.
      • Выходное: O_{correct} = 0.9.

      Скорость обучения alpha пусть будет равна 0.3, момент — gamma = 0.1. Все готово, теперь проведем полный цикл для метода обратного распространения ошибки, то есть прямой проход и обратный.

      Прямой проход.

      Начинаем с выходных значений нейронов 1 и 2, поскольку они являются входными, то:

      O_1 = I_1 = 0.6 
      O_2 = I_2 = 0.7

      Значения на входе нейронов 3, 4 и 5:

      I_3 = O_1 cdot w_{13} + O_2 cdot w_{23} = 0.6 cdot (-1medspace) + 0.7 cdot 1 = 0.1 
      I_4 = 0.6 cdot 2.5 + 0.7 cdot 0.4 = 1.78 
      I_5 = 0.6 cdot 1 + 0.7 cdot (-1.5medspace) = -0.45

      На выходе этих же нейронов первого скрытого слоя:

      O_3 = f(I3medspace) = 0.52 
      O_4 = 0.86
      O_5 = 0.39

      Продолжаем аналогично для следующего скрытого слоя:

      I_6 = O_3 cdot w_{36} + O_4 cdot w_{46} + O_5 cdot w_{56} = 0.52 cdot 2.2 + 0.86 cdot (-1.4medspace) + 0.39 cdot 0.56 = 0.158 
      I_7 = 0.52 cdot 0.34 + 0.86 cdot 1.05 + 0.39 cdot 3.1 = 2.288 
      O_6 = f(I_6) = 0.54 
      O_7 = 0.908

      Добрались до выходного нейрона:

      I_8 = O_6 cdot w_{68} + O_7 cdot w_{78} = 0.54 cdot 0.75 + 0.908 cdot (-0.22medspace) = 0.205 
      O_8 = O_{net} = f(I_8) = 0.551

      Получили значение на выходе сети, кроме того, у нас есть целевое значение O_{correct} = 0.9. То есть все, что необходимо для обратного прохода, имеется.

      Обратный проход.

      Как мы и обсуждали, первым этапом будет вычисление ошибок всех нейронов, действуем:

      delta_8 = (O_{correct} - O_{net}) cdot f{Large{prime}}(I_8) = (O_{correct} - O_{net}) cdot f(I_8) cdot (1-f(I_8)) = (0.9 - 0.551medspace) cdot 0.551 cdot (1-0.551medspace) = 0.0863 
      delta_7 = (sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_7) = (delta_8 cdot w_{78}) cdot f{Large{prime}}(I_7) = 0.0863 cdot (-0.22medspace) cdot 0.908 cdot (1 - 0.908medspace) = -0.0016 
      delta_6 = 0.086 cdot 0.75 cdot 0.54 cdot (1 - 0.54medspace) = 0.016 
      delta_5 = (sum_{k}{}{delta_kmedspace w_{jk}}) cdot f{Large{prime}}(I_5) = (delta_7 cdot w_{57} + delta_6 cdot w_{56}) cdot f{Large{prime}}(I_7) = (-0.0016 cdot 3.1 + 0.016 cdot 0.56) cdot 0.39 cdot (1 - 0.39medspace) = 0.001 
      delta_4 = (-0.0016 cdot 1.05 + 0.016 cdot (-1.4)) cdot 0.86 cdot (1 - 0.86medspace) = -0.003 
      delta_3 = (-0.0016 cdot 0.34 + 0.016 cdot 2.2) cdot 0.52 cdot (1 - 0.52medspace) = -0.0087

      С расчетом ошибок закончили, следующий этап — расчет корректировочных величин для весов всех связей. Для этого мы вывели формулу:

      Delta w_{ij} = alpha cdot delta_j cdot O_i + gamma cdot Delta w_{ij}^{t - 1}

      Как вы помните, Delta w_{ij}^{t — 1} — это величина поправки для данного веса на предыдущей итерации. Но поскольку у нас это первый проход, то данное значение будет нулевым, соответственно, в данном случае второе слагаемое отпадает. Но забывать о нем нельзя. Продолжаем калькулировать:

      Delta w_{78} = alpha cdot delta_8 cdot O_7 = 0.3 cdot 0.0863 cdot 0.908 = 0.0235 
      Delta w_{68} = 0.3 cdot 0.0863 cdot 0.54= 0.014 
      Delta w_{57} = alpha cdot delta_7 cdot O_5 = 0.3 cdot (−0.0016medspace) cdot 0.39= -0.00019 
      Delta w_{47} = 0.3 cdot (−0.0016medspace) cdot 0.86= -0.0004 
      Delta w_{37} = 0.3 cdot (−0.0016medspace) cdot 0.52= -0.00025 
      Delta w_{56} = alpha cdot delta_6 cdot O_5 = 0.3 cdot 0.016 cdot 0.39= 0.0019 
      Delta w_{46} = 0.3 cdot 0.016 cdot 0.86= 0.0041 
      Delta w_{36} = 0.3 cdot 0.016 cdot 0.52= 0.0025 
      Delta w_{25} = alpha cdot delta_5 cdot O_2 = 0.3 cdot 0.001 cdot 0.7= 0.00021 
      Delta w_{15} = 0.3 cdot 0.001 cdot 0.6= 0.00018 
      Delta w_{24} = alpha cdot delta_4 cdot O_2 = 0.3 cdot (-0.003medspace) cdot 0.7= -0.00063 
      Delta w_{14} = 0.3 cdot (-0.003medspace) cdot 0.6= -0.00054 
      Delta w_{23} = alpha cdot delta_3 cdot O_2 = 0.3 cdot (−0.0087medspace) cdot 0.7= -0.00183 
      Delta w_{13} = 0.3 cdot (−0.0087medspace) cdot 0.6= -0.00157

      И самый что ни на есть заключительный этап — непосредственно изменение значений весовых коэффициентов:

      w_{78 medspace new} = w_{78} + Delta w_{78} = -0.22 + 0.0235 = -0.1965 
      w_{68 medspace new} = 0.75+ 0.014 = 0.764 
      w_{57 medspace new} = 3.1 + (−0.00019medspace) = 3.0998
      w_{47 medspace new} = 1.05 + (−0.0004medspace) = 1.0496
      w_{37 medspace new} = 0.34 + (−0.00025medspace) = 0.3398
      w_{56 medspace new} = 0.56 + 0.0019 = 0.5619 
      w_{46 medspace new} = -1.4 + 0.0041 = -1.3959 
      w_{36 medspace new} = 2.2 + 0.0025 = 2.2025 
      w_{25 medspace new} = -1.5 + 0.00021 = -1.4998 
      w_{15 medspace new} = 1 + 0.00018 = 1.00018 
      w_{24 medspace new} = 0.4 + (−0.00063medspace) = 0.39937 
      w_{14 medspace new} = 2.5 + (−0.00054medspace) = 2.49946 
      w_{23 medspace new} = 1 + (−0.00183medspace) = 0.99817 
      w_{13 medspace new} = -1 + (−0.00157medspace) = -1.00157

      И на этом данную масштабную статью завершаем, конечно же, не завершая на этом деятельность по использованию нейронных сетей. Так что всем спасибо за прочтение, любые вопросы пишите в комментариях и на форуме, ну и обязательно следите за обновлениями и новыми материалами, до встречи!

      Нейронные сети обучаются с помощью тех или иных модификаций градиентного спуска, а чтобы применять его, нужно уметь эффективно вычислять градиенты функции потерь по всем обучающим параметрам. Казалось бы, для какого-нибудь запутанного вычислительного графа это может быть очень сложной задачей, но на помощь спешит метод обратного распространения ошибки.

      Открытие метода обратного распространения ошибки стало одним из наиболее значимых событий в области искусственного интеллекта. В актуальном виде он был предложен в 1986 году Дэвидом Э. Румельхартом, Джеффри Э. Хинтоном и Рональдом Дж. Вильямсом и независимо и одновременно красноярскими математиками С. И. Барцевым и В. А. Охониным. С тех пор для нахождения градиентов параметров нейронной сети используется метод вычисления производной сложной функции, и оценка градиентов параметров сети стала хоть сложной инженерной задачей, но уже не искусством. Несмотря на простоту используемого математического аппарата, появление этого метода привело к значительному скачку в развитии искусственных нейронных сетей.

      Суть метода можно записать одной формулой, тривиально следующей из формулы производной сложной функции: если $f(x) = g_m(g_{m-1}(ldots (g_1(x)) ldots))$, то $frac{partial f}{partial x} = frac{partial g_m}{partial g_{m-1}}frac{partial g_{m-1}}{partial g_{m-2}}ldots frac{partial g_2}{partial g_1}frac{partial g_1}{partial x}$. Уже сейчас мы видим, что градиенты можно вычислять последовательно, в ходе одного обратного прохода, начиная с $frac{partial g_m}{partial g_{m-1}}$ и умножая каждый раз на частные производные предыдущего слоя.

      Backpropagation в одномерном случае

      В одномерном случае всё выглядит особенно просто. Пусть $w_0$ — переменная, по которой мы хотим продифференцировать, причём сложная функция имеет вид

      $$f(w_0) = g_m(g_{m-1}(ldots g_1(w_0)ldots)),$$

      где все $g_i$ скалярные. Тогда

      $$f'(w_0) = g_m'(g_{m-1}(ldots g_1(w_0)ldots))cdot g’_{m-1}(g_{m-2}(ldots g_1(w_0)ldots))cdotldots cdot g’_1(w_0)$$

      Суть этой формулы такова. Если мы уже совершили forward pass, то есть уже знаем

      $$g_1(w_0), g_2(g_1(w_0)),ldots,g_{m-1}(ldots g_1(w_0)ldots),$$

      то мы действуем следующим образом:

      • берём производную $g_m$ в точке $g_{m-1}(ldots g_1(w_0)ldots)$;

      • умножаем на производную $g_{m-1}$ в точке $g_{m-2}(ldots g_1(w_0)ldots)$;

      • и так далее, пока не дойдём до производной $g_1$ в точке $w_0$.

      Проиллюстрируем это на картинке, расписав по шагам дифференцирование по весам $w_i$ функции потерь логистической регрессии на одном объекте (то есть для батча размера 1):

      17_1.png

      Собирая все множители вместе, получаем:

      $$frac{partial f}{partial w_0} = (-y)cdot e^{-y(w_0 + w_1x_1 + w_2x_2)}cdotfrac{-1}{1 + e^{-y(w_0 + w_1x_1 + w_2x_2)}}$$

      $$frac{partial f}{partial w_1} = x_1cdot(-y)cdot e^{-y(w_0 + w_1x_1 + w_2x_2)}cdotfrac{-1}{1 + e^{-y(w_0 + w_1x_1 + w_2x_2)}}$$

      $$frac{partial f}{partial w_2} = x_2cdot(-y)cdot e^{-y(w_0 + w_1x_1 + w_2x_2)}cdotfrac{-1}{1 + e^{-y(w_0 + w_1x_1 + w_2x_2)}}$$

      Таким образом, мы видим, что сперва совершается forward pass для вычисления всех промежуточных значений (и да, все промежуточные представления нужно будет хранить в памяти), а потом запускается backward pass, на котором в один проход вычисляются все градиенты.

      Почему же нельзя просто пойти и начать везде вычислять производные?

      В главе, посвящённой матричным дифференцированиям, мы поднимаем вопрос о том, что вычислять частные производные по отдельности — это зло, лучше пользоваться матричными вычислениями. Но есть и ещё одна причина: даже и с матричной производной в принципе не всегда хочется иметь дело. Рассмотрим простой пример. Допустим, что $X^r$ и $X^{r+1}$ — два последовательных промежуточных представления $Ntimes M$ и $Ntimes K$, связанных функцией $X^{r+1} = f^{r+1}(X^r)$. Предположим, что мы как-то посчитали производную $frac{partialmathcal{L}}{partial X^{r+1}_{ij}}$ функции потерь $mathcal{L}$, тогда

      $$frac{partialmathcal{L}}{partial X^{r}_{st}} = sum_{i,j}frac{partial f^{r+1}_{ij}}{partial X^{r}_{st}}frac{partialmathcal{L}}{partial X^{r+1}_{ij}}$$

      И мы видим, что, хотя оба градиента $frac{partialmathcal{L}}{partial X_{ij}^{r+1}}$ и $frac{partialmathcal{L}}{partial X_{st}^{r}}$ являются просто матрицами, в ходе вычислений возникает «четырёхмерный кубик» $frac{partial f_{ij}^{r+1}}{partial X_{st}^{r}}$, даже хранить который весьма болезненно: уж больно много памяти он требует ($N^2MK$ по сравнению с безобидными $NM + NK$, требуемыми для хранения градиентов). Поэтому хочется промежуточные производные $frac{partial f^{r+1}}{partial X^{r}}$ рассматривать не как вычисляемые объекты $frac{partial f_{ij}^{r+1}}{partial X_{st}^{r}}$, а как преобразования, которые превращают $frac{partialmathcal{L}}{partial X_{ij}^{r+1}}$ в $frac{partialmathcal{L}}{partial X_{st}^{r}}$. Целью следующих глав будет именно это: понять, как преобразуется градиент в ходе error backpropagation при переходе через тот или иной слой.

        Вы спросите себя: надо ли мне сейчас пойти и прочитать главу учебника про матричное дифференцирование?

      Встречный вопрос. Найдите производную функции по вектору $x$:

      $$f(x) = x^TAx, Ain Mat_{n}{mathbb{R}}text{ — матрица размера }ntimes n$$

      А как всё поменяется, если $A$ тоже зависит от $x$? Чему равен градиент функции, если $A$ является скаляром? Если вы готовы прямо сейчас взять ручку и бумагу и посчитать всё, то вам, вероятно, не надо читать про матричные дифференцирования. Но мы советуем всё-таки заглянуть в эту главу, если обозначения, которые мы будем дальше использовать, покажутся вам непонятными: единой нотации для матричных дифференцирований человечество пока, увы, не изобрело, и переводить с одной на другую не всегда легко.

      Мы же сразу перейдём к интересующей нас вещи: к вычислению градиентов сложных функций.

      Градиент сложной функции

      Напомним, что формула производной сложной функции выглядит следующим образом:

      $$left[D_{x_0} (color{#5002A7}{u} circ color{#4CB9C0}{v}) right](h) = color{#5002A7}{left[D_{v(x_0)} u right]} left( color{#4CB9C0}{left[D_{x_0} vright]} (h)right)$$

      Теперь разберёмся с градиентами. Пусть $f(x) = g(h(x))$ – скалярная функция. Тогда

      $$left[D_{x_0} f right] (x-x_0) = langlenabla_{x_0} f, x-x_0rangle.$$

      С другой стороны,

      $$left[D_{h(x_0)} g right] left(left[D_{x_0}h right] (x-x_0)right) = langlenabla_{h_{x_0}} g, left[D_{x_0} hright] (x-x_0)rangle = langleleft[D_{x_0} hright]^* nabla_{h(x_0)} g, x-x_0rangle.$$

      То есть $color{#FFC100}{nabla_{x_0} f} = color{#348FEA}{left[D_{x_0} h right]}^* color{#FFC100}{nabla_{h(x_0)}}g$ — применение сопряжённого к $D_{x_0} h$ линейного отображения к вектору $nabla_{h(x_0)} g$.

      Эта формула — сердце механизма обратного распространения ошибки. Она говорит следующее: если мы каким-то образом получили градиент функции потерь по переменным из некоторого промежуточного представления $X^k$ нейронной сети и при этом знаем, как преобразуется градиент при проходе через слой $f^k$ между $X^{k-1}$ и $X^k$ (то есть как выглядит сопряжённое к дифференциалу слоя между ними отображение), то мы сразу же находим градиент и по переменным из $X^{k-1}$:

      17_2.png

      Таким образом слой за слоем мы посчитаем градиенты по всем $X^i$ вплоть до самых первых слоёв.

      Далее мы разберёмся, как именно преобразуются градиенты при переходе через некоторые распространённые слои.

      Градиенты для типичных слоёв

      Рассмотрим несколько важных примеров.

      Примеры

      1. $f(x) = u(v(x))$, где $x$ — вектор, а $v(x)$ – поэлементное применение $v$:

        $$vbegin{pmatrix}
        x_1
        vdots
        x_N
        end{pmatrix}
        = begin{pmatrix}
        v(x_1)
        vdots
        v(x_N)
        end{pmatrix}$$

        Тогда, как мы знаем,

        $$left[D_{x_0} fright] (h) = langlenabla_{x_0} f, hrangle = left[nabla_{x_0} fright]^T h.$$

        Следовательно,

        $$begin{multline*}
        left[D_{v(x_0)} uright] left( left[ D_{x_0} vright] (h)right) = left[nabla_{v(x_0)} uright]^T left(v'(x_0) odot hright) =[0.1cm]
        = sumlimits_i left[nabla_{v(x_0)} uright]_i v'(x_{0i})h_i
        = langleleft[nabla_{v(x_0)} uright] odot v'(x_0), hrangle.
        end{multline*},$$

        где $odot$ означает поэлементное перемножение. Окончательно получаем

        $$color{#348FEA}{nabla_{x_0} f = left[nabla_{v(x_0)}uright] odot v'(x_0) = v'(x_0) odot left[nabla_{v(x_0)} uright]}$$

        Отметим, что если $x$ и $h(x)$ — это просто векторы, то мы могли бы вычислять всё и по формуле $frac{partial f}{partial x_i} = sum_jbig(frac{partial z_j}{partial x_i}big)cdotbig(frac{partial h}{partial z_j}big)$. В этом случае матрица $big(frac{partial z_j}{partial x_i}big)$ была бы диагональной (так как $z_j$ зависит только от $x_j$: ведь $h$ берётся поэлементно), и матричное умножение приводило бы к тому же результату. Однако если $x$ и $h(x)$ — матрицы, то $big(frac{partial z_j}{partial x_i}big)$ представлялась бы уже «четырёхмерным кубиком», и работать с ним было бы ужасно неудобно.

      2. $f(X) = g(XW)$, где $X$ и $W$ — матрицы. Как мы знаем,

        $$left[D_{X_0} f right] (X-X_0) = text{tr}, left(left[nabla_{X_0} fright]^T (X-X_0)right).$$

        Тогда

        $$begin{multline*}
        left[ D_{X_0W} g right] left(left[D_{X_0} left( ast Wright)right] (H)right) =
        left[ D_{X_0W} g right] left(HWright)=
        = text{tr}, left( left[nabla_{X_0W} g right]^T cdot (H) W right) =
        =
        text{tr} , left(W left[nabla_{X_0W} (g) right]^T cdot (H)right) = text{tr} , left( left[left[nabla_{X_0W} gright] W^Tright]^T (H)right)
        end{multline*}$$

        Здесь через $ast W$ мы обозначили отображение $Y hookrightarrow YW$, а в предпоследнем переходе использовалось следующее свойство следа:

        $$
        text{tr} , (A B C) = text{tr} , (C A B),
        $$

        где $A, B, C$ — произвольные матрицы подходящих размеров (то есть допускающие перемножение в обоих приведённых порядках). Следовательно, получаем

        $$color{#348FEA}{nabla_{X_0} f = left[nabla_{X_0W} (g) right] cdot W^T}$$

      3. $f(W) = g(XW)$, где $W$ и $X$ — матрицы. Для приращения $H = W — W_0$ имеем

        $$
        left[D_{W_0} f right] (H) = text{tr} , left( left[nabla_{W_0} f right]^T (H)right)
        $$

        Тогда

        $$ begin{multline*}
        left[D_{XW_0} g right] left( left[D_{W_0} left(X astright) right] (H)right) = left[D_{XW_0} g right] left( XH right) =
        = text{tr} , left( left[nabla_{XW_0} g right]^T cdot X (H)right) =
        text{tr}, left(left[X^T left[nabla_{XW_0} g right] right]^T (H)right)
        end{multline*} $$

        Здесь через $X ast$ обозначено отображение $Y hookrightarrow XY$. Значит,

        $$color{#348FEA}{nabla_{X_0} f = X^T cdot left[nabla_{XW_0} (g)right]}$$

      4. $f(X) = g(softmax(X))$, где $X$ — матрица $Ntimes K$, а $softmax$ — функция, которая вычисляется построчно, причём для каждой строки $x$

        $$softmax(x) = left(frac{e^{x_1}}{sum_te^{x_t}},ldots,frac{e^{x_K}}{sum_te^{x_t}}right)$$

        В этом примере нам будет удобно воспользоваться формализмом с частными производными. Сначала вычислим $frac{partial s_l}{partial x_j}$ для одной строки $x$, где через $s_l$ мы для краткости обозначим $softmax(x)_l = frac{e^{x_l}} {sum_te^{x_t}}$. Нетрудно проверить, что

        $$frac{partial s_l}{partial x_j} = begin{cases}
        s_j(1 — s_j), & j = l,
        -s_ls_j, & jne l
        end{cases}$$

        Так как softmax вычисляется независимо от каждой строчки, то

        $$frac{partial s_{rl}}{partial x_{ij}} = begin{cases}
        s_{ij}(1 — s_{ij}), & r=i, j = l,
        -s_{il}s_{ij}, & r = i, jne l,
        0, & rne i
        end{cases},$$

        где через $s_{rl}$ мы обозначили для краткости $softmax(X)_{rl}$.

        Теперь пусть $nabla_{rl} = nabla g = frac{partialmathcal{L}}{partial s_{rl}}$ (пришедший со следующего слоя, уже известный градиент). Тогда

        $$frac{partialmathcal{L}}{partial x_{ij}} = sum_{r,l}frac{partial s_{rl}}{partial x_{ij}} nabla_{rl}$$

        Так как $frac{partial s_{rl}}{partial x_{ij}} = 0$ при $rne i$, мы можем убрать суммирование по $r$:

        $$ldots = sum_{l}frac{partial s_{il}}{partial x_{ij}} nabla_{il} = -s_{i1}s_{ij}nabla_{i1} — ldots + s_{ij}(1 — s_{ij})nabla_{ij}-ldots — s_{iK}s_{ij}nabla_{iK} =$$

        $$= -s_{ij}sum_t s_{it}nabla_{it} + s_{ij}nabla_{ij}$$

        Таким образом, если мы хотим продифференцировать $f$ в какой-то конкретной точке $X_0$, то, смешивая математические обозначения с нотацией Python, мы можем записать:

        $$begin{multline*}
        color{#348FEA}{nabla_{X_0}f =}
        color{#348FEA}{= -softmax(X_0) odot text{sum}left(
        softmax(X_0)odotnabla_{softmax(X_0)}g, text{ axis = 1}
        right) +}
        color{#348FEA}{softmax(X_0)odot nabla_{softmax(X_0)}g}
        end{multline*}
        $$

      Backpropagation в общем виде

      Подытожим предыдущее обсуждение, описав алгоритм error backpropagation (алгоритм обратного распространения ошибки). Допустим, у нас есть текущие значения весов $W^i_0$ и мы хотим совершить шаг SGD по мини-батчу $X$. Мы должны сделать следующее:

      1. Совершить forward pass, вычислив и запомнив все промежуточные представления $X = X^0, X^1, ldots, X^m = widehat{y}$.
      2. Вычислить все градиенты с помощью backward pass.
      3. С помощью полученных градиентов совершить шаг SGD.

      Проиллюстрируем алгоритм на примере двуслойной нейронной сети со скалярным output’ом. Для простоты опустим свободные члены в линейных слоях.

      17_3.png Обучаемые параметры – матрицы $U$ и $W$. Как найти градиенты по ним в точке $U_0, W_0$?

      $$nabla_{W_0}mathcal{L} = nabla_{W_0}{left({vphantom{frac12}mathcal{L}circ hcircleft[Wmapsto g(XU_0)Wright]}right)}=$$

      $$=g(XU_0)^Tnabla_{g(XU_0)W_0}(mathcal{L}circ h) = underbrace{g(XU_0)^T}_{ktimes N}cdot
      left[vphantom{frac12}underbrace{h’left(vphantom{int_0^1}g(XU_0)W_0right)}_{Ntimes 1}odot
      underbrace{nabla_{hleft(vphantom{int_0^1}g(XU_0)W_0right)}mathcal{L}}_{Ntimes 1}right]$$

      Итого матрица $ktimes 1$, как и $W_0$

      $$nabla_{U_0}mathcal{L} = nabla_{U_0}left(vphantom{frac12}
      mathcal{L}circ hcircleft[Ymapsto YW_0right]circ gcircleft[ Umapsto XUright]
      right)=$$

      $$=X^Tcdotnabla_{XU^0}left(vphantom{frac12}mathcal{L}circ hcirc [Ymapsto YW_0]circ gright) =$$

      $$=X^Tcdotleft(vphantom{frac12}g'(XU_0)odot
      nabla_{g(XU_0)}left[vphantom{in_0^1}mathcal{L}circ hcirc[Ymapsto YW_0right]
      right)$$

      $$=ldots = underset{Dtimes N}{X^T}cdotleft(vphantom{frac12}
      underbrace{g'(XU_0)}_{Ntimes K}odot
      underbrace{left[vphantom{int_0^1}left(
      underbrace{h’left(vphantom{int_0^1}g(XU_0)W_0right)}_{Ntimes1}odotunderbrace{nabla_{h(vphantom{int_0^1}gleft(XU_0right)W_0)}mathcal{L}}_{Ntimes 1}
      right)cdot underbrace{W^T}_{1times K}right]}_{Ntimes K}
      right)$$

      Итого $Dtimes K$, как и $U_0$

      Схематически это можно представить следующим образом:

      17_4.gif

      Backpropagation для двуслойной нейронной сети

      Если вы не уследили за вычислениями в предыдущем примере, давайте более подробно разберём его чуть более конкретную версию (для $g = h = sigma$)Рассмотрим двуслойную нейронную сеть для классификации. Мы уже встречали ее ранее при рассмотрении линейно неразделимой выборки. Предсказания получаются следующим образом:

      $$
      widehat{y} = sigma(X^1 W^2) = sigmaBig(big(sigma(X^0 W^1 )big) W^2 Big).
      $$

      Пусть $W^1_0$ и $W^2_0$ — текущее приближение матриц весов. Мы хотим совершить шаг по градиенту функции потерь, и для этого мы должны вычислить её градиенты по $W^1$ и $W^2$ в точке $(W^1_0, W^2_0)$.

      Прежде всего мы совершаем forward pass, в ходе которого мы должны запомнить все промежуточные представления: $X^1 = X^0 W^1_0$, $X^2 = sigma(X^0 W^1_0)$, $X^3 = sigma(X^0 W^1_0) W^2_0$, $X^4 = sigma(sigma(X^0 W^1_0) W^2_0) = widehat{y}$. Они понадобятся нам дальше.

      Для полученных предсказаний вычисляется значение функции потерь:

      $$
      l = mathcal{L}(y, widehat{y}) = y log(widehat{y}) + (1-y) log(1-widehat{y}).
      $$

      Дальше мы шаг за шагом будем находить производные по переменным из всё более глубоких слоёв.

      1. Градиент $mathcal{L}$ по предсказаниям имеет вид

        $$
        nabla_{widehat{y}}l = frac{y}{widehat{y}} — frac{1 — y}{1 — widehat{y}} = frac{y — widehat{y}}{widehat{y} (1 — widehat{y})},
        $$

        где, напомним, $ widehat{y} = sigma(X^3) = sigmaBig(big(sigma(X^0 W^1_0 )big) W^2_0 Big)$ (обратите внимание на то, что $W^1_0$ и $W^2_0$ тут именно те, из которых мы делаем градиентный шаг).

      2. Следующий слой — поэлементное взятие $sigma$. Как мы помним, при переходе через него градиент поэлементно умножается на производную $sigma$, в которую подставлено предыдущее промежуточное представление:

        $$
        nabla_{X^3}l = sigma'(X^3)odotnabla_{widehat{y}}l = sigma(X^3)left( 1 — sigma(X^3) right) odot frac{y — widehat{y}}{widehat{y} (1 — widehat{y})} =
        $$

        $$
        = sigma(X^3)left( 1 — sigma(X^3) right) odot frac{y — sigma(X^3)}{sigma(X^3) (1 — sigma(X^3))} =
        y — sigma(X^3)
        $$

      3. Следующий слой — умножение на $W^2_0$. В этот момент мы найдём градиент как по $W^2$, так и по $X^2$. При переходе через умножение на матрицу градиент, как мы помним, умножается с той же стороны на транспонированную матрицу, а значит:

        $$
        color{blue}{nabla_{W^2_0}l} = (X^2)^Tcdot nabla_{X^3}l = (X^2)^Tcdot(y — sigma(X^3)) =
        $$

        $$
        = color{blue}{left( sigma(X^0W^1_0) right)^T cdot (y — sigma(sigma(X^0W^1_0)W^2_0))}
        $$

        Аналогичным образом

        $$
        nabla_{X^2}l = nabla_{X^3}lcdot (W^2_0)^T = (y — sigma(X^3))cdot (W^2_0)^T =
        $$

        $$
        = (y — sigma(X^2W_0^2))cdot (W^2_0)^T
        $$

      4. Следующий слой — снова взятие $sigma$.

        $$
        nabla_{X^1}l = sigma'(X^1)odotnabla_{X^2}l = sigma(X^1)left( 1 — sigma(X^1) right) odot left( (y — sigma(X^2W_0^2))cdot (W^2_0)^T right) =
        $$

        $$
        = sigma(X^1)left( 1 — sigma(X^1) right) odotleft( (y — sigma(sigma(X^1)W_0^2))cdot (W^2_0)^T right)
        $$

      5. Наконец, последний слой — это умножение $X^0$ на $W^1_0$. Тут мы дифференцируем только по $W^1$:

        $$
        color{blue}{nabla_{W^1_0}l} = (X^0)^Tcdot nabla_{X^1}l = (X^0)^Tcdot big( sigma(X^1) left( 1 — sigma(X^1) right) odot (y — sigma(sigma(X^1)W_0^2))cdot (W^2_0)^Tbig) =
        $$

        $$
        = color{blue}{(X^0)^Tcdotbig(sigma(X^0W^1_0)left( 1 — sigma(X^0W^1_0) right) odot (y — sigma(sigma(X^0W^1_0)W_0^2))cdot (W^2_0)^Tbig) }
        $$

      Итоговые формулы для градиентов получились страшноватыми, но они были получены друг из друга итеративно с помощью очень простых операций: матричного и поэлементного умножения, в которые порой подставлялись значения заранее вычисленных промежуточных представлений.

      Автоматизация и autograd

      Итак, чтобы нейросеть обучалась, достаточно для любого слоя $f^k: X^{k-1}mapsto X^k$ с параметрами $W^k$ уметь:

      • превращать $nabla_{X^k_0}mathcal{L}$ в $nabla_{X^{k-1}_0}mathcal{L}$ (градиент по выходу в градиент по входу);
      • считать градиент по его параметрам $nabla_{W^k_0}mathcal{L}$.

      При этом слою совершенно не надо знать, что происходит вокруг. То есть слой действительно может быть запрограммирован как отдельная сущность, умеющая внутри себя делать forward pass и backward pass, после чего слои механически, как кубики в конструкторе, собираются в большую сеть, которая сможет работать как одно целое.

      Более того, во многих случаях авторы библиотек для глубинного обучения уже о вас позаботились и создали средства для автоматического дифференцирования выражений (autograd). Поэтому, программируя нейросеть, вы почти всегда можете думать только о forward-проходе, прямом преобразовании данных, предоставив библиотеке дифференцировать всё самостоятельно. Это делает код нейросетей весьма понятным и выразительным (да, в реальности он тоже бывает большим и страшным, но сравните на досуге код какой-нибудь разухабистой нейросети и код градиентного бустинга на решающих деревьях и почувствуйте разницу).

      Но это лишь начало

      Метод обратного распространения ошибки позволяет удобно посчитать градиенты, но дальше с ними что-то надо делать, и старый добрый SGD едва ли справится с обучением современной сетки. Так что же делать? О некоторых приёмах мы расскажем в следующей главе.

      Нейронные сети для начинающих. Часть 2 +38

      Алгоритмы, Машинное обучение


      Рекомендация: подборка платных и бесплатных курсов таргетированной рекламе — https://katalog-kursov.ru/

      Добро пожаловать во вторую часть руководства по нейронным сетям. Сразу хочу принести извинения всем кто ждал вторую часть намного раньше. По определенным причинам мне пришлось отложить ее написание. На самом деле я не ожидал, что у первой статьи будет такой спрос и что так много людей заинтересует данная тема. Взяв во внимание ваши комментарии, я постараюсь предоставить вам как можно больше информации и в то же время сохранить максимально понятный способ ее изложения. В данной статье, я буду рассказывать о способах обучения/тренировки нейросетей (в частности метод обратного распространения) и если вы, по каким-либо причинам, еще не прочитали первую часть, настоятельно рекомендую начать с нее. В процессе написания этой статьи, я хотел также рассказать о других видах нейросетей и методах тренировки, однако, начав писать про них, я понял что это пойдет вразрез с моим методом изложения. Я понимаю, что вам не терпится получить как можно больше информации, однако эти темы очень обширны и требуют детального анализа, а моей основной задачей является не написать очередную статью с поверхностным объяснением, а донести до вас каждый аспект затронутой темы и сделать статью максимально легкой в освоении. Спешу расстроить любителей “покодить”, так как я все еще не буду прибегать к использованию языка программирования и буду объяснять все “на пальцах”. Достаточно вступления, давайте теперь продолжим изучение нейросетей.

      Что такое нейрон смещения?

      Перед тем как начать нашу основную тему, мы должны ввести понятие еще одного вида нейронов — нейрон смещения. Нейрон смещения или bias нейрон — это третий вид нейронов, используемый в большинстве нейросетей. Особенность этого типа нейронов заключается в том, что его вход и выход всегда равняются 1 и они никогда не имеют входных синапсов. Нейроны смещения могут, либо присутствовать в нейронной сети по одному на слое, либо полностью отсутствовать, 50/50 быть не может (красным на схеме обозначены веса и нейроны которые размещать нельзя). Соединения у нейронов смещения такие же, как у обычных нейронов — со всеми нейронами следующего уровня, за исключением того, что синапсов между двумя bias нейронами быть не может. Следовательно, их можно размещать на входном слое и всех скрытых слоях, но никак не на выходном слое, так как им попросту не с чем будет формировать связь.

      Для чего нужен нейрон смещения?


      Нейрон смещения нужен для того, чтобы иметь возможность получать выходной результат, путем сдвига графика функции активации вправо или влево. Если это звучит запутанно, давайте рассмотрим простой пример, где есть один входной нейрон и один выходной нейрон. Тогда можно установить, что выход O2 будет равен входу H1, умноженному на его вес, и пропущенному через функцию активации (формула на фото слева). В нашем конкретном случае, будем использовать сигмоид.

      Из школьного курса математики, мы знаем, что если взять функцию y = ax+b и менять у нее значения “а”, то будет изменяться наклон функции (цвета линий на графике слева), а если менять “b”, то мы будем смещать функцию вправо или влево (цвета линий на графике справа). Так вот “а” — это вес H1, а “b” — это вес нейрона смещения B1. Это грубый пример, но примерно так все и работает (если вы посмотрите на функцию активации справа на изображении, то заметите очень сильное сходство между формулами). То есть, когда в ходе обучения, мы регулируем веса скрытых и выходных нейронов, мы меняем наклон функции активации. Однако, регулирование веса нейронов смещения может дать нам возможность сдвинуть функцию активации по оси X и захватить новые участки. Иными словами, если точка, отвечающая за ваше решение, будет находиться, как показано на графике слева, то ваша НС никогда не сможет решить задачу без использования нейронов смещения. Поэтому, вы редко встретите нейронные сети без нейронов смещения.

      Также нейроны смещения помогают в том случае, когда все входные нейроны получают на вход 0 и независимо от того какие у них веса, они все передадут на следующий слой 0, но не в случае присутствия нейрона смещения. Наличие или отсутствие нейронов смещения — это гиперпараметр (об этом чуть позже). Одним словом, вы сами должны решить, нужно ли вам использовать нейроны смещения или нет, прогнав НС с нейронами смешения и без них и сравнив результаты.

      ВАЖНО знать, что иногда на схемах не обозначают нейроны смещения, а просто учитывают их веса при вычислении входного значения например:

      input = H1*w1+H2*w2+b3
      b3 = bias*w3

      Так как его выход всегда равен 1, то можно просто представить что у нас есть дополнительный синапс с весом и прибавить к сумме этот вес без упоминания самого нейрона.

      Как сделать чтобы НС давала правильные ответы?

      Ответ прост — нужно ее обучать. Однако, насколько бы прост не был ответ, его реализация в плане простоты, оставляет желать лучшего. Существует несколько методов обучения НС и я выделю 3, на мой взгляд, самых интересных:

      • Метод обратного распространения (Backpropagation)
      • Метод упругого распространения (Resilient propagation или Rprop)
      • Генетический Алгоритм (Genetic Algorithm)

      Об Rprop и ГА речь пойдет в других статьях, а сейчас мы с вами посмотрим на основу основ — метод обратного распространения, который использует алгоритм градиентного спуска.

      Что такое градиентный спуск?

      Это способ нахождения локального минимума или максимума функции с помощью движения вдоль градиента. Если вы поймете суть градиентного спуска, то у вас не должно возникнуть никаких вопросов во время использования метода обратного распространения. Для начала, давайте разберемся, что такое градиент и где он присутствует в нашей НС. Давайте построим график, где по оси х будут значения веса нейрона(w) а по оси у — ошибка соответствующая этому весу(e).

      Посмотрев на этот график, мы поймем, что график функция f(w) является зависимостью ошибки от выбранного веса. На этом графике нас интересует глобальный минимум — точка (w2,e2) или, иными словами, то место где график подходит ближе всего к оси х. Эта точка будет означать, что выбрав вес w2 мы получим самую маленькую ошибку — e2 и как следствие, самый лучший результат из всех возможных. Найти же эту точку нам поможет метод градиентного спуска (желтым на графике обозначен градиент). Соответственно у каждого веса в нейросети будет свой график и градиент и у каждого надо найти глобальный минимум.

      Так что же такое, этот градиент? Градиент — это вектор который определяет крутизну склона и указывает его направление относительно какой либо из точек на поверхности или графике. Чтобы найти градиент нужно взять производную от графика по данной точке (как это и показано на графике). Двигаясь по направлению этого градиента мы будем плавно скатываться в низину. Теперь представим что ошибка — это лыжник, а график функции — гора. Соответственно, если ошибка равна 100%, то лыжник находиться на самой вершине горы и если ошибка 0% то в низине. Как все лыжники, ошибка стремится как можно быстрее спуститься вниз и уменьшить свое значение. В конечном случае у нас должен получиться следующий результат:

      Представьте что лыжника забрасывают, с помощью вертолета, на гору. На сколько высоко или низко зависит от случая (аналогично тому, как в нейронной сети при инициализации веса расставляются в случайном порядке). Допустим ошибка равна 90% и это наша точка отсчета. Теперь лыжнику нужно спуститься вниз, с помощью градиента. На пути вниз, в каждой точке мы будем вычислять градиент, что будет показывать нам направление спуска и при изменении наклона, корректировать его. Если склон будет прямым, то после n-ого количества таких действий мы доберемся до низины. Но в большинстве случаев склон (график функции) будет волнистый и наш лыжник столкнется с очень серьезной проблемой — локальный минимум. Я думаю все знают, что такое локальный и глобальный минимум функции, для освежения памяти вот пример. Попадание в локальный минимум чревато тем, что наш лыжник навсегда останется в этой низине и никогда не скатиться с горы, следовательно мы никогда не сможем получить правильный ответ. Но мы можем избежать этого, снарядив нашего лыжника реактивным ранцем под названием момент (momentum). Вот краткая иллюстрация момента:

      Как вы уже наверное догадались, этот ранец придаст лыжнику необходимое ускорение чтобы преодолеть холм, удерживающий нас в локальном минимуме, однако здесь есть одно НО. Представим что мы установили определенное значение параметру момент и без труда смогли преодолеть все локальные минимумы, и добраться до глобального минимума. Так как мы не можем просто отключить реактивный ранец, то мы можем проскочить глобальный минимум, если рядом с ним есть еще низины. В конечном случае это не так важно, так как рано или поздно мы все равно вернемся обратно в глобальный минимум, но стоит помнить, что чем больше момент, тем больше будет размах с которым лыжник будет кататься по низинам. Вместе с моментом в методе обратного распространения также используется такой параметр как скорость обучения (learning rate). Как наверняка многие подумают, чем больше скорость обучения, тем быстрее мы обучим нейросеть. Нет. Скорость обучения, также как и момент, является гиперпараметром — величина которая подбирается путем проб и ошибок. Скорость обучения можно напрямую связать со скоростью лыжника и можно с уверенностью сказать — тише едешь дальше будешь. Однако здесь тоже есть определенные аспекты, так как если мы совсем не дадим лыжнику скорости то он вообще никуда не поедет, а если дадим маленькую скорость то время пути может растянуться на очень и очень большой период времени. Что же тогда произойдет если мы дадим слишком большую скорость?

      Как видите, ничего хорошего. Лыжник начнет скатываться по неправильному пути и возможно даже в другом направлении, что как вы понимаете только отдалит нас от нахождения правильного ответа. Поэтому во всех этих параметрах нужно находить золотую середину чтобы избежать не сходимости НС (об этом чуть позже).

      Что такое Метод Обратного Распространения (МОР)?

      Вот мы и дошли до того момента, когда мы можем обсудить, как же все таки сделать так, чтобы ваша НС могла правильно обучаться и давать верные решения. Очень хорошо МОР визуализирован на этой гифке:

      А теперь давайте подробно разберем каждый этап. Если вы помните то в предыдущей статье мы считали выход НС. По другому это называется передача вперед (Forward pass), то есть мы последовательно передаем информацию от входных нейронов к выходным. После чего мы вычисляем ошибку и основываясь на ней делаем обратную передачу, которая заключается в том, чтобы последовательно менять веса нейронной сети, начиная с весов выходного нейрона. Значение весов будут меняться в ту сторону, которая даст нам наилучший результат. В моих вычисления я буду пользоваться методом нахождения дельты, так как это наиболее простой и понятный способ. Также я буду использовать стохастический метод обновления весов (об этом чуть позже).

      Теперь давайте продолжим с того места, где мы закончили вычисления в предыдущей статье.

      Данные задачи из предыдущей статьи

      Данные: I1=1, I2=0, w1=0.45, w2=0.78 ,w3=-0.12 ,w4=0.13 ,w5=1.5 ,w6=-2.3.

      H1input = 1*0.45+0*-0.12=0.45
      H1output = sigmoid(0.45)=0.61

      H2input = 1*0.78+0*0.13=0.78
      H2output = sigmoid(0.78)=0.69

      O1input = 0.61*1.5+0.69*-2.3=-0.672
      O1output = sigmoid(-0.672)=0.33

      O1ideal = 1 (0xor1=1)

      Error = ((1-0.33)^2)/1=0.45

      Результат — 0.33, ошибка — 45%.

      Так как мы уже подсчитали результат НС и ее ошибку, то мы можем сразу приступить к МОРу. Как я уже упоминал ранее, алгоритм всегда начинается с выходного нейрона. В таком случае давайте посчитаем для него значение ? (дельта) по формуле 1.
      Так как у выходного нейрона нет исходящих синапсов, то мы будем пользоваться первой формулой (? output), следственно для скрытых нейронов мы уже будем брать вторую формулу (? hidden). Тут все достаточно просто: считаем разницу между желаемым и полученным результатом и умножаем на производную функции активации от входного значения данного нейрона. Прежде чем приступить к вычислениям я хочу обратить ваше внимание на производную. Во первых как это уже наверное стало понятно, с МОР нужно использовать только те функции активации, которые могут быть дифференцированы. Во вторых чтобы не делать лишних вычислений, формулу производной можно заменить на более дружелюбную и простую формула вида:

      Таким образом наши вычисления для точки O1 будут выглядеть следующим образом.

      Решение

      O1output = 0.33
      O1ideal = 1
      Error = 0.45

      ?O1 = (1 — 0.33) * ( (1 — 0.33) * 0.33 ) = 0.148

      На этом вычисления для нейрона O1 закончены. Запомните, что после подсчета дельты нейрона мы обязаны сразу обновить веса всех исходящих синапсов этого нейрона. Так как в случае с O1 их нет, мы переходим к нейронам скрытого уровня и делаем тоже самое за исключение того, что формула подсчета дельты у нас теперь вторая и ее суть заключается в том, чтобы умножить производную функции активации от входного значения на сумму произведений всех исходящих весов и дельты нейрона с которой этот синапс связан. Но почему формулы разные? Дело в том что вся суть МОР заключается в том чтобы распространить ошибку выходных нейронов на все веса НС. Ошибку можно вычислить только на выходном уровне, как мы это уже сделали, также мы вычислили дельту в которой уже есть эта ошибка. Следственно теперь мы будем вместо ошибки использовать дельту которая будет передаваться от нейрона к нейрону. В таком случае давайте найдем дельту для H1:

      Решение

      H1output = 0.61
      w5 = 1.5
      ?O1 = 0.148

      ?H1 = ( (1 — 0.61) * 0.61 ) * ( 1.5 * 0.148 ) = 0.053

      Теперь нам нужно найти градиент для каждого исходящего синапса. Здесь обычно вставляют 3 этажную дробь с кучей производных и прочим математическим адом, но в этом и вся прелесть использования метода подсчета дельт, потому что в конечном счете ваша формула нахождения градиента будет выглядеть вот так:

      Здесь точка A это точка в начале синапса, а точка B на конце синапса. Таким образом мы можем подсчитать градиент w5 следующим образом:

      Решение

      H1output = 0.61
      ?O1 = 0.148

      GRADw5 = 0.61 * 0.148 = 0.09

      Сейчас у нас есть все необходимые данные чтобы обновить вес w5 и мы сделаем это благодаря функции МОР которая рассчитывает величину на которую нужно изменить тот или иной вес и выглядит она следующим образом:

      Настоятельно рекомендую вам не игнорировать вторую часть выражения и использовать момент так как это вам позволит избежать проблем с локальным минимумом.

      Здесь мы видим 2 константы о которых мы уже говорили, когда рассматривали алгоритм градиентного спуска: E (эпсилон) — скорость обучения, ? (альфа) — момент. Переводя формулу в слова получим: изменение веса синапса равно коэффициенту скорости обучения, умноженному на градиент этого веса, прибавить момент умноженный на предыдущее изменение этого веса (на 1-ой итерации равно 0). В таком случае давайте посчитаем изменение веса w5 и обновим его значение прибавив к нему ?w5.

      Решение

      E = 0.7
      ? = 0.3
      w5 = 1.5
      GRADw5 = 0.09
      ?w5(i-1) = 0

      ?w5 = 0.7 * 0.09 + 0 * 0.3 = 0.063
      w5 = w5 + ?w5 = 1.563

      Таким образом после применения алгоритма наш вес увеличился на 0.063. Теперь предлагаю сделать вам тоже самое для H2.

      Решение

      H2output = 0.69
      w6 = -2.3
      ?O1 = 0.148
      E = 0.7
      ? = 0.3
      ?w6(i-1) = 0

      ?H2 = ( (1 — 0.69) * 0.69 ) * ( -2.3 * 0.148 ) = -0.07

      GRADw6 = 0.69 * 0.148 = 0.1

      ?w6 = 0.7 * 0.1 + 0 * 0.3 = 0.07

      w6 = w6 + ?w6 = -2.2

      И конечно не забываем про I1 и I2, ведь у них тоже есть синапсы веса которых нам тоже нужно обновить. Однако помним, что нам не нужно находить дельты для входных нейронов так как у них нет входных синапсов.

      Решение

      w1 = 0.45, ?w1(i-1) = 0
      w2 = 0.78, ?w2(i-1) = 0
      w3 = -0.12, ?w3(i-1) = 0
      w4 = 0.13, ?w4(i-1) = 0
      ?H1 = 0.053
      ?H2 = -0.07
      E = 0.7
      ? = 0.3

      GRADw1 = 1 * 0.053 = 0.053
      GRADw2 = 1 * -0.07 = -0.07
      GRADw3 = 0 * 0.053 = 0
      GRADw4 = 0 * -0.07 = 0

      ?w1 = 0.7 * 0.053 + 0 * 0.3 = 0.04
      ?w2 = 0.7 * -0.07 + 0 * 0.3 = -0.05
      ?w3 = 0.7 * 0 + 0 * 0.3 = 0
      ?w4 = 0.7 * 0 + 0 * 0.3 = 0

      w1 = w1 + ?w1 = 0.5
      w2 = w2 + ?w2 = 0.73
      w3 = w3 + ?w3 = -0.12
      w4 = w4 + ?w4 = 0.13

      Теперь давайте убедимся в том, что мы все сделали правильно и снова посчитаем выход НС только уже с обновленными весами.

      Решение

      I1 = 1
      I2 = 0
      w1 = 0.5
      w2 = 0.73
      w3 = -0.12
      w4 = 0.13
      w5 = 1.563
      w6 = -2.2

      H1input = 1 * 0.5 + 0 * -0.12 = 0.5
      H1output = sigmoid(0.5) = 0.62

      H2input = 1 * 0.73 + 0 * 0.124 = 0.73
      H2output = sigmoid(0.73) = 0.675

      O1input = 0.62* 1.563 + 0.675 * -2.2 = -0.51
      O1output = sigmoid(-0.51) = 0.37

      O1ideal = 1 (0xor1=1)

      Error = ((1-0.37)^2)/1=0.39

      Результат — 0.37, ошибка — 39%.

      Как мы видим после одной итерации МОР, нам удалось уменьшить ошибку на 0.04 (6%). Теперь нужно повторять это снова и снова, пока ваша ошибка не станет достаточно мала.

      Что еще нужно знать о процессе обучения?

      Нейросеть можно обучать с учителем и без (supervised, unsupervised learning).

      Обучение с учителем — это тип тренировок присущий таким проблемам как регрессия и классификация (им мы и воспользовались в примере приведенном выше). Иными словами здесь вы выступаете в роли учителя а НС в роли ученика. Вы предоставляете входные данные и желаемый результат, то есть ученик посмотрев на входные данные поймет, что нужно стремиться к тому результату который вы ему предоставили.

      Обучение без учителя — этот тип обучения встречается не так часто. Здесь нет учителя, поэтому сеть не получает желаемый результат или же их количество очень мало. В основном такой вид тренировок присущ НС у которых задача состоит в группировке данных по определенным параметрам. Допустим вы подаете на вход 10000 статей на хабре и после анализа всех этих статей НС сможет распределить их по категориям основываясь, например, на часто встречающихся словах. Статьи в которых упоминаются языки программирования, к программированию, а где такие слова как Photoshop, к дизайну.

      Существует еще такой интересный метод, как обучение с подкреплением (reinforcement learning). Этот метод заслуживает отдельной статьи, но я попытаюсь вкратце описать его суть. Такой способ применим тогда, когда мы можем основываясь на результатах полученных от НС, дать ей оценку. Например мы хотим научить НС играть в PAC-MAN, тогда каждый раз когда НС будет набирать много очков мы будем ее поощрять. Иными словами мы предоставляем НС право найти любой способ достижения цели, до тех пор пока он будет давать хороший результат. Таким способом, сеть начнет понимать чего от нее хотят добиться и пытается найти наилучший способ достижения этой цели без постоянного предоставления данных “учителем”.

      Также обучение можно производить тремя методами: стохастический метод (stochastic), пакетный метод (batch) и мини-пакетный метод (mini-batch). Существует очень много статей и исследований на тему того, какой из методов лучше и никто не может прийти к общему ответу. Я же сторонник стохастического метода, однако я не отрицаю тот факт, что каждый метод имеет свои плюсы и минусы.

      Вкратце о каждом методе:

      Стохастический (его еще иногда называют онлайн) метод работает по следующему принципу — нашел ?w, сразу обнови соответствующий вес.

      Пакетный метод же работает по другому. Мы суммируем ?w всех весов на текущей итерации и только потом обновляем все веса используя эту сумму. Один из самых важных плюсов такого подхода — это значительная экономия времени на вычисление, точность же в таком случае может сильно пострадать.

      Мини-пакетный метод является золотой серединой и пытается совместить в себе плюсы обоих методов. Здесь принцип таков: мы в свободном порядке распределяем веса по группам и меняем их веса на сумму ?w всех весов в той или иной группе.

      Что такое гиперпараметры?

      Гиперпараметры — это значения, которые нужно подбирать вручную и зачастую методом проб и ошибок. Среди таких значений можно выделить:

      • Момент и скорость обучения
      • Количество скрытых слоев
      • Количество нейронов в каждом слое
      • Наличие или отсутствие нейронов смещения

      В других типах НС присутствуют дополнительные гиперпараметры, но о них мы говорить не будем. Подбор верных гиперпараметров очень важен и будет напрямую влиять на сходимость вашей НС. Понять стоит ли использовать нейроны смещения или нет достаточно просто. Количество скрытых слоев и нейронов в них можно вычислить перебором основываясь на одном простом правиле — чем больше нейронов, тем точнее результат и тем экспоненциально больше время, которое вы потратите на ее обучение. Однако стоит помнить, что не стоит делать НС с 1000 нейронов для решения простых задач. А вот с выбором момента и скорости обучения все чуточку сложнее. Эти гиперпараметры будут варьироваться, в зависимости от поставленной задачи и архитектуры НС. Например, для решения XOR скорость обучения может быть в пределах 0.3 — 0.7, но в НС которая анализирует и предсказывает цену акций, скорость обучения выше 0.00001 приводит к плохой сходимости НС. Не стоит сейчас заострять свое внимание на гиперпараметрах и пытаться досконально понять, как же их выбирать. Это придет с опытом, а пока что советую просто экспериментировать и искать примеры решения той или иной задачи в сети.

      Что такое сходимость?


      Сходимость говорит о том, правильная ли архитектура НС и правильно ли были подобраны гиперпараметры в соответствии с поставленной задачей. Допустим наша программа выводит ошибку НС на каждой итерации в лог. Если с каждой итерацией ошибка будет уменьшаться, то мы на верном пути и наша НС сходится. Если же ошибка будет прыгать вверх — вниз или застынет на определенном уровне, то НС не сходится. В 99% случаев это решается изменением гиперпараметров. Оставшийся 1% будет означать, что у вас ошибка в архитектуре НС. Также бывает, что на сходимость влияет переобучение НС.

      Что такое переобучение?

      Переобучение, как следует из названия, это состояние нейросети, когда она перенасыщена данными. Это проблема возникает, если слишком долго обучать сеть на одних и тех же данных. Иными словами, сеть начнет не учиться на данных, а запоминать и “зубрить” их. Соответственно, когда вы уже будете подавать на вход этой НС новые данные, то в полученных данных может появиться шум, который будет влиять на точность результата. Например, если мы будем показывать НС разные фотографии яблок (только красные) и говорить что это яблоко. Тогда, когда НС увидит желтое или зеленое яблоко, оно не сможет определить, что это яблоко, так как она запомнила, что все яблоки должны быть красными. И наоборот, когда НС увидит что-то красное и по форме совпадающее с яблоком, например персик, она скажет, что это яблоко. Это и есть шум. На графике шум будет выглядеть следующим образом.

      Видно, что график функции сильно колеблется от точки к точке, которые являются выходными данными (результатом) нашей НС. В идеале, этот график должен быть менее волнистый и прямой. Чтобы избежать переобучения, не стоит долго тренировать НС на одних и тех же или очень похожих данных. Также, переобучение может быть вызвано большим количеством параметров, которые вы подаете на вход НС или слишком сложной архитектурой. Таким образом, когда вы замечаете ошибки (шум) в выходных данных после этапа обучения, то вам стоит использовать один из методов регуляризации, но в большинстве случаев это не понадобиться.

      Заключение

      Надеюсь эта статья смогла прояснить ключевые моменты такого нелегко предмета, как Нейронные сети. Однако я считаю, что сколько бы ты статей не прочел, без практики такую сложную тему освоить невозможно. Поэтому, если вы только в начале пути и хотите изучить эту перспективную и развивающуюся отрасль, то советую начать практиковаться с написания своей НС, а уже после прибегать к помощи различных фреймворков и библиотек. Также, если вам интересен мой метод изложения информации и вы хотите, чтобы я написал статьи на другие темы связанные с Машинным обучением, то проголосуйте в опросе ниже за ту тему которую вам интересна. До встречи в будущих статьях :)

      Метод обратного распространения ошибок (англ. backpropagation) — метод вычисления градиента, который используется при обновлении весов в нейронной сети.

      Содержание

      • 1 Обучение как задача оптимизации
      • 2 Дифференцирование для однослойной сети
        • 2.1 Находим производную ошибки
      • 3 Алгоритм
      • 4 Недостатки алгоритма
        • 4.1 Паралич сети
        • 4.2 Локальные минимумы
      • 5 Примечания
      • 6 См. также
      • 7 Источники информации

      Обучение как задача оптимизации

      Рассмотрим простую нейронную сеть без скрытых слоев, с двумя входными вершинами и одной выходной, в которых каждый нейрон использует линейную функцию активации, (обычно, многослойные нейронные сети используют нелинейные функции активации, линейные функции используются для упрощения понимания) которая является взвешенной суммой входных данных.

      Простая нейронная сеть с двумя входными вершинами и одной выходной

      Изначально веса задаются случайно. Затем, нейрон обучается с помощью тренировочного множества, которое в этом случае состоит из множества троек где и — это входные данные сети и — правильный ответ. Начальная сеть, приняв на вход и , вычислит ответ , который вероятно отличается от . Общепринятый метод вычисления несоответствия между ожидаемым и получившимся ответом — квадратичная функция потерь:

      где ошибка.

      В качестве примера, обучим сеть на объекте , таким образом, значения и равны 1, а равно 0. Построим график зависимости ошибки от действительного ответа , его результатом будет парабола. Минимум параболы соответствует ответу , минимизирующему . Если тренировочный объект один, минимум касается горизонтальной оси, следовательно ошибка будет нулевая и сеть может выдать ответ равный ожидаемому ответу . Следовательно, задача преобразования входных значений в выходные может быть сведена к задаче оптимизации, заключающейся в поиске функции, которая даст минимальную ошибку.

      График ошибки для нейрона с линейной функцией активации и одним тренировочным объектом

      В таком случае, выходное значение нейрона — взвешенная сумма всех его входных значений:

      где и — веса на ребрах, соединяющих входные вершины с выходной. Следовательно, ошибка зависит от весов ребер, входящих в нейрон. И именно это нужно менять в процессе обучения. Распространенный алгоритм для поиска набора весов, минимизирующего ошибку — градиентный спуск. Метод обратного распространения ошибки используется для вычисления самого «крутого» направления для спуска.

      Дифференцирование для однослойной сети

      Метод градиентного спуска включает в себя вычисление дифференциала квадратичной функции ошибки относительно весов сети. Обычно это делается с помощью метода обратного распространения ошибки. Предположим, что выходной нейрон один, (их может быть несколько, тогда ошибка — это квадратичная норма вектора разницы) тогда квадратичная функция ошибки:

      где — квадратичная ошибка, — требуемый ответ для обучающего образца, — действительный ответ сети.

      Множитель добавлен чтобы предотвратить возникновение экспоненты во время дифференцирования. На результат это не повлияет, потому что позже выражение будет умножено на произвольную величину скорости обучения (англ. learning rate).

      Для каждого нейрона , его выходное значение определено как

      Входные значения нейрона — это взвешенная сумма выходных значений предыдущих нейронов. Если нейрон в первом слое после входного, то входного слоя — это просто входные значения сети. Количество входных значений нейрона . Переменная обозначает вес на ребре между нейроном предыдущего слоя и нейроном текущего слоя.

      Функция активации нелинейна и дифференцируема. Одна из распространенных функций активации — сигмоида:

      у нее удобная производная:

      Находим производную ошибки

      Вычисление частной производной ошибки по весам выполняется с помощью цепного правила:

      Только одно слагаемое в зависит от , так что

      Если нейрон в первом слое после входного, то — это просто .

      Производная выходного значения нейрона по его входному значению — это просто частная производная функции активации (предполагается что в качестве функции активации используется сигмоида):

      По этой причине данный метод требует дифференцируемой функции активации. (Тем не менее, функция ReLU стала достаточно популярной в последнее время, хоть и не дифференцируема в 0)

      Первый множитель легко вычислим, если нейрон находится в выходном слое, ведь в таком случае и

      Тем не менее, если произвольный внутренний слой сети, нахождение производной по менее очевидно.

      Если рассмотреть как функцию, берущую на вход все нейроны получающие на вход значение нейрона ,

      и взять полную производную по , то получим рекурсивное выражение для производной:

      Следовательно, производная по может быть вычислена если все производные по выходным значениям следующего слоя известны.

      Если собрать все месте:

      и

      Чтобы обновить вес используя градиентный спуск, нужно выбрать скорость обучения, . Изменение в весах должно отражать влияние на увеличение или уменьшение в . Если , увеличение увеличивает ; наоборот, если , увеличение уменьшает . Новый добавлен к старым весам, и произведение скорости обучения на градиент, умноженный на , гарантирует, что изменения будут всегда уменьшать . Другими словами, в следующем уравнении, всегда изменяет в такую сторону, что уменьшается:

      Алгоритм

      • — скорость обучения
      • — коэффициент инерциальности для сглаживания резких скачков при перемещении по поверхности целевой функции
      • — обучающее множество
      • — количество повторений
      • — функция, подающая x на вход сети и возвращающая выходные значения всех ее узлов
      • — количество слоев в сети
      • — множество нейронов в слое i
      • — множество нейронов в выходном слое
      fun BackPropagation:
         init 
         repeat :
             for  =  to :
                  =  
                 for :
                      = 
                 for  =  to :
                     for :
                          = 
                 for :
                      = 
                      = 
         return 
      

      Недостатки алгоритма

      Несмотря на многочисленные успешные применения обратного распространения, оно не является универсальным решением. Больше всего неприятностей приносит неопределённо долгий процесс обучения. В сложных задачах для обучения сети могут потребоваться дни или даже недели, она может и вообще не обучиться. Причиной может быть одна из описанных ниже.

      Градиентный спуск может найти локальный минимум вместо глобального

      Паралич сети

      В процессе обучения сети значения весов могут в результате коррекции стать очень большими величинами. Это может привести к тому, что все или большинство нейронов будут функционировать при очень больших выходных значениях, а производная активирующей функции будет очень мала. Так как посылаемая обратно в процессе обучения ошибка пропорциональна этой производной, то процесс обучения может практически замереть.

      Локальные минимумы

      Градиентный спуск с обратным распространением ошибок гарантирует нахождение только локального минимума функции; также, возникают проблемы с пересечением плато на поверхности функции ошибки.

      Примечания

      • Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки
      • Neural Nets
      • Understanding backpropagation

      См. также

      • Нейронные сети, перцептрон
      • Стохастический градиентный спуск
      • Настройка глубокой сети
      • Практики реализации нейронных сетей

      Источники информации

      • https://en.wikipedia.org/wiki/Backpropagation
      • https://ru.wikipedia.org/wiki/Метод_обратного_распространения_ошибки

      Оглавление:

      • Что такое искусственные нейронные сети?
      • Виды обучения нейронных сетей
      • Многослойные нейронные сети и их базовые понятия
      • Разбираемся на примере
      • Заключение

      Что такое искусственные нейронные сети?

      Данная статья предназначена для ознакомления читателя с искусственными нейронными сетями (далее ANN – Artificial Neural Network) и базовыми понятиями многослойных нейронных сетей.

      Artificial Neural Network

      Основным элементом ANN является нейрон. Его основной задачей является перемножение предыдущих значений нейронов или входных значений с соответствующими им весовыми коэффициентами связей между соответствующими нейронами, после активации вычисленного значения.

      Основными задачами ANN является классификация, принятие решения, анализ данных, прогнозирование, оптимизация.

      Искусственные нейронные сети категорируются по топологии (полносвязные, многослойные, слабосвязные), способу обучения (с учителем, без учителя, с подкреплением), модели нейронной сети (прямого распространения, рекррентные нейронные сети, сверточные нейронные сети, радиально-базисные функции), а также по типу связей (полносвязные, многослойные, слабосвязные). Такой значительно большой тип категорирования связан с разнообразием задач, которые ставятся перед ANN. Примеры, приведенные в скобках являются одними из самых распространенных типов категорирования, на самом деле их значительно больше.

      Примеры ANN

      Виды обучения нейронных сетей

      Обучение с учителем

      Данный тип обучения является самым простым, за счет того, что нет необходимости в написании алгоритмов самообучения. Для обучения с учителем требуется размеченный и структурированный набор данных для обучения. Под словом «размеченный» подразумевается процесс обозначения верного ответа на конкретный набор входных данных, который мы ожидаем от нейронной сети как результат работы. За счет таких данных нейронная сеть будет ориентироваться на разметку и корректировать процесс обучения за счет определения совершенных ошибок, которые будут определяться из данных разметки и ее предсказанных данных.

      Обучение без учителя

      Под обучением без учителя подразумевается процесс обучения нейронной сети без какого-либо контроля с нашей стороны. Весь процесс будет протекать за счет нахождения нейронной сетью корреляции в данных, извлечения полезных признаков и их анализа.

      Существуют несколько способов обучения без учителя: обнаружение аномалий, ассоциации, автоэнкодеры и кластеризация.

      На основе алгоритмов, описанных выше, в процессе обучения будет определяться значение ошибки, допущенной на каждом шаге обучения, за счет чего будет происходить корректировка обучения, следовательно, нейронная сеть обучится. За счет наличия алгоритмов, процесс написания которых занимает много времени и сильно усложняет моделирование нейронной сети, данный тип обучения считается самым сложным.

      Обучение с подкреплением

      Обучение с подкреплением или частичным вмешательством учителя можно считать золотой серединой в обучении нейронных сетей. Данный тип обучения представляет собой обучение без учителя с периодической его корректировкой. Корректировка обучения происходит тогда, когда нейронная сеть допускает ошибки при обучении.

      Многослойные нейронные сети и их базовые понятия

      Каждая ANN имеет входной, выходной и скрытые слои. Количество скрытых слоев и их сложность (количество искусственных нейронов) зачастую играют важную роль в процессе обучения, обеспечивая хорошее обучение модели нейронной сети.

      Многослойными ANN называются нейронные сети, у которых количество скрытых слоев более одного. Пример многослойной нейронной сети:

      Слои ANN

      Входной, выходной и скрытые слои, нормализация и зачем все это нужно?

      Входной слой дает возможность «скормить» данные, на которых требуется производить обучение. Выходной, в свою очередь, выдает результат работы нейронной сети. Вся суть заключается в скрытых слоях. Повторюсь, количество скрытых слоев и их сложность определяют качество обучения. Объясню на простом примере. Я, при написании модели нейронной сети, которая классифицирует рукописные цифры, смоделировал нейронную сеть из двух скрытых слоев по 30 нейронов в каждом. На вход подавал изображение 28х28 пикселей, но предварительно проведя нормализацию (объясню чуть ниже) входных значений и приведение изображения к виду 784х1, путем расставления всех столбцов в один. Т.е. входными значениями являлись 0 и 1, а если быть точнее — значения из данного диапазона. Так вот эти 0 и 1 оказались на входном слое, т.е. каждый нейрон входного слоя представлял из себя пиксель исходного изображения. Далее следовал скрытый слой, состоящий из 30 нейронов. Так вот, эти 30 нейронов представляют собой 30 участков исходного изображения, а каждый участок в свою очередь содержит какие-либо признаки, характеризующие изображение как определенную цифру. Т.е. чем больше нейронов в скрытых слоях, тем точнее будет представление и градуировка исходного изображения. Будет «плодиться» больше характеристик, по которым нейронная сеть будет классифицировать изображение должным образом.

      Вернусь к такому понятию, как нормализация. Она необходима для приведения входных значений к значениям из диапазона 0 и 1. Смысл заключается в том, что нейронная сеть должна явно или с долей вероятности классифицировать изображение, или дать какое-то предсказание. Раз предсказание представляет собой вероятность, то и входные значения должны быть в диапазоне от 0 до 1. Поэтому нормализация, к примеру, значений пикселей изображения, происходит путем деления на 255, т.к. значения пикселей находятся в диапазоне от 0 до 255 и максимальным значением является значение 255.

      Весовые коэффициенты

      Каждая связь между искусственными нейронами обладает весовым коэффициентом, который постоянно изменяется в процессе обучения и является величиной, которая увеличивает или уменьшает предсказанную вероятность. К примеру, при уменьшении веса связи между 1 и 2 нейроном и увеличении веса между 1 и 3 получим, что, используя сигмоидальную функцию активации, значение на ее выходе в 1-ом случае будет стремиться к 0, а во втором к 1. Т.е. весовые коэффициенты являются своего рода возбудителями искусственных нейронов к прогнозированию.

      Функция активация, виды и особенности

      Функция активации является нормализующим звеном на каждом слое нейронной сети. Она представляет из себя функцию, которая приводит входное значение к значению от 0 до 1. Одной из самых распространенных функция активации является сигмоидальная функция активации:

      Функция активации

      Значение ‘х’ является значением, которое обрабатывается функцией активации. Оно включает в себя алгебраическую сумму произведений значений нейронов на предыдущем слое на соответствующие им связи с тем нейроном, на котором мы производим расчет функции активации, а также нейрон смещения.

      Пример вычисления функции активации приведен на рис. 5

      Пример вычисления функции

      Распространенные виды функций активации:

      • Активация пороговой функции; функция активирована, если x, не активирована, если х<0

      Пороговая функция

      • Гиперболическая касательная функция ошибки; функция нелинейна, ее значения находятся в диапазоне (-1;1)

      Гиперболическая касательная функция

      • ReLu и LeakyReLu; функция ReLu равна при х, при x, а при х<0 равна 0. Отличием LeakyReLu от ReLu является наличие коэффициента, определяющего значение функции при х<0 как ах

       ReLu и LeakyReLu

       Функция ошибки, виды

      Функция ошибки необходима для определения ошибки прогнозирования, допускаемой нейронной сетью на каждом этапе обучения и корректировкой процесса обучения, за счет корректировки весовых значений связей между искусственными нейронами.

      Примеры функций ошибок:

      • Кросс-энтропия
      • Квадратичная (среднеквадратичное отклонение)
      • Расстояние Кульбака — Лейблера
      • Экспоненциальная

       Самая простая и часто используемая функция ошибок (функция потерь) – среднеквадратичное отклонение.

      Она вычисляется как половина от алгебраической суммы квадрата разности, прогнозируемого нейронной сетью значения и реальным значением – разметкой данных.

      Вычисление функции

      Backpropagation или обратное распространение ошибки

      Для корректировки весов на каждом слое нейронной сети необходима метрика для определения ошибки каждого веса, с этой целью был разработан алгоритм обратного распространения ошибки. Он работает следующим образом:

      • Вычисляется прогнозируемое нейронной сетью значение на выходе ANN
      • Производится расчет функции ошибки, к примеру, среднеквадратичной
      • Корректируются веса связей нейронов на последнем слое на основе вычисленной ошибки на выходе
      • Происходит расчет ошибки на предпоследнем слое нейронной сети на основании скорректированных весов связей на последнем слое и ошибки на выходе ANN
      • Процесс повторяется до первого слоя нейронной сети

      Пример работы алгоритма обратного распространения ошибки:

      Работа алгоритма

      Bias или нейрон смещения

      Значение смещения позволяет сместить функцию активации влево или вправо, что может иметь решающее значение для успешного обучения, а также позволяет быть более гибким при выборе решения или прогнозировании.

      При наличии нейрона смещения, его значение тоже поступает на вход функции активации, складываясь с алгебраической суммой произведений нейронов и их весовых коэффициентов.

      Пример работы нейрона смещения:

      Пример работы нейрона смещения 1

      Пример работы нейрона смещения 2

      Разбираемся на примере

      В данном примере напишем классификатор рукописных цифр на языке программирования С++. Обучающую выборку найдем на официальном сайте MNIST.

      В первую очередь импортируем модули:

      Импорт модулей

      Определим обучающую выборку ‘dataset’, и загрузим в нее размеченные изображения MNIST.

      Определение выборки и загрузка изображений

      Создадим входной слой равный 784 нейронам, так как наши изображения равны 28х28 пикселей и мы разложим их в цепочку пикселей 784х1, чтобы подать на вход нейронной сети; два скрытых слоя размера 30 нейронов каждый (размеры скрытых слоев подбирались случайно); выходной слой размером 10 нейронов, так как наша нейросеть будет классифицировать числа в диапазоне 0-9, где первый нейрон будет отвечать за классификацию числа 0, второй за число 1 и так далее до 9.

      Необходимо сразу инициализировать наши значения слоев, к примеру 0.

      Инициализация значений слоёв

      Создадим матрицы весов между входным и 1-м скрытым слоями, 1-м скрытым и 2-м скрытым слоями, 2-м скрытым и выходным слоями, и инициализируем матрицы случайными значениями, как показано на рисунке. На примере значения весов находятся в диапазоне [-1;1].

      Пример весов в диапазоне [-1;1]

      Также необходимо создать массивы, которые будут содержать в себе значения алгебраической суммы произведения весов на соответствующие нейроны, как было описано выше в статье, после чего эти значения будут подаваться в функцию активации.

      Ниже были созданы массивы ошибок на каждом слое. Для сохранения результатов ошибок на каждом нейроне, были инициализированы количество эпох и скорость обучения (определяет скорость перемещения по функции в поисках минимума во время обучения; необходимо быть осторожным с этим значением, так как если оно будет слишком мало, то, есть вероятность остаться в локальном минимуме, не найдя настоящий минимум функции или наоборот, при слишком большом значении, есть вероятность перескочить главный минимум функции.)

      Массивы ошибок

      На данном этапе начинается процесс обучения нашей нейронной сети. Внешний цикл определяет количество эпох обучения, а внутренний количество итераций обучения в каждой эпохе.

      На рисунке ниже инициализируются значения из обучающей выборки MNIST и занесения их на входной слой нейронной сети, а после происходит инициализация S-величин, о которых было сказано выше, нулями

      Инициализация значения из выборки

      Ниже происходит подсчет алгебраической суммы значений произведений веса на соответствующий нейрон, а после прохождение их через функцию активации, где в роли функции активации выступает сигмоидальная функция.

      Подсчёт алгебраической суммы значений

      Подсчитав значения на каждом слое, происходит инициализация массивов ошибок, путем заполнения их 0, а также определение ошибок на выходном слое, путем вычитания полученных значений из 1, и последующим умножением на произведение значений нейронов прошедших через функцию активации на выходном слое на разницу между 1 и этими же значениями.

      Инициализация массивов ошибок

      Далее необходимо определить ошибки на каждом слое нейронной сети методом обратного распространения ошибки. К примеру, чтобы найти ошибку на первом нейроне предыдущего слоя от выходного слоя, необходимо найти алгебраическую сумму произведения ошибок нейронов на выходном слое на соответствующие им веса связей с первым нейроном предыдущего слоя и перемножить на произведение значения нейронов на предпоследнем слое на разницу 1 и этих же значений. Таким образом необходимо найти допущенные ошибки нейронной сетью на каждом слое.

      Определение ошибки на каждом слое

      После определения ошибок, допущенных нейронной сетью на каждом нейроне, приступаем к корректировке весовых коэффициентов связей между каждым нейроном. Алгоритм корректировки представлен ниже.

      Корректировка весовых коэффициентов

      Скорректировав веса, определяем максимальное полученное значение на выходном слое, тем самым определим ответ нейронной сети после прохождения через нее изображения.

      Определение максимально полученного значения

      Заключение

      В этой статье мы разобрались с базовыми понятиями искусственных нейронных сетей, а именно с такими как: входной, выходной, скрытые слои и их предназначение, весовыми коэффициентами связи между искусственными нейронами, функцией активации и ее предназначением, методами определения ошибки на каждом искусственном, с понятием нейрона смещения и функциями ошибки. В следующей статье мы перейдем к изучению нового класса нейронных сетей, таких как сверточные нейронные сети (CNN).

      Желаю всем успехов в изучении!

      Метод обратного распространения ошибки — метод обучения многослойного перцептрона. Впервые метод был описан в 1974 г. Полем Дж. Вербосом[1], а также независимо и одновременно А. И. Галушкиным[2]. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом[3] и независимо и одновременно С. И. Барцевым и В. А. Охониным (Красноярская группа)[4]. Это итеративный градиентный алгоритм, который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода.

      Основная идея этого метода состоит в распространении сигналов ошибки от выходов сети к её входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы. Барцев и Охонин предложили сразу общий метод («принцип двойственности»), приложимый к более широкому классу систем, включая системы с запаздыванием, распределённые системы, и т. п.[5]

      Для возможноcти применения метода обратного распространения ошибки передаточная функция нейронов должна быть дифференцируема.

      Cигмоидальные функции активации[]

      Наиболее часто в качестве функций активации используются следующие виды сигмоид:

      Функция Ферми (экспоненциальная сигмоида):
      {displaystyle f(s)={frac {1}{1+e^{-2alpha s}}}}

      Рациональная сигмоида:
      {displaystyle f(s)={frac {s}{|s|+alpha }}}

      Гиперболический тангенс:
      {displaystyle f(s)=th{frac {s}{alpha }}={frac {e^{frac {s}{alpha }}-e^{-{frac {s}{alpha }}}}{e^{frac {s}{alpha }}+e^{-{frac {s}{alpha }}}}}}

      где s — выход сумматора нейрона, {displaystyle alpha } — произвольная константа.

      Менее всего, сравнительно с другими сигмоидами, процессорного времени требует расчет рациональной сигмоиды. Для вычисления гиперболического тангенса требуется больше всего тактов работы процессора. Если же сравнивать с пороговыми функциями активациями, то сигмоиды расчитываются очень медленно. Если после суммирования в пороговой функции сразу можно начинать сравнение с определенной величиной (порогом), то в случае сигмоидальной функции активации — нужно расчитать сигмоид (затратить время в лучшем случае на три операции: взятие модуля, сложение и деление), и только потом сравнивать с пороговой величиной (например, нулем). Если считать, что все простейшие операции расчитываются процессором за примерно одинаковое время, то работа сигмоидальной функции активации после произведенного суммирования (которое займет одинаковое время) будет медленее пороговой функции активации как 1:4.

      Функция оценки работы сети[]

      В тех случаях, когда удается оценить работу сети обучение нейронных сетей можно представить как задачу оптимизации. Оценить — означает указать количественно хорошо или плохо сеть решает поставленные ей задачи. Для этого строится функция оценки. Она, как правило, явно зависит от выходных сигналов сети и неявно (через функционирование) — от всех ее параметров. Простейший и самый распространенный пример оценки — сумма квадратов расстояний от выходных сигналов сети до их требуемых значений:
      {displaystyle H={frac {1}{2}}sum _{tau in v_{out}}(Z(tau )-Z^{*}(tau ))^{2}},
      где {displaystyle Z^{*}(tau )} — требуемое значение выходного сигнала.

      Метод наименьших квадратов далеко не всегда является лучшим выбором оценки. Тщательное конструирование функции оценки позволяет на порядок поысить эффективность обучения сети, а также получать дополнительную информацию — «уровень уверенности» сети в даваемом ответе[6].

      Описание алгоритма[]

      Файл:Neuro.PNG

      Архитектура многослойного перцептрона

      Алгоритм обратного распространения ошибки применяется для многослойного перцептрона. У сети есть входы {displaystyle x_{1},...,x_{n}}, выходы Outputs и внутренние узлы. Перенумеруем все узлы (включая входы и выходы) числами от 1 до N. Обозначим через {displaystyle w_{i,j}} вес, стоящий на ребре, соединяющем i-ый и j-ый узлы, а через {displaystyle o_{i}} — выход i-го узла. Если у нас m тестовых примеров с целевыми значениями выходов {displaystyle {t_{k}^{d}}}, {displaystyle d=1..m,kin Outputs}, то функция ошибки, полученная по методу наименьших квадратов, выглядит так:

      {displaystyle E({w_{i,j}})={cfrac {1}{2}}sum _{d=1}^{m}sum _{kin Outputs}(t_{k}^{d}-o_{k}(x_{1}^{d},...,x_{n}^{d}))^{2}}

      Как модифицировать веса? Мы будем реализовывать стохастический градиентный спуск, то есть будем подправлять веса после каждого тестового примера. Нам нужно двигаться в сторону, противоположную градиенту, то есть добавлять к каждому весу {displaystyle w_{i,j}}

      {displaystyle Delta w_{i,j}=-eta {frac {partial E^{d}}{partial w_{i,j}}}}

      где

      {displaystyle E^{d}({w_{i,j}})={cfrac {1}{2}}sum _{kin Outputs}(t_{k}^{d}-o_{k}^{d})^{2}}

      Производная считается следующим образом. Пусть сначала {displaystyle jin Outputs}, то есть интересующий нас вес входит в перцептрон последнего уровня. Сначала отметим, что {displaystyle w_{i,j}} влияет на выход перцептрона только как часть суммы {displaystyle S_{j}=sum _{i}w_{i,j}x_{i,j}}, где сумма берется по входам j-го узла. Поэтому

      {displaystyle {cfrac {partial E^{d}}{partial w_{i,j}}}={cfrac {partial E^{d}}{partial S_{j}}}{cfrac {partial S_{j}}{partial w_{i,j}}}=x_{i,j}{cfrac {partial E^{d}}{partial S_{j}}}}

      Аналогично, {displaystyle S_{j}} влияет на общую ошибку только в рамках выхода j-го узла {displaystyle o_{j}} (напоминаем, что это выход всей сети). Поэтому

      {displaystyle {cfrac {partial E^{d}}{partial S_{j}}}={cfrac {partial E^{d}}{partial o_{j}}}{cfrac {partial o_{j}}{partial S_{j}}}=left({cfrac {partial }{partial o_{j}}}{cfrac {1}{2}}sum _{kin Outputs}(t_{k}-o_{k})^{2}right)left({cfrac {partial sigma (S_{j})}{partial S_{j}}}right)=left({cfrac {1}{2}}{cfrac {partial }{partial o_{j}}}(t_{j}-o_{j})^{2}right)(o_{j}(1-o_{j}))=-o_{j}(1-o_{j})(t_{j}-o_{j}).}

      Если же j-й узел — не на последнем уровне, то у него есть выходы; обозначим их через Children(j). В этом случае

      {displaystyle {cfrac {partial E^{d}}{partial S_{j}}}=sum _{kin Children(j)}{cfrac {partial E^{d}}{partial S_{k}}}{cfrac {partial S_{k}}{partial S_{j}}}},

      и

      {displaystyle {cfrac {partial S_{k}}{partial S_{j}}}={cfrac {partial S_{k}}{partial o_{j}}}{cfrac {partial o_{j}}{partial S_{j}}}=w_{i,j}{cfrac {partial o_{j}}{partial S_{j}}}=w_{i,j}o_{j}(1-o_{j})}.

      Ну а {displaystyle {cfrac {partial E^{d}}{partial S_{k}}}} — это в точности аналогичная поправка, но вычисленная для узла следующего уровня (будем обозначать ее через {displaystyle delta _{k}} — от {displaystyle Delta _{k}} она отличается отсутствием множителя {displaystyle (-eta x_{i,j})}. Поскольку мы научились вычислять поправку для узлов последнего уровня и выражать поправку для узла более низкого уровня через поправки более высокого, можно уже писать алгоритм. Именно из-за этой особенности вычисления
      поправок алгоритм называется алгоритмом обратного распространения ошибки (backpropagation). Краткое резюме проделанной работы:

      • для узла последнего уровня

      {displaystyle delta _{j}=-o_{j}(1-o_{j})(t_{j}-o_{j})}

      • для внутреннего узла сети

      {displaystyle delta _{j}=-o_{j}(1-o_{j})sum _{kin Outputs(j)}delta _{k}w_{j,k}}

      • для всех узлов

      {displaystyle Delta w_{i,j}=-eta delta _{j}x_{i,j}}

      Получающийся алгоритм представлен ниже. На вход алгоритму, кроме указанных параметров, нужно также подавать в каком-нибудь формате структуру сети. На практике очень хорошие результаты показывают сети достаточно простой структуры, состоящие из двух уровней нейронов — скрытого уровня (hidden units) и нейронов-выходов (output units); каждый вход сети соединен со всеми скрытыми нейронами, а результат работы каждого скрытого нейрона подается на вход каждому из нейронов-выходов. В таком случае достаточно подавать на вход количество нейронов скрытого уровня.

      Алгоритм[]

      Алгоритм:
      BackPropagation {displaystyle (eta ,{x_{i}^{d},t^{d}}_{i=1,d=1}^{n,m},NUMBER_OF_STEPS)}

      1. Инициализировать {displaystyle {w_{ij}}_{i,j}} маленькими случайными значениями.
      2. Повторить NUMBER_OF_STEPS раз:
        Для всех d от 1 до m:
        1. Подать {displaystyle {x_{i}^{d}}} на вход сети и подсчитать выходы {displaystyle o_{i}} каждого узла.
        2. Для всех {displaystyle kin Outputs}
          {displaystyle delta _{k}=o_{k}(1-o_{k})(t_{k}-o_{k})}.
        3. Для каждого уровня l, начиная с предпоследнего:
          Для каждого узла j уровня l вычислить
          {displaystyle delta _{j}=o_{j}(1-o_{j})sum _{kin Children(j)}delta _{k}w_{j,k}}.
        4. Для каждого ребра сети {i, j}
          {displaystyle w_{i,j}=w_{i,j}+eta delta _{j}x_{i,j}}.
      3. Выдать значения {displaystyle w_{ij}}.

      Математическая интерпретация обучения нейронной сети[]

      На каждой итерации алгоритма обратного распространения весовые коэффициенты нейронной сети модифицируются так, чтобы улучшить решение одного примера. Таким образом, в процессе обучения циклически решаются однокритериальные задачи оптимизации.

      Обучение нейронной сети характеризуется четырьмя специфическими ограничениями, выделяющих обучение нейросетей из общих задач оптимизации: астрономическое число параметров, необходимость высокого параллелизма при обучении, многокритериальность решаемых задач, необходимость найти достаточно широкую область, в которой значения всех минимизируемых функций близки к минимальным. В остальном проблему обучения можно, как правило, сформулировать как задачу минимизации оценки. Осторожность предыдущей фразы («как правило») связана с тем, что на самом деле нам неизвестны и никогда не будут известны все возможные задачи для нейронных сетей, и, быть может, где-то в неизвестности есть задачи, которые несводимы к минимизации оценки. Минимизация оценки — сложная проблема: параметров астрономически много (для стандартных примеров, реализуемых на РС — от 100 до 1000000), адаптивный рельеф (график оценки как функции от подстраиваемых параметров) сложен, может содержать много локальных минимумов.

      Недостатки алгоритма[]

      Несмотря на многочисленные успешные применения обратного распространения, оно не является панацеей. Больше всего неприятностей приносит неопределенно долгий процесс обучения. В сложных задачах для обучения сети могут потребоваться дни или даже недели, она может и вообще не обучиться. Причиной может быть одна из описанных ниже.

      Паралич сети[]

      В процессе обучения сети значения весов могут в результате коррекции стать очень большими величинами. Это может привести к тому, что все или большинство нейронов будут функционировать при очень больших значениях OUT, в области, где производная сжимающей функции очень мала. Так как посылаемая обратно в процессе обучения ошибка пропорциональна этой производной, то процесс обучения может практически замереть. В теоретическом отношении эта проблема плохо изучена. Обычно этого избегают уменьшением размера шага η, но это увеличивает время обучения. Различные эвристики использовались для предохранения от паралича или для восстановления после него, но пока что они могут рассматриваться лишь как экспериментальные.

      Локальные минимумы[]

      Обратное распространение использует разновидность градиентного спуска, то есть осуществляет спуск вниз по поверхности ошибки, непрерывно подстраивая веса в направлении к минимуму. Поверхность ошибки сложной сети сильно изрезана и состоит из холмов, долин, складок и оврагов в пространстве высокой размерности. Сеть может попасть в локальный минимум (неглубокую долину), когда рядом имеется гораздо более глубокий минимум. В точке локального минимума все направления ведут вверх, и сеть неспособна из него выбраться. Статистические методы обучения могут помочь избежать этой ловушки, но они медленны.

      Размер шага[]

      Внимательный разбор доказательства сходимости[3] показывает, что коррекции весов предполагаются бесконечно малыми. Ясно, что это неосуществимо на практике, так как ведет к бесконечному времени обучения. Размер шага должен браться конечным, и в этом вопросе приходится опираться только на опыт. Если размер шага очень мал, то сходимость слишком медленная, если же очень велик, то может возникнуть паралич или постоянная неустойчивость. П. Д. Вассерман[7] описал адаптивный алгоритм выбора шага, автоматически корректирующий размер шага в процессе обучения. В книге А. Н. Горбаня[8] предложена разветвлённая технология оптимизации обучения.

      См. также[]

      • Сигмоид
      • Многослойный перцептрон

      Литература[]

      1. Уоссермен Ф. Нейрокомпьютерная техника: Теория и практика. — М.: «Мир», 1992.
      1. Хайкин С. Нейронные сети: Полный курс. Пер. с англ. Н. Н. Куссуль, А. Ю. Шелестова. 2-е изд., испр. — М.: Издательский дом Вильямс, 2008, 1103 с.

      Внешние ссылки[]

      1. Копосов А.И., Щербаков И.Б., Кисленко Н.А., Кисленко О.П., Варивода Ю.В. и др. Отчет по научно-исследовательской работе «Создание аналитического обзора информационных источников по применению нейронных сетей для задач газовой технологии». — Москва: ВНИИГАЗ, 1995.
      1. Миркес Е. М., Нейроинформатика: Учеб. пособие для студентов с программами для выполнения лабораторных работ. Красноярск: ИПЦ КГТУ, 2002, 347 с. Рис. 58, табл. 59, библиогр. 379 наименований. ISBN 5-7636-0477-6

      Примечания[]

      1. Werbos P. J., Beyond regression: New tools for prediction and analysis in the behavioral sciences. Ph.D. thesis, Harvard University, Cambridge, MA, 1974.
      2. Галушкин А. И. Синтез многослойных систем распознавания образов. — М.: «Энергия», 1974.
      3. 3,0 3,1 Rumelhart D.E., Hinton G.E., Williams R.J., Learning Internal Representations by Error Propagation. In: Parallel Distributed Processing, vol. 1, pp. 318—362. Cambridge, MA, MIT Press. 1986.
      4. Барцев С. И., Охонин В. А. Адаптивные сети обработки информации. Красноярск : Ин-т физики СО АН СССР, 1986. Препринт N 59Б. — 20 с.
      5. Барцев С. И., Гилев С. Е., Охонин В. А., Принцип двойственности в организации адаптивных сетей обработки информации, В кн.: Динамика химических и биологических систем. — Новосибирск: Наука, 1989. — С. 6-55.
      6. Миркес Е. М.,  — Новосибирск: Наука, Сибирская издательская фирма РАН, 1999. — 337 с. ISBN 5-02-031409-9 Другие копии онлайн: [1]
      7. Wasserman P. D. Experiments in translating Chinese characters using backpropagation. Proceedings of the Thirty-Third IEEE Computer Society International Conference.. — Washington: D. C.: Computer Society Press of the IEEE, 1988.
      8. Горбань А. Н. Обучение нейронных сетей.. — Москва: СП ПараГраф, 1990.

      ОРО и корректировка весов в нейросети

      Ранее мы улучшали поведение простого линейного классификатора и рассмотрели, как по входу и матрицам весов нейросети вычислить её выход.

      Теперь предположим, что имеется некий эталоный выход, к которому должен стремиться результат работы нейросети. Для достижения эталона нам потребуется что-то перенастраивать в сети. Это будут весовые коэффициенты.

      Выясним, как мы будем обновлять матрицы весов.

      Заготовка распределения ошибки. Изображение из (1)

      Заготовка распределения ошибки. Изображение из (1)

      Обратное распространение ошибки в нейронной сети

      Воспользуемся методом ОРО, пропорционально распределяя ошибку между имеющимися узлами:

      Простая сеть и ошибка на узлах. Изображение из (1)

      Простая сеть и ошибка на узлах. Изображение из (1)

      Определим ошибку на выходном слое ( e^{О}), как разность между эталонным значением ( t_{i}) и полученным ( o_{i}) на выходе нейросети :

      ( e^{О}_{i} = t_{i} — o_{i})

      Тогда, глядя на рисунок выше, заключим, что ошибка ( e^{О}_{1}) распределяется пропорционально весам ( w_{11}) и ( w_{21}), а ошибка ( e^{О}_{2}) должна распределяться пропорционально весам ( w_{12}) и ( w_{22}).

      Запишем эти доли в явном виде:

      ( e^{O}_{1} = displaystylefrac {w_{11}}{w_{11} + w_{21}}; quad e^{O}_{2} = displaystylefrac {w_{12}}{w_{12} + w_{22}}, )

      Итак, на основе отклонения текущего выхода от эталонного, мы будем обновлять весовые коэффициенты во всей нейросети, двигаясь с конца к её началу.

      Распределение ошибки по слоям. Изображение из (1)

      Распределение ошибки по слоям. Изображение из (1)

      Но если сначала мы использовали ошибку выходного слоя, то какую ошибку использовать для узлов скрытого слоя? Ведь мы не можем указать очевидную ошибку для узла в таком слое.
      Разберёмся, как определить ошибку для скрытого узла.

      Ошибка скрытого слоя

      Мы можем воссоединить ошибки, распределенные по связям следующим образом: ошибка на первом скрытом узле ( e^{H}_{1} ) представляет собой сумму ошибок, распределенных по всем связям, исходящим из этого узла в прямом направлении:

      ( e^{H}_{1} = e^{O}_{1} cdot frac {w_{11}}{w_{11} + w_{21}} + e^{O}_{2} cdot frac {w_{12}}{w_{12} + w_{22}}, )

      или как показано на иллюстрации ниже:

      Метод ОРО. Изображение из (1)

      Метод ОРО. Изображение из (1)

      Применять данную методику мы будем до тех пор, пока не доберёмся до входного слоя:

      Расчет ошибки на внутренних узлах. Изображение из (1)

      Расчет ошибки на внутренних узлах. Изображение из (1)

      Векторизация метода ОРО в нейросети

      Опять, так как Scilab — матричный язык, адаптируем поэлементный процесс обратного распространения ошибки в нейросети под удобный нам.

      Зададим эталонный вектор ( V_{e}), тогда ошибка ( E_O) на выходном слое ( O) считается самым простым способом:

      ( E_O = V_{e} — O )

      Ошибка ( E_H ) на скрытом слое ( H) будет считаться с учетом вклада каждого узла следующим образом:

      ( E_H = begin{pmatrix}
      frac {w_{11}}{w_{11} + w_{21}} & frac {w_{12}}{w_{12} + w_{22}}
      frac {w_{21}}{w_{21} + w_{11}} & frac {w_{22}}{w_{22} + w_{12}}
      end{pmatrix} cdot E_o
      )

      Здесь ( w_{ij} ) — элементы матрицы ( W_{HO} ), задающей веса для слоёв выходной-скрытый.

      Это выражение можно переписать в более простом виде, отказавшись от знаменателей в первом множителе. Тогда получим связь с весовой матрицей на текущем шаге:

      ( E_H = begin{pmatrix}
      w_{11} & w_{12}
      w_{21} & w_{22}
      end{pmatrix} cdot E_O
      )

      Итак, ошибка ( E_H ) скрытого вычисляется с учётом ошибки (E_O) выходного слоя и матрицы ( W_{HO} ):

      ( E_H = W_{HO}^T cdot E_O)

      Аналогично, для входного слоя ошибка ( E_I ) будет вычисляться с учётом ошибки (E_H) предыдущего слоя в связи с матрицей ( W_{IH} ), определяющей веса входной-скрытый слоёв:

      ( E_I = W_{IH}^T cdot E_H)

      Обновление весовых коэффициентов

      Для обновления весовых коэффициентов мы воспользуемся методом градиентного спуска (подробнее в (1)).

      При подсчёте ошибки на каждом из слоёв, будем немного корректировать весовые коэффициенты соответвующей весовой матрицы на величину ( Delta w ), которая на векторно-матричном языке может быть представлена как:

      ( Delta w = — alpha cdot E_k cdot O_k cdot (1 — O_k) cdot O^T_j, )

      где
      (alpha — ) скорость обучения нейронной сети (alpha in (0,1) ),
      (E_k — ) ошибка текущего слоя (вектор столбец),
      (O_k — ) текущий слой (вектор-столбец),
      (O^T_j — ) предыдущий слой (вектор-столбец).

      А обновлённая матрица весов примет вид:

      ( W^{new} = W^{cur} — Delta w )

      Осталось лишь собрать всё в программный код обучения нейросети 😁

      Данная статья создана на основе чудесной книги(1) с реализацией автором приведённых примеров на Scilab.

      Редакционное примечание. Поскольку
      эта статья непосредственно продолжает материал,
      опубликованный в предыдущем номере, и в ней
      имеются ссылки “назад”, сохранена сквозная
      нумерация рисунков и формул.

      Алгоритм обратного распространения
      ошибки

      Эффективный алгоритм обучения
      многослойных персептронов, открывший путь их
      широкому практическому применению, стал
      известен только в 1986 г. благодаря публикациям Д.Румельхарта,
      Г.Хилтона
      и Р.Вильямса. Идея этого
      алгоритма заключается в том, что ошибки нейронов
      выходного слоя используются для вычисления
      ошибок нейронов, расположенных в скрытых слоях.
      Значения ошибок как бы распространяются от
      выходного слоя нейронов вовнутрь сети от
      последующих нейронных слоев к предыдущим. Отсюда
      название метода: алгоритм обратного
      распространения ошибки
      (back propagation).

      Интересно отметить, что этот простой и
      изящный алгоритм был предложен несколько ранее в
      работах американских же ученых А.Паркера, А.Ле-Кана
      и П.Вербоса, но тогда на него не
      обратили внимания. Остались незамеченными и
      работы советских ученых, еще раньше
      разрабатывавших подобные алгоритмы в своих
      засекреченных институтах и успешно применявших
      их при построении систем управления объектами
      военного назначения.

      Рассмотрим идею алгоритма обратного
      рас­пространения ошибки, попытавшись обобщить
      дельта-правило на случай обучения двухслойного
      персептрона, имеющего N входов, I выходов и
      скрытый слой из J нейронов (рис. 9). Этот
      персептрон на самом деле имеет три слоя, однако в
      литературе его называют двухслойным, поскольку
      нейроны входного слоя имеют всего один вход, не
      имеют синаптических весов и не выполняют
      суммирования входных сигналов, а лишь передают
      один-единственный входной сигнал нейронам
      следующего слоя.

      Алгоритм корректировки синаптических
      весов нейронов выходного слоя оставим таким же,
      как для однослойного персептрона (см. обобщенное
      дельта-правило: формулы (22)–(24), заменив xj
      на yj ):

      Рис. 9. Двухслойный персептрон с N
      выходами,
      I выходамии скрытым слоем из J нейронов

      Синаптические веса нейронов скрытого
      слоя попытаемся корректировать с помощью все тех
      же формул (22)–(24), в которых индекс i заменим на
      j, а индекс j заменим на индекс n:

      При использовании этих формул
      возникает вопрос о вычислении нейронной ошибки ,
      которая для скрытого слоя неизвестна. Идея
      авторов рассматриваемого алгоритма состояла в
      том, чтобы в качестве этой ошибки использовать
      суммарные нейронные ошибки с выходного слоя,
      помноженные на силы соответствующих
      синаптических связей, т.е.

      Итак, для скрытого слоя окончательно
      имеем

      Используя эту идею, несложно расписать
      алгоритм обратного распространения ошибки для
      обучения персептрона, имеющего произвольное
      количество скрытых слоев. Однако в краткой
      газетной публикации мы воздержимся от этого,
      отослав заинтересовавшегося читателя, например,
      к книге Л.Н. Ясницкого “Введение в искусственный
      интеллект”. М.: Академия, 2008.

      Рекомендации по проведению урока

      Материал этого урока является
      наиболее трудным для восприятия из всего
      элективного курса. Об этом желательно сразу
      предупредить учащихся, чтобы настроить их на
      серьезную работу. Если урок пойдет тяжело, то
      можно ограничиться только общими фразами
      относительно идеи алгоритма, сказав, что на
      лабораторных работах школьники воспользуются
      готовым программным кодом и будут применять
      алгоритм обратного распространения ошибки путем
      нажатия кнопок.

      Нужно обязательно пообещать
      школьникам, что они будут пользоваться
      алгоритмом обратного распространения ошибки при
      выполнении практически всех последующих
      лабораторных работ. С помощью этого алгоритма
      они обучат многослойный персептрон моделировать
      все логические функции, в том числе и злополучную
      функцию “Исключающее ИЛИ”. Они обучат
      персептрон ставить медицинские диагнозы
      некоторых заболеваний, таких, как грипп, ОРЗ и
      пневмония. Они обучат персептрон таблицам
      умножения и сложения, обучат прогнозировать
      результаты президентских выборов и результаты
      автомобильных гонок, предсказывать, каким завтра
      и через неделю будет курс доллара и евро,
      определять, каким клиентам банка можно выдавать
      кредит, а каким нет, какая фирма является
      надежной, а какая скоро обанкротится. Они обучат
      персептроны решать множество проблем,
      встречающихся в жизни, крупных и мелких,
      житейских и связанных с их будущей работой и
      карьерным ростом.

      В результате учащиеся должны усвоить
      идею метода обратного распространения ошибки,
      знать
      его область применения, преимущества и
      недостатки перед всеми изученными ранее
      методами.

      Вопросы и задания с ответами и
      комментариями

      1. Объясните, в чем состоит идея
      алгоритма обратного распространения ошибки.
      Отражает ли название алгоритма его идею?

      Ответ: Идея алгоритма обратного
      распространения ошибки состоит в том, что в
      качестве нейронных ошибок скрытых слоев
      используются суммарные нейронные ошибки с
      последующих слоев, помноженные на силы
      соответствующих синаптических связей. Таким
      образом, значения ошибок выходного слоя, которые
      известны, распространяются вглубь сети от
      последующих слоев к предыдущим. Отсюда и
      название алгоритма, которое отражает его идею.

      2. Какую роль в методе обратного
      распространения ошибки выполняет коэффициент
      скорости обучения h?

      Ответ: Как и во всех других
      алгоритмах обучения нейронных сетей, с помощью
      коэффициента скорости обучения h
      можно влиять на величину итерационного шага,
      убыстряя или замедляя процесс обучения. Слишком
      большой шаг может привести к потере устойчивости
      итерационного процесса, а слишком маленький — к
      неоправданным затратам времени.

      3. Попробуйте запрограммировать
      алгоритм обратного распространения ошибки на
      каком-либо алгоритмическом языке.

      Комментарий: Рекомендуется
      использовать формулы алгоритма обратного
      распространения ошибки (29)–(36).

      4. Сколько алгоритмов обучения
      нейронных сетей вам известно? Назовите их и
      охарактеризуйте их возможности.

      Ответ: Правила Хебба,
      дельта-правило, обобщенное дельта-правило,
      алгоритм обратного распространения ошибки —
      всего четыре алгоритма. Первым алгоритмом,
      который мы изучали, были правила Хебба,
      предназначенные для обучения однослойного
      персептрона с нейронами, имеющими ступенчатые
      активационные функции. Затем было введено
      понятие нейронной ошибки как разницы между
      требуемым выходом нейрона di и его
      реальным значением yi. В результате
      правила Хебба были обобщены в виде алгоритма
      дельта-правила. В итерационных формулах
      алгоритма дельта-правила появился коэффициент
      скорости обучения , позволяющий влиять на
      величину итерационного шага. Затем была
      предложена сигмоидная активационная функция и
      было введено понятие квадратичной ошибки
      обучения персептрона. В результате появилось
      обобщенное дельта-правило, реализующее метод
      наискорейшего спуска и позволяющее работать не
      только с бинарными, но и с непрерывными
      сигналами. Алгоритм обратного распространения
      ошибки является следующим обобщением
      обобщенного дельта-правила и позволяет обучать
      не только однослойные, но и многослойные
      персептроны.

      Лабораторная работа № 5:
      “Двухслойный персептрон”


      Школьникам нужно напомнить о
      лабораторной работе № 1, выполняя которую они
      подбирали параметры однонейронного персептрона,
      пытались моделировать логические функции “И”,
      “ИЛИ” и “Исключающее ИЛИ”. Для первых двух
      функций их опыт удался, а для третьей — нет.
      Причина неудачи была выяснена на уроке,
      содержание которого полезно напомнить. Следует
      начертить на доске табл. 6 и нарисовать (или
      попросить школьников нарисовать) графики рис.
      6–7. То есть надо вспомнить геометрическую
      интерпретацию работы нейрона.

      После этого предложите школьникам еще
      раз запустить и попытаться выполнить
      лабораторную работу № 1, но теперь уже с
      пониманием геометрических рисунков в правой
      нижней части рабочего окна: “График выхода
      нейрона”. Это и есть графики, которые вы только
      что рисовали на доске, но они рисуются
      компьютером, причем как в плоском (внизу справа),
      так и в объемном (внизу по центру) видах, и каждое
      изменение параметров нейрона немедленно
      отражается на этих построениях: меняется
      положение пороговой прямой — линии,
      отделяющей возбужденное состояние нейрона от
      невозбужденного. Области рисунков,
      соответствующие возбужденному состоянию
      нейрона, закрашены красным цветом, а области,
      соответствующие невозбужденному состоянию, —
      зеленым цветом.

      После разбора причин неудач,
      случившихся при выполнении лабораторной работы
      № 1, предложите школьникам запустить
      лабораторную работу № 5, в которой предлагается
      выполнить то же самое задание с помощью
      двухслойного персептрона (см. рис. 10).


      Рис. 10. Рабочее окно 5-й лабораторной
      работы

      Как и прежние, эта лабораторная работа
      построена в виде диалога компьютера с учеником и
      практически не требует вмешательства
      преподавателя или лаборанта. Надо только дать
      команду, чтобы школьники запустили 5-ю
      лабораторную работу и выполняли задания,
      появляющиеся в окне “Протокол выполнения”.

      Выполняя пункты этих заданий,
      школьники имеют возможность задавать количество
      нейронов скрытого слоя персептрона, выбирать и
      задавать активационные функции нейронов,
      задавать коэффициент скорости обучения и
      количество эпох обучения. В нижней части экрана
      они видят структуру формируемого ими
      персептрона, по графику сходимости наблюдают за
      процессом его обучения. Результат обучения
      интерпретируется геометрически в виде объемного
      и плоского изображений по методике Минского –
      Пейперта, с которой школьники уже знакомы.

      План выполнения лабораторной работы
      построен так, что школьники должны подобрать по
      два удачных набора параметров персептрона для
      каждой моделируемой функции: “И”, “ИЛИ”,
      “Исключающее ИЛИ”. Кроме того, при
      моделировании последней функции школьникам
      дается задание проверить, получится ли решение
      задачи в случае использования линейной функции
      активации (ответ должен быть отрицательным),
      функции-ступеньки (ответ положительный) и
      сигмоиды (ответ положительный), а также в случае
      применения однослойного персептрона (ответ
      отрицательный). Школьникам также дается задание
      исследовать влияние коэффициента скорости
      обучения на сходимость процесса обучения. Для
      каждой функции активации (ступеньки, сигмоиды)
      они должны получить кривые сходимости при разных
      коэффициентах h, каждую такую
      кривую скопировать (путем нажатия клавиши ) и подготовить
      отчетный документ, например, с помощью
      текстового редактора Microsoft Word, выявив с помощью
      этих кривых наилучшее для данной задачи значение
      коэффициента скорости обучения h.

      В ходе выполнения работы школьникам
      полезно задать вопрос, почему один и тот же
      персептрон при повторных запусках дает разные
      результаты: процесс обучения за одно и то же
      количество эпох в некоторых случаях приводит к
      решению задачи, а в некоторых случаях — нет?

      В ответ желательно услышать следующее.
      При каждом новом запуске процесса обучения
      персептрона значения его синаптических весов
      присваиваются датчиком случайных чисел. Эти
      значения могут случайно оказаться удачными, т.е.
      располагаться вблизи минимума функции ошибки e = e(wij) (см. рис.
      3), и тогда процесс обучения персептрона быстро
      приведет к решению задачи. Если же начальные
      значения синаптических весов находятся далеко
      от глобального минимума функции ошибки, то
      процесс обучения может застрять в каком-нибудь
      локальном минимуме, не обеспечивающем решение
      задачи.

      Неудачи выполнения заданий
      лабораторной работы могут быть вызваны и тем, что
      школьники по своей инициативе увеличат скорость
      обучения до слишком больших величин (значительно
      больших изначально заданного значения 0,1), что
      приведет к нарушению сходимости. Кроме того,
      иногда просто может не хватить числа эпох
      обучения, которое мы рекомендуем увеличить до 1000
      и более.

      В заключение школьникам можно сказать,
      что трудности, встречающиеся при обучении
      персептронов (неустойчивость, попадание в
      локальные минимумы и др.), и способы их
      преодоления будут детально изучаться на
      последующих уроках.

      В результате выполнения лабораторной
      работы школьники должны приобрести опыт применения
      многослойных персептронов при моделировании
      простейших логических функций. Они должны
      убедиться
      , что положительный результат
      решения задачи может быть получен только при
      умелом подборе параметров персептрона:

      — количества нейронов на скрытом слое,

      — количество эпох обучения,

      — коэффициента скорости обучения,

      — вида активационных функций
      нейронов.

      ВОЗМОЖНОСТИ И СФЕРЫ ПРИМЕНЕНИЯ
      ПЕРСЕПТРОНОВ

      Новый способ построения математических
      моделей

      С появлением алгоритма обратного
      распространения ошибки начался период широкого
      практического применения нейросетевых
      технологий для решения самых разнообразных
      задач. С помощью многослойного персептрона стало
      возможным строить математические модели,
      выполняющие сложные многомерные отображения
      входного вектора параметров X на выходной
      вектор Y.

      Задачи подобного рода часто
      встречаются в самых разнообразных, казалось бы,
      не имеющих ничего общего областях, таких, как
      промышленность, экономика, бизнес, финансы,
      политология, социология, криминалистика,
      экология, медицина и т.д.

      Практически в каждой проблеме,
      решаемой прикладными науками, требуется
      построить модель явления, процесса, объекта, т.е.
      выявить и математически описать зависимость
      одного комплекса параметров от другого.
      Требуется построить математические функции,
      которые можно использовать для более глубокого
      анализа моделируемого объекта, например — найти
      оптимальное сочетание управляющих параметров,
      обеспечивающих максимум некоторой целевой
      функции, такой, как рентабельность, прибыльность,
      прочность, температура, скорость, высота и т.д.
      Или — выполнить прогнозирование, т.е.
      предсказать, как будут развиваться моделируемые
      события в зависимости от того или иного
      воздействия на моделируемый объект, и как
      повлиять на эти события путем выбора нужного
      воздействия.

      При обучении в школе, да и просто в
      жизни вы не раз сталкивались с методом
      математического моделирования и наверняка
      оценили его эффективность. Например, на уроках
      физики вы решали задачу о движении тела,
      брошенного под углом к горизонту. Имея
      математическую модель этого явления —
      уравнения, связывающие угол бросания, начальную
      скорость, высоту подъема и дальность полета,
      исследуя эту математическую модель, решая
      уравнения, просчитывая разные варианты выбора
      исходных параметров, вы легко определили
      оптимальный угол бросания, обеспечивающий
      максимальную дальность полета тела. Для этого
      вам не надо было ставить никаких натурных
      экспериментов, не потребовалось выходить во двор
      и бросать камни.

      Говоря о важности метода
      математического моделирования в нашей жизни,
      отметим, что в настоящее время он является одним
      из самых эффективных методов получения
      результатов как в науке, так и в практической
      деятельности. Методом математического
      моделирования рассчитываются, проектируются,
      оптимизируются новые инженерные и строительные
      конструкции, делается прогноз погоды,
      предсказываются стихийные бедствия, выполняются
      экономические прогнозы, на основе которых
      строится экономическая политика отдельных фирм
      и целых государств.

      Новые научные и практические знания,
      полученные методом математического
      моделирования, не раз оказывали решающее влияние
      на формирование лица нашей цивилизации, на
      геополитическое положение государств на нашей
      планете.

      Так, нахождение формы крыла самолета,
      обеспечивающей максимальную подъемную силу,
      выполненное методом математического
      моделирования, дало сильнейший толчок развития
      авиации.

      На основе математического
      моделирования процессов горения пороха была
      построена теория кумулятивного взрыва, в
      результате были созданы противотанковые заряды,
      применение которых решающим образом повлияло на
      исход Второй мировой войны.

      Создание космических ракет и сами
      космические полеты были невозможны без
      компьютерных экспериментов, выполняемых
      методами математического моделирования.

      И, наконец, благодаря методу
      математического моделирования было открыто
      явление ядерной зимы — глобальное понижение
      температуры поверхности планеты, вызванное
      массовыми ядерными взрывами. Никто это явление в
      действительности не наблюдал. Оно было открыто
      на экране компьютера в результате
      вычислительных экспериментов над
      математическими компьютерными моделями. И это
      открытие радикальным образом повлияло на
      государственную политику великих держав. Стало
      ясно, что победителей в ядерной войне не будет.
      Бессмысленная гонка вооружений была прекращена.
      Глобальный мир на Земле был сохранен, и планета
      была спасена.

      До появления нейронных сетей и
      нейрокомпьютеров математические модели
      традиционно строились с использованием
      фундаментальных законов природы, таких, как
      законы сохранения массы, энергии, количества
      движения и др. Эти законы записывались в виде
      алгебраических либо дифференциальных и
      интегральных уравнений, к которым добавлялись
      уравнения, отражающие закономерности конкретных
      предметных областей. Для получения результата
      приходилось разрабатывать и применять алгоритмы
      совместного решения всех этих уравнений,
      составляющих математическую модель исследуемой
      предметной области.

      Нейроинформационные технологии
      открыли иной подход к самой методике построения
      компьютерных математических моделей. Появилась
      возможность, не задумываясь над законами физики,
      химии, биологии, медицины, общественного
      развития и т.д., а исходя из одного только
      эмпирического опыта (обучающих примеров),
      строить математические модели, которые сами
      выявляют законы природы и закономерности
      предметных областей и позволяют их эффективно
      использовать для решения широкого круга
      практических задач. Появился новый инструмент
      извлечения знаний из данных, позволяющий заново
      открывать фундаментальные законы природы,
      выявлять ранее неизвестные и никогда не
      исследованные зависимости и закономерности и
      использовать их для решения конкретных
      практических задач.

      Особенно эффективным этот новый
      инструмент оказался при построении
      математических моделей в плохо формализуемых
      предметных областях, таких, к каким, например,
      относится медицина.

      Диагностика в медицине

      В средствах информации и научной
      литературе имеются сообщения об удачном опыте
      применения нейронных сетей для медицинской
      диагностики. Рассмотрим, как строятся и
      обучаются такие сети.

      Проведем наблюдение за тем, как врач
      ставит диагноз болезни пациента. Прежде всего он
      выясняет и записывает имя, возраст, пол, место
      работы, затем, как правило, измеряет давление,
      проводит внешний осмотр, выслушивает жалобы
      больного, знакомится с историей его болезни,
      результатами анализов, изучает
      электрокардиограмму. В результате у врача
      накапливается от 20 до 100 и более параметров,
      характеризующих пациента и его состояние
      здоровья. Это и есть исходные параметры,
      обработав которые с помощью своих медицинских
      знаний и опыта, врач делает заключение о
      заболевании пациента — ставит диагноз его
      болезни.

      Задавшись целью построить
      нейросетевую математическую модель
      врача-диагноста, мы прежде всего должны
      определиться с входным вектором X и
      выходным вектором D, задав их размерности,
      и условиться о содержимом каждого компонента. В
      векторе X логично предусмотреть
      параметры, которые врач выясняет у больного.
      Например, в качестве компоненты можно задать
      дату рождения, в качестве — закодировать пол
      (например, нулем или единицей), в качестве — вес
      больного, — артериальное давление, —
      температуру тела и т.д. Нелишне учесть также цвет
      глаз, цвет волос, знак зодиака и другие данные,
      определяющие особенности организма и,
      следовательно, влияющие на вероятность
      возникновения тех или иных заболеваний. В
      выходном векторе D следует закодировать
      все возможные диагнозы болезней, которые
      способен обнаружить врач.

      Естественно, что размерность вектора D
      можно существенно снизить, если моделировать
      врача, специализирующегося в узкой области
      медицины. Так, если мы выбрали врача-кардиолога,
      то в векторе D следует кодировать только
      кардиологические заболевания. Например, можно
      принять , если у больного был инфаркт, и , если нет.
      Аналогично с помощью можно закодировать наличие
      или отсутствие порока сердца, — ишемической
      болезни сердца и т.д.

      Таким образом, выходной вектор
      персептрона D будет состоять из множества
      нулей и одной или нескольких единиц (если
      болезней несколько). Однако диагнозы болезней
      лучше кодировать по пяти-, десяти- или
      стобалльной шкале. Тогда на этапе подготовки
      обучающего множества примеров с помощью баллов
      можно будет учитывать степень уверенности врача
      в правильности его диагноза или степень
      развитости заболевания, а на этапе эксплуатации
      — вероятность правильного ответа персептрона.
      Например, если врач подозревает, что у больного
      инфаркт миокарда, знает, что у больного нет
      порока сердца и уверен, что больной страдает
      ишемической болезнью сердца, то он может указать:
      d1 = 20%, d2 = 0%, d3 = 100%.

      Далее следует подготовить множество
      обучающих примеров. Мы воздержимся от советов по
      организации совместного труда эксперта-врача и
      программиста, в результате которого будет
      создано необходимое количество обучающих
      примеров. Отметим только, что качество
      нейросетевой диагностической системы напрямую
      зависит от квалификации практикующего врача, на
      примерах работы которого она обучилась. Дело в
      том, что нейронная сеть наследует от врача не
      только его знания, но и пробелы в его медицинском
      образовании. Понятно, что она будет допускать те
      же самые врачебные ошибки, которые допускает
      врач. Поэтому для обеспечения высокого качества
      диагностики нейронную сеть следует обучать на
      примерах работы высококвалифицированного врача
      или даже на результатах работы врачебного
      консилиума. А если к работе по обучению нейронной
      сети привлечь еще и патологоанатома,
      исключающего ошибки врачебной диагностики, то
      будут все основания надеяться, что обученная
      таким способом нейросеть по качеству
      выставляемых диагнозов превзойдет обычных
      врачей. В этом случае нейронная сеть может
      обнаружить и заложить в модель такие
      закономерности человеческого организма, которые
      современной медицине вообще неизвестны.

      Итак, в результате совместной работы
      коллектива специалистов-медиков и программистов
      будет накоп­лено множество обучающих примеров,
      состоящее из множества пар векторов и . Теперь
      задача состоит в том, чтобы спроектировать
      персептрон и путем обучения передать ему знания
      и опыт, содержащийся во множестве обучающих
      примеров. Вопросы проектирования персептронов,
      т.е. подбора количества скрытых слоев,
      содержащихся в них нейронов и типов
      активационных функций, рассматриваются на
      следующих уроках, поэтому сейчас мы этим
      заниматься не будем. В качестве метода обучения
      персептрона можно использовать рассмот­ренный
      ранее алгоритм обратного распространения
      ошибки.

      В результате персептрон должен
      научиться отображать любой вектор обучающего
      множества на вектор , совпадающий (либо почти
      совпадающий) с вектором . Кроме того, при
      появлении нового пациента, характеризующегося
      новым входным вектором , персептрон должен
      вычислить для него новый вектор , содержащий
      правильный диагноз, поставленный персептроном
      уже без помощи врача-эксперта. Другими словами,
      персептрон должен уметь обобщать переданный
      ему опыт на новые, не встречавшиеся ранее примеры
      предметной облас­ти — ставить диагнозы
      болезней новым, не встречавшимся ранее
      пациентам.

      В заключение еще раз укажем причины, на
      основании которых можно ожидать, что
      искусственный врач может превзойти
      натурального.

      Во-первых, качество работы
      искусственного врача всегда стабильно и не
      зависит от его настроения и состояния здоровья.
      Во-вторых, и это главное, нейронная сеть способна
      извлекать и применять знания, которые
      современной медицине неизвестны. Поэтому есть
      все основания ожидать, что благодаря применению
      методов искусственного интеллекта в будущем
      несовершенство современной медицины будет в
      значительной степени ликвидировано.

      Коротко о главном

      Персептрон можно обучить ставить
      диагнозы заболеваний, т.е. — моделировать
      деятельность врача-диагноста.

      Рекомендации по проведению урока

      Этим уроком начинается знакомство с
      серией практических применений нейросетевых
      технологий. Школьники еще не имеют достаточной
      теоретической базы для проектирования
      работоспособных нейронных сетей, но они уже
      поняли их принцип действия и могут понять и
      оценить широту их практических возможностей.
      Откладывая на потом более детальное изучение
      теоретической базы нейроинформатики, мы
      преследуем цель — не растерять интерес и
      внимание школьников. Мы продолжаем интриговать
      их перспективами, которые им откроются в
      результате изучения элективного курса —
      возможностями практического применения
      нейросетевых технологий.

      Знакомство с материалом урока
      предполагает, что школьники уже имеют понятие о
      методе математического моделирования. Им можно
      напомнить, что они уже неоднократно имели дело с
      математическими моделями, но, возможно, не
      называли вещи своими именами, не подходили к
      методу математического моделирования системно.

      Например, на уроках физики школьники
      решали задачу о движении тела, брошенного под
      углом к горизонту. Для решения этой задачи они
      выписывали систему механических уравнений:
      уравнение равномерного прямолинейного движения
      вдоль горизонтальной оси, уравнение
      равноускоренного (равнозамедленного) движения
      вдоль вертикальной оси, закон сохранения
      механической энергии. Это и есть математическая
      модель процесса, сформированная в пределах
      упрощающих гипотез: не учитываются скорость
      ветра и плотность воздуха, не учитывается
      зависимость ускорения силы тяжести от высоты, не
      учитывается вращение Земли и пр.

      Исследуя математическую модель, т.е.
      решая уравнения с помощью компьютера или
      вручную, школьники могли рассчитать дальность
      полета тела, высоту траектории, построить
      траектории движения тела в зависимости от
      исходных параметров: начальной скорости и угла
      бросания, а также найти оптимальный угол
      бросания, обеспечивающий максимальную дальность
      полета тела*.

      На примере решения этой задачи можно
      проследить всю последовательность применения
      метода математического моделирования.

      1. Вводятся упрощающие гипотезы:
      пренебрегается скоростью ветра, вращением земли,
      высотой над уровнем моря и пр.

      2. На основании законов природы
      составляются уравнения, описывающие поведение
      предметной области.

      3. Тестирование модели — выполняются
      пробные расчеты, например, строится траектория
      движения тела, которая сравнивается с реальной
      для того, чтобы убедиться в адекватности
      математической модели моделируемому процессу.

      4. Проводится исследование модели
      аналитическими либо численными приемами,
      возможно, с привлечением компьютера. В последнем
      случае говорят о компьютерных экспериментах с
      математической моделью, в ходе которых
      получаются новые знания или полезные
      практические результаты, например, находится
      оптимальный угол бросания тела, обеспечивающий
      максимальную дальность его полета.

      Нейроинформационные технологии
      открыли иной подход к самой методике построения
      математических моделей. Они представляют собой
      новый инструмент, позволяющий строить
      математические модели, не вводя в них законы и
      закономерности предметных областей. Эти законы
      вообще не обязательно знать человеку. Новый
      инструмент сам извлекает их из множества
      предоставленных ему примеров.

      Так, в случае с только что разобранной
      задачей о движении тела, брошенного под углом к
      горизонту, авторам математической модели не
      нужно выписывать законы равномерного и
      равноускоренного движений, не нужно вспоминать
      закон сохранения энергии, не нужно выполнять
      решение уравнений. Им нужно провести несколько
      экспериментов с бросанием камней или со
      стрельбой из пушки (в дальнейшем эта задача будет
      подробно рассмотрена и решена). При этом им надо
      замерять угол бросания, начальную скорость и
      результат бросания — высоту и дальность полета
      камня. Сформировав таким образом множество
      обучающих примеров и обучив с помощью них
      персептрон, можно убедиться, что вновь созданная
      нейросетевая математическая модель будет
      соблюдать законы физики, которые она извлечет в
      процессе обучения и закодирует их в виде сил
      синаптических межнейронных связей. Можно
      убедиться, что результаты расчетов с помощью
      нейросетевой математической модели будут
      совпадать с теми, которые получались бы в
      результате применения известных из курса физики
      формул.

      Однако, как показала практика,
      наиболее эффективным применение нового
      инструмента оказалось при построении
      нейросетевых математических моделей в плохо
      формализуемых предметных областях, в которых
      многие законы, закономерности и внутренние
      взаимосвязи человеку неизвестны. К одной из
      таких трудных предметных областей относится
      медицина.

      Знакомство с возможностями
      практического применения персептронов
      начинается с темы, знакомой всем, —
      путешествия на прием к врачу. При изложении
      материала урока полезно подчеркнуть, что мы
      строим математическую модель врача, совершенно
      при этом не зная медицины. Не имея медицинских
      знаний, мы просто записываем симптомы и диагнозы,
      которые ставит различным пациентам опытный врач,
      и предоставляем эту информацию нейронной сети, а
      нейронная сеть, уже в ходе своего обучения,
      извлекает необходимые медицинские знания из
      этой информации.

      Рекомендуется обратить внимание на то,
      что, обучив персептрон на примерах,
      заимствованных только от одного врача, мы
      рискуем обучить персептрон повторять ошибки
      этого врача. Ведь всем известно, что врачи часто
      ошибаются. Поэтому школьникам можно задать
      вопрос, как снизить эти ошибки и как их вообще
      избежать. Ответ на этот вопрос можно разобрать в
      ходе дальнейшего изложения материала урока,
      сообщив им, что улучшить качество нейросетевой
      диагностической системы можно, если к обучению
      нейросети привлечь хороших врачей, в том числе —
      патологоанатомов. Но лучше, если школьники сами
      попытаются предложить варианты решений
      указанной проблемы. Таким образом, можно
      подвести их к мысли о том, что искусственный
      нейросетевой врач в принципе способен превзойти
      обычного врача по достоверности выставляемых
      диагнозов.

      Важно обратить внимание школьников на
      то, что персептрон, обучаясь на примерах,
      извлекает скрытые в них медицинские знания. Он
      усваивает не только те знания, которые
      моделируемый врач получил, обучаясь в
      медицинском вузе, но и заимствует опыт и даже
      врачебную интуицию, которые врач приобрел,
      занимаясь врачебной практикой.

      В заключение можно спросить
      школьников, в каком виде персептрон хранит
      медицинские знания в своей памяти. Ответ все тот
      же — в виде сил синаптических связей.

      В итоге учащиеся должны знать, чем
      нейроинформационный способ построения
      математических моделей отличается от
      традиционного, понимать принципы создания
      медицинских диагностических систем, знать их
      достоинства.

      Вопросы и задания с ответами и
      комментариями

      1. Когда возник метод математического
      моделирования?

      Ответ:Метод математического
      моделирования возник одновременно с
      математикой. Любая математическая формула — это
      математическая модель какого-либо объекта,
      процесса, явления, предназначенная для получения
      полезной информации об этом объекте.

      2. Приведите примеры применения метода
      математического моделирования.

      Ответ:

      1) Формула площади круга является
      математической моделью круга. С помощью нее
      можно вычислить площадь круга, можно графически
      построить зависимость площади круга от его
      радиуса.

      2) Наиболее ярким примером применения
      метода математического моделирования является
      открытие явления “ядерной зимы” — резкое
      понижение температуры поверхности планеты в
      случае произведения массовых ядерных взрывов.
      Это явление еще никто никогда не наблюдал в
      действительности, но его открытие повлияло на
      политику великих держав, способствовало
      прекращению гонки вооружений.

      3) С помощью метода математического
      моделирования проектируются новые инженерные и
      строительные конструкции, строятся
      экономические прогнозы, прогнозируется погода,
      предсказываются стихийные бедствия и др.

      3. Чем методика построения
      математических моделей на основе
      нейротехнологий отличается от традиционной?

      Ответ: В математические модели,
      создаваемые на основе нейротехнологий, не
      требуется вводить законы и закономерности,
      которым подчиняются исследуемые предметные
      области. Вместо этого формируется множество
      обучающих примеров, характеризующих свойства и
      поведение предметной области.

      4. Опишите, как бы вы стали формировать
      примеры для обучения персептрона ставить
      медицинские диагнозы заболеваний человека.

      Ответ: См. материалы урока.

      5. Сколько ваш персептрон должен иметь
      входов и выходов?

      Ответ: Количество входов
      персептрона должно сов­падать с количеством
      параметров и симптомов, которые использует врач
      при постановке диагнозов заболеваний.
      Количество выходов персептрона должно совпадать
      с количеством диагнозов, которые может поставить
      моделируемый вами врач.

      6. Как быть, если врач-эксперт не совсем
      уверен в правильности выставляемого им диагноза?

      Ответ: Чтобы это учесть, надо
      кодировать диагнозы заболеваний не в виде нулей
      и единичек, а по 100-балльной шкале. Тогда с помощью
      баллов можно учитывать степень уверенности
      врача. Например, если врач подозревает, что у
      больного инфаркт миокарда, знает, что у больного
      нет порока сердца и уверен, что больной страдает
      ишемической болезнью сердца, то он может указать:
      d1 = 20%, d2 = 0%, d3 = 100%.

      7. Почему искусственный нейросетевой
      врач может превзойти обычного врача по качеству
      постановки диагнозов заболеваний?

      Ответ: Искусственный нейросетевой
      врач может оказаться лучше обычного врача по
      следующим причинам:

      — Компьютерная диагностическая
      система в отличие от врача-диагноста работает
      всегда стабильно и не подвержена таким явлениям,
      как усталость, плохое настроение, плохое
      самочувствие, и другим субъективным факторам.

      — Если при формировании множества
      обучающих примеров использовался не один врач, а
      врачебный консилиум, то это снижает вероятность
      постановки неправильных диагнозов.

      — Постановка неправильных диагнозов
      практически исключается, если обучающие примеры
      формировать на базе патологоанатомических
      исследований. В этом случае нейросеть может
      обнаружить и заложить в модель такие
      закономерности человеческого организма, которые
      современной медицине вообще неизвестны.

      8. Откуда нейросетевой врач получает
      медицинские знания и в каком виде он их хранит в
      своей памяти?

      Ответ: Знания извлекаются из
      множества обучающих примеров, в которых
      заключены медицинские знания и опыт врачей и,
      возможно, данные патологоанатомических
      исследований. В нейронной сети знания кодируются
      и хранятся в виде сил межнейронных синаптических
      связей.

      Лабораторная работа № 6:
      “Медицинская диагностика — один диагноз”.

      Лабораторная работа № 7: “Медицинская
      диагностика — несколько диагнозов”

      Учащимся следует напомнить, что темой
      последнего урока было моделирование работы
      врача-кардиолога. Был рассмотрен вопрос о том,
      как научить персептрон ставить диагнозы
      сердечных заболеваний.

      Теперь школьникам предоставляется
      возможность обучить персептрон ставить диагнозы
      простудных заболеваний. Сначала персептрон
      должен научиться определять, болен или не болен
      пациент только одним-единственным заболеванием
      — гриппом (лабораторная работа № 6), а затем
      обучить его ставить один из трех диагнозов:
      “Пневмония”, “ОРЗ”, “Здоров” (лабораторная
      работа № 7).

      При выполнении обеих лабораторных
      работ школьники сами выбирают несколько
      симптомов, которые, по их мнению, следует
      принимать во внимание при постановке диагноза.
      Выбранные симптомы они отмечают галочками. При
      этом автоматически проектируется нейронная сеть
      — персептрон, имеющий ровно столько входов,
      сколько симптомов выбрал школьник. Структура
      сети показывается в правой нижней части рабочего
      окна (рис. 11, 12). Затем школьники формируют
      множество обучающих примеров, используя свои
      немногие, но собственные медицинские знания.
      Например, если они указывают, что у пациента
      симптомы отсутствуют или проявлены в слабой
      форме, то такому пациенту они ставят диагноз
      “Здоров”. Пациенту, у которого высокая
      температура, сильный насморк, головные боли,
      болезненность горла и хрипы в легких, они ставят
      диагноз “Пневмония” и т.д.

      После обучения сети школьники
      убеждаются, что сеть усвоила те скромные
      медицинские знания, которые они заложили в
      обучающих примерах, и что она самостоятельно
      ставит диагнозы заболеваний, вполне приемлемые с
      точки зрения школьников.

      В заключение можно рассказать школьникам, что
      серьезные IT-фирмы, занимающиеся разработкой
      прикладного программного обеспечения, прежде
      чем взяться за создание какого-либо нового
      программного продукта, сначала делают его
      демонстрационный прототип. Цель создания
      демонстрационного прототипа — убедиться
      самим и убедить потенциальных заказчиков
      будущего программного продукта в
      жизнеспособности идей, которые будут заложены в
      его основу. То, что сделали школьники, — это и
      есть демонстрационный прототип
      интеллектуальной систе

      мы медицинской диагностики. Этот
      прототип убеждает нас, что он способен обучаться
      медицинским знаниям и способен правильно
      использовать эти знания при постановке
      диагнозов новым пациентам, которых не было во
      множестве обучающих примеров. Теперь, используя
      полученный опыт, можно приступать к созданию
      профессиональной системы медицинской
      диагностики.

      Сообщите школьникам, что элективным
      курсом “Искусственный интеллект”
      предусмат­ривается выполнение самостоятельных
      (курсовых) работ, что темы курсовых работ
      школьники могут выбирать сами, исходя из
      собственных наклонностей, интересов,
      возможностей.

      Создание интеллектуальной системы медицинской
      диагностики — это одна из таких тем, однако для
      ее выполнения, для создания множества обучающих
      примеров, школьникам необходим контакт с
      профессиональными медиками. Если у кого-то из
      школьников такой контакт есть, например, через
      родителей-врачей, родственников и знакомых,
      которые согласятся помочь и, возможно, сами
      заинтересуются темой, то школьникам можно смело
      браться за создание медицинской диагностической
      системы. Инструмент для создания персептронов с
      любым количеством входов (симптомов заболеваний)
      и выходов (диагнозов заболеваний) школьники
      получат при выполнении следующей лабораторной
      работы № 8.

      Рис. 11. Рабочее окно лабораторной
      работы № 6

      Рис. 12. Рабочее окно лабораторной
      работы № 7


      * Решение этой задачи методом
      нейросетевого моделирования планируется дать в
      последующем изложении.

      Ошибка выходного нейрона, согласно (6.5.8):

      δ0(3) = 0,612 * (1 – 0,612) * (0,612 – 1) = – 0,092.

      Ошибки нейронов 2 скрытого слоя по формуле (6.5.9):

      δ0(2)

      = 0,468 * (1 – 0,468) * (– 0,092) * 0,062 = – 0,00 1,

      δ1(2)

      = 0,606 * (1 – 0,606) * (– 0,092) * 0,64 = – 0,014 .

      Ошибки нейронов 1 скрытого слоя по формуле (7.5.9):

      δ0(1) = 0,591 * (1 – 0,591) * ((– 0,001) * ( – 0,33) +

      +(– 0,014) * ( – 0,08)) = 0,0002,

      δ (1)

      1 = 0,556 * (1 – 0,556) * ((– 0,001) * 0,27 + (– 0,0 14) * 0,79) = – 0,003.

      Вес первой связи выходного нейрона изменится, согласно (6.3), на следующую величину:

      = – 0,8 * (– 0,092) * 0,468 = 0,034.

      Таким образом, новое значение веса будет равно:

      w00(3) (t + 1) = w00(3) (t) + w00(3) = 0,062 + 0,034 = 0,096.

      Аналогично производится коррекция остальных весов связей

      ИНС:

      w10(3) (t +1) = 0,64 – 0,8 * (– 0,092) * 0,606 = 0,685; w(30) (t +1) = 0,04 – 0,8 * (– 0,092) * 1 = 0,114;

      w00( 2) (t + 1) = -0,33 – 0,8 * (– 0,001) * 0,591 = – 0,329; w10( 2) (t + 1) = 0,27 – 0,8 * (– 0,001) * 0,556 = 0,27; w( 20) (t + 1) = – 0,084 – 0,8 * (– 0,001) * 1 = – 0,083; w01( 2) (t + 1) = – 0,08 – 0,8 * (– 0,001) * 0,591 = – 0,073; w11( 2) (t + 1) = 0,79 – 0,8 * (– 0,014) * 0,556 = 0,796; w(12) (t + 1) = 0,037 – 0,8 (– 0,014) * 1 = 0,048;

      w00(1) (t +1) = 0,12 – 0,8 * 0,0002 * 0 = 0,12; w10(1) (t +1) = 0,35 – 0,8 * 0,0002 * 1 = 0,35; w(10) (t +1) = 0,02 – 0,8 * 0,0002 * 1 = 0,02; w01(1) (t +1) = – 0,5 – 0,8 * (– 0,003) * 0 = – 0,5; w11(1) (t +1) = 0,24 – 0,8 * (– 0,003) * 1 = 0,242; w(11) (t +1) = – 0,015 – 0,8 * (– 0,003) * 1 = – 0,013.

      В случаях, когда вместо индекса начального нейрона связи стоит символ «–», производится настройка смещения нейрона. Т.е. запись

      Понравилась статья? Поделить с друзьями:
    • Ошибка неисправность цепи управление вентилятором
    • Ошибка неисправность цепи нагревателя датчика кислорода до нейтрализатора
    • Ошибка неисправность цепи зажигания газель
    • Ошибка неисправность цепи вентилятора гранта
    • Ошибка неисправность усилителя рулевого управления фф2