Генетический алгоритм обучения нейронной сети.

Этот алгоритм является алгоритмом глобальной оптимизации. В нем используются следующие механизмы:

  1. скрещивание родительских пар (cross-over), генерация потомков;
  2. мутация (действие случайных воздействий);
  3. естественный отбор лучших (селекция).

Цель обучения — минимизация среднеквадратичной ошибки

Формула 1

Веса нейросети

Задается начальная популяция.

Любая особь представляется соответствующими весами из N особей Представление особи

Вычисляем индекс пригодности (Fitness Index) и оцениваем качество прогнозирования

Индекс пригодности

где С — константа.

Скрещивание родительских пар. При выборе родителей используется вероятностный механизм. Обозначим Pi — вероятность выбора i-го родителя:

Вероятность выбора родителя

Затем осуществляется скрещивание выбранных пар.

Можно применять различные механизмы скрещивания. Например, для первого потомка берутся нечетные компоненты из вектора первого родителя, а четные компоненты из вектора второго родителя. Для второго потомка наоборот — четные компоненты из вектора первого родителя, а нечетные компоненты из вектора второго родителя. Это можно записать таким образом:

Скрещивание

Берется N/2 родительских пар и генерируются N потомков.

Действие мутаций. Мутация, где Функция ξ, Константа a

Селекция. Можно использовать различные механизмы селекции.

  1. Полная замена старой популяции на новую.
  2. Выбор N лучших из всех существующих особей Nрод+Nпотмк=2N по критерию максимума FI.

Недостатки метода: ряд параметров определяется экспериментально (например, N — размер популяции, α — показатель затухания мутаций

Lections: Prof. Y. P. ZAYCHENKO
http://www.i2.com.ua/


Shestopalov Alex•2005