Вернуться в библиотеку | ||||||||||||
Первоисточник - http://paklin.newmail.ru/mater/hybrid.html | ||||||||||||
Н.Б. Паклин, М.А. Сенилов, В.А. Тененев ГОУ ВПО "Ижевский государственный технический университет", г. Ижевск ИНТЕЛЛЕКТУАЛЬНЫЕ МОДЕЛИ НА ОСНОВЕ ГИБРИДНОГО ГЕНЕТИЧЕСКОГО АЛГОРИТМА С ГРАДИЕНТНЫМ ОБУЧЕНИЕМ ЛИДЕРА Данный доклад в сентябре 2004 г. был опубликован в научно-теоретическом журнале "Искусственный интеллект" и апробирован на V Международной конференции "Искусственный интеллект-2004. Интеллектуальные и многопроцессорные системы" (20-25 сентября 2004 года, Крым, п. Кацивели, ссылка на печатный источник: Паклин Н.Б., Сенилов М.А., Тененев В.А. Интеллектуальные модели на основе гибридного генетического алгоритма с градиентным обучением лидера // Искусственный интеллект. - Донецк: Наука i освiта. - 2004. - № 4. - С. 159-168. Доклад был удостоен премии как лучший секционный доклад молодого ученого и рекомендован оргкомитетом конференции к публикации в ведущих центральных научных журналах России. В работе для решения оптимизационных задач предлагается гибридный алгоритм, объединяющий стандартные генетические алгоритмы и градиентные методы. Особенность алгоритма в том, что работа градиентных и генетических методов ведется параллельно. Это позволяет находить глобальный оптимум с высокой точностью. Метод протестирован на овражных, многоэкстремальных функциях большой размерности без задания начального приближения. Показана эффективная работа алгоритма в процедуре обучения многослойного персептрона. Введение Практически все методы обучения интеллектуальных моделей
используют какой-либо алгоритм глобальной оптимизации, минимизирующий
функцию ошибки модели. Специфика оптимизируемых функций связана с большим
размером пространства поиска и их многоэкстремальностью. Поэтому от применяемого
алгоритма оптимизации в конечном итоге зависит качество полученной интеллектуальной
модели. 1. Генетический алгоритм с градиентным обучением лидера Стандартный генетический алгоритм [1] не позволяет решить все проблемы, связанные с оптимизаций функций многих переменных. С увеличением раз-мерности вектора переменных сильно увеличивается размер области поиска. Рассмотрим пример поиска минимума тестовой функции Розенброка. Двумерная функция имеет вид: (1) Оптимальные значения переменных при равны . N-мерная функция Розенброка, взятая как в работе [2] при N=24, запишется в виде . (2) Оптимальные значения переменных при f(X)=0 также равны . Для минимизации функции (2) в области применялся стандартный генетический алгоритм с бинарным кодированием. На рис. 1 показаны зависимости от числа итераций k значений функции f(X) при N=24 (линия 1) и N=1 ( линия 4), а также максимальные отклонения от точного решения (линии 2 и 5) и среднеквадратичные отклонения (линии 3 и 6), соответственно для N=24 и N=1. Для функции с N=1 минимальное значение достигает приемлемого уровня при отклонении от точного решения до . В случае же N=24 сходимость процесса гораздо хуже. Значения функции не опускаются ниже 30 и максимальное отклонение от точного решения устанавливается на уровне 1 (т.е. для некоторых решение находится далеко от оптимального). Это связано с тем, что функция Розенброка имеет выраженный овражный характер. Рисунок 1 - Минимизация функции Розенброка
стандартным При небольшой размерности задачи N=1 генетический алгоритм находит дно оврага и выходит на приемлемое решение. При увеличении размерности до N=24 вероятность попадания в нужный овраг существенно уменьшается и итерационный процесс "замораживается". Градиентные методы при случайном выборе начального приближения в области также застревают в областях локальных минимумов. Данные результаты заставляют искать пути повышения эффективности генетических алгоритмов. Развитие генетических алгоритмов с целью
увеличения скорости сходимости ведется по пути создания новых разновидностей
операторов отбора, скрещивания и мутации. Разрабатываются методы распараллеливания
генетических ал-горитмов [3]. Интенсивно развиваются динамические генетические
алгоритмы, в которых в процессе итераций изменяются их параметры [4].
Как правило, введенные усовершенствования показывают улучшение эффективности
на тестовых за-дачах небольшой размерности. При увеличении N проблема
нахождения глобаль-ного экстремума овражных функций остается актуальной. В нашей работе исследуется гибридный алгоритм,
основанный на параллельной работе генетических операторов и какого-либо
градиентного метода. В популяции, созданной генетическим алгоритмом, выбирается
лучшая особь - ли-дер. Этот лидер обучается отдельно по градиентному методу.
Если его качественный показатель при этом лучше, чем у всех остальных
особей в популяции, то он вводится в популяцию и участвует в воспроизводстве
потомков. Если же появля-ется особь в популяции, полученная в результате
эволюции, с лучшим показателем, то лидером становится она. Исследование
предлагаемого гибридного алгоритма проводилось на основе двух видов генетических
алгоритмов (в бинарных и вещественных кодах) и трех типов градиентных
методов (метод наискорейшего спуска, метод сопряженных градиентов, квазиньютоновский
метод или метод переменной метрики). (3) и некоторые оптимизационные методы. 1. Стандартный генетический алгоритм с бинарным
кодированием (BGA). Преобразование - векторы целочисленного представления, двоичного представления и представления в коде Грея. Обратное преобразование Проводится эволюция популяции на итерации k=k+1 с использованием операторов отбора, скрещивания и мутации [1]. 2. Генетический алгоритм в вещественных
кодах (RGA). Оператор скрещивания имеет вид (один из рекомендованных в работе [2]): где - параметр кроссовера; - случайное число. Оператор мутации задает случайным образом значения . В результате проведенных экспериментов генетические
алгоритмы бинарного и вещественного кодирования показали примерно одинаковую
эффективность. С увеличением размерности задачи глобальный экстремум функции
Розенброка достигается не всегда. Для генетический
алгоритм вещественного кодирования начинает проигрывать алгоритму бинарного
кодирования. Бинарный алгоритм уверенно находит глобальный экстремум до
.
При больших значениях оптимальное решение находится не всегда. Алгоритм
вещественного кодирования при N=10 застревает в локальных экстремумах. 1. k=0. Формируется популяция, состоящая из
m особей
по BGA или RGA методу. Первый номер принимает особь
с лучшим показателем (минимальным значением функции (3)). С помощью
преобразования
получаем вектор
и .
2. Тестирование гибридного алгоритма Анализ градиентных методов показал, что наиболее предпочтительным
для использования в гибридном алгоритме является метод переменной метрики
(VM), имеющий более высокую скорость сходимости.
Рисунок 3 - Минимизация функции Розенброка
гибридным Далее гибридный алгоритм тестировался на функции Розенброка
большей размерности N=200. Зависимости функции и ошибок аргументов
представлены на рис. 3 от величины t в условных единицах, соответствующих
1 секунде работы процессора. Количество итераций при этом равно 207.
Рисунок 4 - Траектория проекции движения
представляющей точки, На рис. 4 показана проекция траектории движения представляющей точки к оптимуму. Проекция сделана на две координаты с максимальными отклонениями от точного решения. Худшие решения находятся далеко от оврага. Попадание в овраг осуществляется по генетическому алгоритму, а затем достаточно быстро определяются оптимальные значения этих переменных и положение глобального экстремума. Рисунок 5 - Минимизация функции Розенброка гибридными генетическими алгоритмами BGAVM и RGAVM, N=2000 На следующем этапе тестирования гибридного алгоритма минимизирова-лась функция Розенброка при N=2000. Задача поиска глобального экстремума функции большой размерности также успешно решена обоими методами BGAVM и RGAVM примерно за одинаковое время (рис. 5). Для метода BGAVM выполнено 620 итераций, для метода RGAVM - 1360. Следует отметить, что ни метод BGA, ни RGA, ни VM не позволили получить значения минимизируемой функции меньше 10000. Кроме функции Розенброка рассматривались другие функции, обычно применяемые при тестировании [2]: функция Растригина Результаты оптимизации функций приведены в табл. 1. Таблица 1 - Показатели сходимости на тестовых функциях, N=24
Рассмотренные функции удовлетворительно минимизируются стандартным генетическим алгоритмом. Хотя алгоритм BGAVM проводит оптимизацию рассмотренных функций значительно быстрее стандартных алгоритмов, эти функции менее показательны по сравнению с функцией Розенброка. На многомерной функции Розенброка глобальный оптимум достигается только методами BGAVM и RGAVM. В работе [6] показана эффективная работа гибридного алгоритма для решения широкого круга задач большой размерности: условной опти-мизации, решении систем нелинейных алгебраических уравнений и вариационных задач. 3. Гибридный алгоритм для обучения интеллектуальных моделей Рассмотрим возможность применения предложенного гибридного генетического алгоритма с градиентным обучением лидера в процедурах обучения интеллектуальных моделей. Рассмотрим возможность применения предложенного гибридного
генетического алгоритма с градиентным обучением лидера в процедурах обучения
интеллектуальных моделей. Сравним результаты обучения такой нейронной сети на примере двумерной тестовой функции Розенброка (1). Функция определена в области . Значения функции вычислены в узлах равномерной сетки , всего 441. Рассмотрим три метода обучения: простейший градиентный метод Back Propagation (BP); метод бинарного кодирования BGA; гибридный алгоритм BGAVM. Показателями качества обучения служат два параметра: среднеквадратичное отклонение и коэффициент корреляции r между . Полученные лучшие показатели обучения для всех трех методов приведены в табл. 2. Таблица 2.
Рисунок 6 - Сравнение рассчитанных и фактических
значений на тестовой Из рис. 6 следует, что методы BP и BGA плохо воспроизводят функцию в области оврага. Метод BGAVM (рис. 7) проводит обучение значительно лучше во всем диапазоне данных. Рисунок 7 - Сравнение рассчитанных и фактических
значений на тестовой Укажем основные направления применения гибридного ГА в обучении других интеллектуальных моделей. В радиальной нейронной сети [7] можно предложить минимизацию целевой функции . алгоритмом BGAVM или RGAVM относительно неизвестных: параметров радиальных функций и весовых коэффициентов . При этом возможны два варианта: 1. Расчет всех неизвестных коэффициентов на
каждой итерации; В нечеткой нейронной сети TSK [7] предлагаемый гибридный генетиче-ский алгоритм целесообразно использовать на этапе подбора параметров обоб-щенных гауссовских функций принадлежности. В этом случае градиент целевой функции будет рассчитываться по конечно-разностной формуле. Заключение 1. Применение гибридной схемы для генетического алгоритма,
основанной на дополнительном обучении квазиньютоновским методом лучшего
представите-ля популяции, дало эффект - "сумма больше составляющих
частей". В результате стало допустимым решение задач, невозможное
при использовании каждого метода в отдельности.
(с) 2004 Паклин
Н.Б., Тененев В.А., Сенилов М.А. ЛИТЕРАТУРА 1. Курейчик В.М. Генетические алгоритмы // Перспективные
информационные технологии и интеллектуальные системы. - 2000. - № 1.-
С.18-22. In the paper for optimization problems solving the hybrid algorithm combining standard genetic algorithms and gradient methods is offered. Feature of algorithm is that operation of gradient and genetic methods is realized in parallel mode. It allows finding a global optimum with high accuracy. The method is tested on ravine multiextremal functions of the high dimensionality without the initial approximation. Effective work of the hybrid algorithm in procedure of learning multilayer perceptron is shown. О других применениях гибридного ГА подробно написано в следующих статьях: Тененев В.А., Паклин Н.Б. Гибридный генетический алгоритм с дополнительным обучением лидера // Интеллектуальные системы в производстве. - 2003. - № 2. - Ижевск: Изд-во ИжГТУ, 2003. - С. 181-206. (в формате PDF) Тененев В.А., Паклин Н.Б. Оптимальное управление распределением средств товаропроизводителей // Системный анализ в проектировании и управлении: Труды VIII Междунар. науч.-практ. конф. - Ч. 1. - СПб.: Изд-во СПбГПУ, 2004. - С. 235-239. (в формате PDF)
|
||||||||||||
(c) 2003-2005
by Паклин Н.Б. / При использовании материалов ссылка обязательна
|