Популярно о генетических алгоритмах |
|
|
Исаев Сергей e-mail: sergey.isaev@mailcity.com
Web-site http://algolist.manual.ru/ai/ga/ga1.php
|
История появления эволюционных алгоритмов |
|
|
Природа поражает своей сложность и богатством всех своих
проявлений. Среди примеров можно назвать сложные социальные системы,
иммунные и нейронные системы, сложные взаимосвязи между видами. Они
- всего лишь некоторые из чудес, которые стали более очевидны, когда
мы стали глубже исследовать себя самих и мир вокруг нас. Наука - это
одна из сменяющих друг друга систем веры, которыми мы пытается
объяснять то, что наблюдаем, этим самым изменяя себя, чтобы
приспособиться к новой информации, получаемой из внешнего мира.
Многое из того, что мы видим и наблюдаем, можно объяснить единой
теорией: теорией эволюции через наследственность, изменчивость и
отбор.
Теория эволюции повлияла на изменение мировоззрения людей с
самого своего появления. Теория, которую Чарльз Дарвин представил в
работе, известной как "Происхождение Видов", в 1859 году, стала
началом этого изменения. Многие области научного знания в настоящее
время наслаждаются свободой мысли в атмосфере, которая многим
обязана революции, вызванной теорией эволюции и развития. Но Дарвин,
подобно многим своим современникам, кто предполагал, что в основе
развития лежит естественный отбор, не мог не ошибаться. Например, он
не смог показать механизм наследования, при котором поддерживается
изменчивость. Его гипотеза о пангенезисе оказалась неправильной. Это
было на пятьдесят лет до того, как теория наследственности начала
распространяться по миру, и за тридцать лет до того, как
"эволюционный синтез" укрепил связь между теорией эволюции и
относительно молодой наукой генетикой. Однако Дарвин выявил главный
механизм развития: отбор в сочетании с изменчивостью или, как он его
называл, "спуск с модификацией". Во многих случаях, специфические
особенности развития через изменчивость и отбор все еще не
бесспорны, однако, основные механизмы объясняют невероятно широкий
спектр явлений, наблюдаемых в Природе.
Поэтому неудивительно, что ученые, занимающиеся компьютерными
исследованиями, обратились к теории эволюции в поисках вдохновения.
Возможность того, что вычислительная система, наделенная простыми
механизмами изменчивости и отбора, могла бы функционировать по
аналогии с законами эволюции в природных системах, была очень
привлекательна. Эта надежда стала причиной появления ряда
вычислительных систем, построенных на принципах естественного
отбора.
История эволюционных вычислений началась с разработки ряда
различных независимых моделей. Основными из них были генетические
алгоритмы и классификационные системы Голланда (Holland),
опубликованные в начале 60-х годов и получившие всеобщее признание
после выхода в свет книги, ставшей классикой в этой области, -
"Адаптация в естественных и искусственных системах" ("Adaptation in
Natural and Artifical Systems", 1975). В 70-х годах в рамках теории
случайного поиска Растригиным Л.А. был предложен ряд
алгоритмов, использующих идей бионического поведения особей.
Развитие этих идей нашло отражение в цикле работ Букатовой И.Л.
по эволюционному моделированию. Развивая идеи Цетлина М.Л. о
целесообразном и оптимальном поведении стохастических автоматов,
Неймарк Ю.И. предложил осуществлять поиск глобального
экстремума на основе коллектива независимых автоматов, моделирующих
процессы развития и элиминации особей. Большой вклад в развитие
эволюционного программирования внесли Фогел (Fogel) и Уолш (Walsh).
Несмотря на разницу в подходах, каждая из этих "школ" взяла за
основу ряд принципов, существующих в природе, и упростила их до
такой степени, чтобы их можно было реализовать на компьютере.
Главная трудность с возможностью построения вычислительных
систем, основанных на принципах естественного отбора и применением
этих систем в прикладных задачах, состоит в том, что природные
системы достаточно хаотичны, а все наши действия, фактически, носят
четкую направленность. Мы используем компьютер как инструмент для
решения определенных задач, которые мы сами и формулируем, и мы
акцентируем внимание на максимально быстром выполнении при
минимальных затратах. Природные системы не имеют никаких таких целей
или ограничений, во всяком случае нам они не очевидны. Выживание в
природе не направлено к некоторой фиксированной цели, вместо этого
эволюция совершает шаг вперед в любом доступномее направлении.
Возможно это большое обобщение, но я полагаю, что усилия,
направленные на моделирование эволюции по аналогии с природными
системами, к настоящему времени можно разбить на две большие
категории: 1) системы, которые смоделированы на биологических
принципах. Они успешно использовались для задач типа функциональной
оптимизации и могут легко быть описаны на небиологическом языке, 2)
системы, которые являются биологически более реалистичными, но
которые не оказались особенно полезными в прикладном смысле. Они
больше похожи на биологические системы и менее направлены (или
ненаправлены вовсе). Они обладают сложным и интересным поведением,
и, видимо, вскоре получат практическое применение.
Конечно, на практике мы не можем разделять эти вещи так строго.
Эти категории - просто два полюса, между которыми лежат различные
вычислительные системы. Ближе к первому полюсу - эволюционные
алгоритмы, такие как Эволюционное Программирование (Evolutionary
Programming), Генетические Алгоритмы (Genetic Algorithms) и
Эволюционные Стратегии (Evolution Strategies). Ближе ко второму
полюсу - системы, которые могут быть классифицированы как
Искусственная Жизнь (Artificial Life).
Конечно, эволюция биологических систем не единственный "источник
вдохновения" создателей новых методов, моделирующих природные
процессы. Нейронные сети (neural networks), например, основаны на
моделировании поведения нейронов в мозге. Они могут использоваться
для ряда задач классификации, например, задачи распознавания
образов, машинного обучения, обработки изображений и др. Область их
приложения частично перекрывается со сферой применения ГА.
Моделируемый отжиг (simulated annealing) - другая методика поиска,
которая основана скорее на физических, а не биологических процессах.
К
началу документа
|
Генетические Алгоритмы |
|
|
Генетические Алгоритмы - адаптивные методы поиска, которые в
последнее время часто используются для решения задач функциональной
оптимизации. Они основаны на генетических процессах биологических
организмов: биологические популяции развиваются в течении нескольких
поколений, подчиняясь законам естественного отбора и по принципу
"выживает наиболее приспособленный" (survival of the fittest),
открытому Чарльзом Дарвином. Подражая этому процессу генетические
алгоритмы способны "развивать" решения реальных задач, если те
соответствующим образом закодированы. Например, ГА могут
использоваться, чтобы проектировать структуры моста, для поиска
максимального отношения прочности/веса, или определять наименее
расточительное размещение для нарезки форм из ткани. Они могут также
использоваться для интерактивного управления процессом, например на
химическом заводе, или балансировании загрузки на многопроцессорном
компьютере. Вполне реальный пример: израильская компания Schema
разработала программный продукт Channeling для оптимизации работы
сотовой связи путем выбора оптимальной частоты, на которой будет
вестись разговор. В основе этого программного продукта и
используются генетические алгоритмы.
Основные принципы ГА были сформулированы Голландом (Holland,
1975), и хорошо описаны во многих работах. В отличии от эволюции,
происходящей в природе, ГА только моделируют те процессы в
популяциях, которые являются существенными для развития. Точный
ответ на вопрос: какие биологические процессы существенны для
развития, и какие нет? - все еще открыт для исследователей.
В природе особи в популяции конкурируют друг с другом за
различные ресурсы, такие, например, как пища или вода. Кроме того,
члены популяции одного вида часто конкурируют за привлечение
брачного партнера. Те особи, которые наиболее приспособлены к
окружающим условиям, будут иметь относительно больше шансов
воспроизвести потомков. Слабо приспособленные особи либо совсем не
произведут потомства, либо их потомство будет очень
немногочисленным. Это означает, что гены от высоко адаптированных
или приспособленных особей будут распространятся в увеличивающемся
количестве потомков на каждом последующем поколении. Комбинация
хороших характеристик от различных родителей иногда может приводить
к появлению "суперприспособленного" потомка, чья приспособленность
больше, чем приспособленность любого из его родителя. Таким образом,
вид развивается, лучше и лучше приспосабливаясь к среде обитания.
ГА используют прямую аналогию с таким механизмом. Они работают с
совокупностью "особей" - популяцией, каждая из которых представляет
возможное решение данной проблемы. Каждая особь оценивается мерой ее
"приспособленности" согласно тому, насколько "хорошо"
соответствующее ей решение задачи. Например, мерой приспособленности
могло бы быть отношение силы/веса для данного проекта моста. (В
природе это эквивалентно оценке того, насколько эффективен организм
при конкуренции за ресурсы.) Наиболее приспособленные особи получают
возможность "воспроизводит" потомство с помощью "перекрестного
скрещивания" с другими особями популяции. Это приводит к появлению
новых особей, которые сочетают в себе некоторые характеристики,
наследуемые ими от родителей. Наименее приспособленные особи с
меньшей вероятностью смогут воспроизвести потомков, так что те
свойства, которыми они обладали, будут постепенно исчезать из
популяции в процессе эволюции.
Так и воспроизводится вся новая популяция допустимых решений,
выбирая лучших представителей предыдущего поколения, скрещивая их и
получая множество новых особей. Это новое поколение содержит более
высокое соотношение характеристик, которыми обладают хорошие члены
предыдущего поколения. Таким образом, из поколения в поколение,
хорошие характеристики распространяются по всей популяции.
Скрещивание наиболее приспособленных особей приводит к тому, что
исследуются наиболее перспективные участки пространства поиска. В
конечном итоге, популяция будет сходиться к оптимальному решению
задачи.
Имеются много способов реализации идеи биологической эволюции в
рамках ГА. Традиционным считается ГА, представленный на схеме.
НАЧАЛО /* генетический алгоритм */
Создать начальную популяцию
Оценить приспособленность каждой особи
останов := FALSE
ПОКА НЕ останов ВЫПОЛНЯТЬ
НАЧАЛО /* создать популяцию нового поколения */
ПОВТОРИТЬ (размер_популяции/2) РАЗ
НАЧАЛО /* цикл воспроизводства */
Выбрать две особи с высокой приспособленностью из предыдущего
поколения для скрещивания
Скрестить выбранные особи и получить двух потомков
Оценить приспособленности потомков
Поместить потомков в новое поколение
КОНЕЦ
ЕСЛИ популяция сошлась ТО останов := TRUE
КОНЕЦ
КОНЕЦ
В последние годы, реализовано много генетических алгоритмов и в
большинстве случаев они мало похожи на этот ГА. По этой причине в
настоящее время под термином "генетические алгоритмы" скрывается не
одна модель, а достаточно широкий класс алгоритмов, подчас мало
похожих друг от друга. Исследователи экспериментировали с различными
типами представлений, операторов кроссовера и мутации, специальных
операторов, и различных подходов к воспроизводству и отбору.
Хотя модель эволюционного развития, применяемая в ГА, сильно
упрощена по сравнению со своим природным аналогом, тем не менее ГА
является достаточно мощным средством и может с успехом применяться
для широкого класса прикладных задач, включая те, которые трудно, а
иногда и вовсе невозможно, решить другими методам. Однако, ГА, как и
другие методы эволюционных вычислений, не гарантирует обнаружения
глобального решения за полиномиальное время. ГА-мы не гарантируют и
того, что глобальное решение будет найдено, но они хороши для поиска
"достаточно хорошего" решения задачи "достаточно быстро". Там, где
задача может быть решена специальными методам, почти всегда такие
методы будут эффективнее ГА и в быстродействии и в точность
найденных решений. Главным же преимуществом ГА-мов является то, что
они могут применяться даже на сложных задачах, там, где не
существует никаких специальных методов. Даже там, где хорошо работаю
существующие методики, можно достигнуть улучшения сочетанием их с
ГА.
К
началу документа
|
Когда следует применять генетический алгоритм? |
|
|
Генетические алгоритмы в различных формах применились ко многим
научным и техническим проблемам. Генетические алгоритмы
использовались при создании других вычислительных структур,
например, автоматов или сетей сортировки. В машинном обучении они
использовались при проектировании нейронных сетей или управлении
роботами. Они также применялись при моделировании развития в
различных предметных областях, включая биологические (экология,
иммунология и популяционная генетика), социальный (такие как
экономика и политические системы) и когнитивные системы.
Тем не менее, возможно наиболее популярное приложение
генетических алгоритмов - оптимизация многопараметрических функций.
Многие реальные задачи могут быть сформулированы как поиск
оптимального значения, где значение - сложная функция, зависящая от
некоторых входных параметров. В некоторых случаях, представляет
интерес найти те значения параметров, при которых достигается
наилучшее точное значение функции. В других случаях, точный оптимум
не требуется - решением может считаться любое значение, которое
лучше некоторой заданное величины. В этом случае, генетические
алгоритмы - часто наиболее приемлемый метод для поиска "хороших"
значений. Сила генетического алгоритма заключена в его способности
манипулировать одновременно многими параметрами, эта особенность ГА
использовалось в сотнях прикладных программ, включая проектирование
самолетов, настройку параметров алгоритмов и поиску устойчивых
состояний систем нелинейных дифференциальных уравнений.
Однако нередки случаи, когда ГА работает не так эффективно, как
ожидалось.
Предположим есть реальная задача, сопряженная с поиском
оптимального решения, как узнать, является ли ГА хорошим методом для
ее решения? До настоящего времени не существует строгого ответа,
однако многие исследователи разделяют предположения, что если
пространство поиска, которое предстоит исследовать, - большое, и
предполагается, что оно не совершенно гладкое и унимодальное (т.е.
содержит один гладкий экстремум) или не очень понятно, или если
функция приспособленности с шумами, или если задача не требует
строго нахождения глобального оптимума - т.е. если достаточно быстро
просто найти приемлемое "хорошее" решения (что довольно часто имеет
место в реальных задачах) - ГА будет иметь хорошие шансы стать
эффективной процедурой поиска, конкурируя и превосходя другие
методы, которые не используют знания о пространстве поиска.
Если же пространство поиска небольшое, то решение может быть
найдено методом полного перебора, и можно быть уверенным, что
наилучшее возможное решение найдено, тогда как ГА мог с большей
вероятностью сойтись к локальному оптимуму, а не к глобально лучшему
решению. Если пространство гладкое и унимодальное любой градиентный
алгоритм, такой как, метод скорейшего спуска будет более эффективен,
чем ГА. Если о пространстве поиска есть некоторая дополнительная
информация (как, например, пространство для хорошо известной задачи
о коммивояжере), методы поиска, использующие эвристики, определяемые
пространством, часто превосходят любой универсальный метод, каким
является ГА. При достаточно сложном рельефе функции
приспособленности методы поиска с единственным решением в каждый
момент времени, такой как простой метод спуска, могли "затыкаться" в
локальном решении, однако считается, что ГА, так как они работают с
целой "популяцией" решений, имеют меньше шансов сойтись к локальному
оптимуму и робастно функционируют на многоэкстремальном ландшафте.
Конечно, такие предположения не предсказывают строго, когда ГА
будет эффективной процедурой поиска, конкурирующей с другими
процедурами. Эффективность ГА сильно зависит от таких деталей, как
метод кодировки решений, операторы, настройки параметров, частный
критерий успеха. Теоретическая работа, отраженная в литературе,
посвященной Гамам, не дает оснований говорить о выработки каких-либо
строгих механизмов для четких предсказаний.
К
началу документа
|
Символьная модель простого ГА |
|
|
Цель в оптимизации с помощью ГА состоит в том, чтобы найти лучшее
возможное решение или решения задачи по одному или нескольким
критериям. Чтобы реализовать генетический алгоритм нужно сначала
выбрать подходящую структуру для представления этих решений. В
постановке задачи поиска, экземпляр этой структуры данных
представляет точку в пространстве поиска всех возможных решений.
Структура данных генетического алгоритма состоит из одной или
большее количество хромосом (обычно из одной). Как правило,
хромосома - это битовая строка, так что термин строка часто заменяет
понятие "хромосома". В принципе, ГА не ограничены бинарным
представление. Известны другие реализации, построенные исключительно
на векторах вещественных чисел (L. Davis, 1991b; Eshelman и
Schaffer, 1993; Goldberg, 1991a, 1991b). Несмотря на то, что для
многих реальных задач, видимо, больше подходят строки переменной
длины, в настоящее время структуры фиксированной длины наиболее
распространены и изучены. Пока и мы ограничимся только структурам,
которые являются одиночными строками по l бит.
Каждая хромосома (строка) представляет собой конкатенацию ряда
подкомпонентов называемых генами. Гены располагаются в различных
позициях или локусах хромосомы, и принимают значения, называемые
аллелями. В представлениях с бинарными строками, ген - бит, локус -
его позиция в строке, и аллель - его значение (0 или 1).
Биологический термин "генотип" относится к полной генетической
модели особи и соответствует структуре в ГА. Термин "фенотип"
относится к внешним наблюдаемым признакам и соответствует вектору в
пространстве параметров. Чрезвычайно простой, но иллюстративный
пример - задача максимизации следующей функции двух переменных:
f (x1, x2) =
exp(x1x2), где 0 < x1< 1 и 0
< x2 < 1.
Обычно, методика кодирования реальных переменных x1 и
x2 состоит в их преобразовании в двоичные целочисленные
строки достаточной длины - достаточной для того, чтобы обеспечить
желаемую точность. Предположим, что 10-разрядное кодирование
достаточно и для x1, и x2. Установить
соответствие между генотипом и фенотипом закодированных особей
можно, разделив соответствующее двоичное целое число - на
210-1. Например, 0000000000 соответствует 0/1023 или 0,
тогда как 1111111111 соответствует 1023/1023 или 1. Оптимизируемая
структура данных - 20-битная строка, представляющая конкатенацию
кодировок x1 и x2. Переменная x1
размещается в крайних левых 10-разрядах, тогда как x2
размещается в правой части генотипа особи (20-битовой строке).
Генотип - точка в 20-мерном хеммининговом пространстве, исследуемом
ГА. Фенотип - точка в двумерном пространстве параметров.
Чтобы оптимизировать структуру, используя ГА, нужно задать
некоторую меру качества для каждой структуры в пространстве поиска.
Для этой цели используется функция приспособленности. В
функциональной максимизации, целевая функция часто сама выступает в
качестве функции приспособленности (например наш двумерный пример);
для задач минимизации, целевую функцию следует инвертировать и
сместить затем в область положительных значений.
К
началу документа
|
Работа простого ГА |
|
|
Простой ГА случайным образом генерирует начальную популяцию
структур. Работа ГА представляет собой итерационный процесс, который
продолжается до тех пор, пока не выполнятся заданное число поколений
или какой-либо иной критерий остановки. На каждом поколении ГА
реализуется отбор пропорционально приспособленности, одноточечный
кроссовер и мутация. Сначала, пропорциональный отбор назначает
каждой структуре вероятность Ps(i) равную отношению ее
приспособленности к суммарной приспособленности популяции.
Затем происходит отбор (с замещением) всех n особей для
дальнейшей генетической обработки, согласно величине Ps(i).
Простейший пропорциональный отбор - рулетка (roulette-wheel
selection, Goldberg, 1989c) - отбирает особей с помощью n
"запусков" рулетки. Колесо рулетки содержит по одному сектору для
каждого члена популяции. Размер i-ого сектора пропорционален
соответствующей величине Ps(i). При таком отборе члены популяции с
более высокой приспособленностью с большей вероятность будут чаще
выбираться, чем особи с низкой приспособленностью.
После отбора, n выбранных особей подвергаются кроссоверу
(иногда называемому рекомбинацией) с заданной вероятностью Pc.
n строк случайным образом разбиваются на n/2 пары. Для
каждой пары с вероятность Pc может применяться кроссовер.
Соответственно с вероятностью 1-Pc кроссовер не происходит и
неизмененные особи переходят на стадию мутации. Если кроссовер
происходит, полученные потомки заменяют собой родителей и переходят
к мутации.
Одноточечный кроссовер работает следующим образом. Сначала,
случайным образом выбирается одна из l-1 точек разрыва.
(Точка разрыва - участок между соседними битами в строке.) Обе
родительские структуры разрываются на два сегмента по этой точке.
Затем, соответствующие сегменты различных родителей склеиваются и
получаются два генотипа потомков.
Например, предположим, один родитель состоит из 10 нолей, а
другой - из 10 единиц. Пусть из 9 возможных точек разрыва выбрана
точка 3. Родители и их потомки показаны ниже.
Кроссовер |
Родитель 1 |
0000000000 |
000~0000000 |
--> |
111~0000000 |
1110000000 |
Потомок 1 |
Родитель 2 |
1111111111 |
111~1111111 |
--> |
000~1111111 |
0001111111 |
Потомок 2 |
После того, как закончится стадия кроссовера, выполняются
операторы мутации. В каждой строке, которая подвергается мутации,
каждый бит с вероятностью Pm изменяется на противоположный.
Популяция, полученная после мутации записывает поверх старой и этим
цикл одного поколения завершается. Последующие поколения
обрабатываются таким же образом: отбор, кроссовер и мутация.
В настоящее время исследователи ГА предлагают много других
операторов отбора, кроссовера и мутации. Вот лишь наиболее
распространенные из них. Прежде всего, турнирный отбор (Brindle,
1981; Goldberg и Deb, 1991). Турнирный отбор реализует n
турниров, чтобы выбрать n особей. Каждый турнир построен на
выборке k элементов из популяции, и выбора лучшей особи среди
них. Наиболее распространен турнирный отбор с k=2.
Элитные методы отбора (De Jong, 1975) гарантируют, что при отборе
обязательно будут выживать лучший или лучшие члены популяции
совокупности. Наиболее распространена процедура обязательного
сохранения только одной лучшей особи, если она не прошла как другие
через процесс отбора, кроссовера и мутации. Элитизм может быть
внедрен практически в любой стандартный метод отбора.
Двухточечный кроссовер (Cavicchio, 1970; Goldberg, 1989c) и
равномерный кроссовер (Syswerda, 1989) - вполне достойные
альтернативы одноточечному оператору. В двухточечной кроссовере
выбираются две точки разрыва, и родительские хромосомы обмениваются
сегментом, который находится между двумя этими точками. В
равномерном кроссовере, каждый бит первого родителя наследуется
первым потомком с заданной вероятностью; в противном случае этот бит
передается второму потомку. И наоборот.
К
началу документа
|
Шима (schema) |
|
|
Хотя внешне кажется, что ГА обрабатывает строки, на самом деле
при этом неявно происходит обработка шим, которые представляют
шаблоны подобия между строками (Goldberg, 1989c; Голланд, 1992). ГА
практически не может заниматься полным перебором всех точек в
пространстве поиска. Однако он может производить выборку
значительного числа гиперплоскостей в областях поиска с высокой
приспособленностью. Каждая такая гиперплоскость соответствует
множеству похожих строк с высокой приспособленностью.
Шима - это строка длины l (что и длина любой строки
популяции), состоящая из знаков алфавита {0; 1; *}, где
{*} - неопределенный символ. Каждая шима определяет множество всех
бинарных строк длины l, имеющих в соответствующих позициях
либо 0, либо 1, в зависимости от того, какой бит находится в
соответствующей позиции самой шимы.. Например, шима, 10**1,
определяет собой множество из четырех пятибитовых строк {10001;
10011; 10101; 10111}. У шим выделяют два свойства - порядок и
определенная длина. Порядок шимы - это число определенных битов ("0"
или "1") в шиме. Определенная длина - расстояние между крайними
определенными битами в шиме. Например, вышеупомянутая шима имеет
порядок o(10**1) = 3, а определенная длина d(10**1) = 4. Каждая строка в популяции является
примером 2l шим.
К
началу документа
|
Строящие блоки |
|
|
Строящие блоки (Goldberg, 1989c) - это шимы обладающие:
- высокой приспособленностью,
- низким порядком,
- короткой определенной длиной.
Приспособленность шимы определяется как среднее
приспособленностей примеров, которые ее содержат.
После процедуры отбора остаются только строки с более высокой
приспособленностью. Следовательно строки, которые являются примерами
шим с высокой приспособленностью, выбираются чаще. Кроссовер реже
разрушает шимы с более короткой определенной длиной, а мутация реже
разрушает шимы с низким порядком. Поэтому, такие шимы имеют больше
шансов переходить из поколения в поколение. Голланд (1992) показал,
что, в то время как ГА явным образом обрабатывает n строк на
каждом поколении, в тоже время неявно обрабатываются порядка
n3 таких коротких шим низкого порядка и с высокой
приспособленностью (полезных шим, "useful schemata"). Он называл это
явление неявным параллелизмом. Для решения реальных задач,
присутствие неявного параллелизма означает, что большая популяция
имеет больше возможностей локализовать решение экспоненциально
быстрее популяции с меньшим числом особей.
К
началу документа
|
Теорема шим |
|
|
Простой ГА экспоненциально увеличивает число примеров полезных
шим или строящих блоков. Доказательством этого служит следующая
теорема, известная как "теорема шим".
Пусть m(H,t) - число примеров шимы H в t-ом поколении. Вычислим
ожидаемое число примеров H в следующем поколении или m(H,t+1) в
терминах m(H,t). Простой ГА каждой строке ставит в соответствие
вероятность ее "выживания" при отборе пропорционально ее
приспособленности. Ожидается, что шима H может быть выбрана
m(H,t)Ч (f(H)/fср.) раз, где
fср. - средняя приспособленность популяции, а f(H) -
средняя приспособленность тех строк в популяции, которые являются
примерами H.
Вероятность того, что одноточечный кроссовер разрушит шиму равна
вероятности того, что точка разрыва попадет между определенными
битами. Вероятность же того, что H "переживает" кроссовер не меньше
1-Pc_ (d(H)/l-1). Эта вероятность - неравенство,
поскольку шима сможет выжить если в кроссовере участвовал также
пример похожей шимы. Вероятность того, что H переживет мутацию -
(1-Pm)o(H), это выражение можно аппроксимировать как
(1-o(H)) для малого Pm и o(H). Произведение ожидаемого число отборов
и вероятностей выживания известно как теорема шим:
m (H, t+1)
Теорема шим показывает, что строящие блоки растут по экспоненте,
в то время шимы с приспособленностью ниже средней распадаются с той
же скоростью.
Goldberg (1983, 1989c), в своих исследованиях теоремы шим,
выдвигает гипотезу строящих блоков, которая состоит в том, что
"строящие блоки объединяются, чтобы сформировать лучшие строки". То
есть рекомбинация и экспоненциальный рост строящих блоков ведет к
формированию лучших строящих блоков.
В то время как теорема шим предсказывает рост примеров хороших
шим, сама теорема весьма упрощенно описывает поведение ГА. Прежде
всего, f(H) и fср. не остаются постоянными от
поколения к поколению. Приспособленности членов популяции
знаменательно изменяются уже после нескольких первых поколений.
Во-вторых, теорема шим объясняет потери шим, но не появление новых.
Новые шимы часто создаются кроссовером и мутацией. Кроме того, по
мере эволюции, члены популяции становятся все более и более похожими
друг на друга так, что разрушенные шимы будут сразу же
восстановлены. Наконец, доказательство теоремы шим построено на
элементах теории вероятности и следовательно не учитывает разброс
значений, в многих интересных задачах, разброс значений
приспособленности шимы может быть достаточно велик, делая процесс
формирования шим очень сложным (Goldberg и Rudnick, 1991; Rudnick и
Goldberg, 1991). Существенная разница приспособленности шимы может
привести к сходимости к неоптимальному решению.
Несмотря на простоту, теорема шим описывает несколько важных
аспектов поведения ГА. Мутации с большей вероятностью разрушают шимы
высокого порядка, в то время как кроссовера с большей вероятность
разрушают шимы с большей определенной длиной. Когда происходит
отбор, популяция сходится пропорционально отношению
приспособленности лучшей особи, к средней приспособленности в
популяции; это отношение - мера давления отбора ("selection
pressure", Back, 1994). Увеличение или Pc, или Pм., или уменьшении
давления отбора, ведет к увеличенному осуществлению выборки или
исследованию пространства поиска, но не позволяет использовать все
хорошие шимы, которыми располагает ГА. Уменьшение или Pc, или Pм.,
или увеличение давления выбора, ведет к улучшению использования
найденных шим, но тормозит исследование пространства в поисках новых
хороших шим. ГА должен поддержать тонкое равновесие между тем и
другим, что обычно известно как проблема "баланса исследования и
использования".
Некоторые исследователи критиковали обычно быструю сходимость ГА,
заявляя, что испытание огромных количеств перекрывающихся шим
требует большей выборки и более медленной, более управляемой
сходимости. В то время как увеличить выборку шим можно увеличив
размер популяции (Goldberg, Deb, и Clark, 1992; Mahfoud и Goldberg,
1995), методология управления сходимость простого ГА до сих пор не
выработана.
|
| Все права принадлежат их владельцам |
|