Меметические алгоритмы представляют собой одну из недавних растущих областей исследований в области эволюционных вычислений . Термин MA в настоящее время широко используется как синергия эволюционного или любого популяционного подхода с отдельными индивидуальными процедурами обучения или локального улучшения для поиска проблем. Довольно часто MA также упоминаются в литературе как эволюционные алгоритмы Болдуина, ламарковские EA, культурные алгоритмы или генетический локальный поиск.
Введение
Вдохновленный как дарвиновскими принципами естественной эволюции, так и понятием мема Докинза , термин меметический алгоритм (МА) был введен Пабло Москато в его техническом отчете [1] в 1989 году, где он рассматривал МА как нечто близкое к форме гибридного генетического алгоритма (ГА) на основе популяции в сочетании с индивидуальной процедурой обучения, способной выполнять локальные уточнения. Метафорические параллели, с одной стороны, с дарвиновской эволюцией и, с другой стороны, между мемами и эвристикой, специфичной для домена (локальный поиск) , улавливаются в меметических алгоритмах, таким образом представляя методологию, которая хорошо балансирует между общностью и специфичностью проблемы. Эта двухэтапная природа делает их особым случаем двухфазной эволюции .
В контексте сложной оптимизации было отмечено множество различных реализаций меметических алгоритмов в широком спектре областей применения, которые в целом приводят к высококачественным решениям более эффективно, чем их традиционные эволюционные аналоги. [2]
В целом, использование идей меметики в рамках вычислительной структуры называется меметическими вычислениями или меметическими вычислениями (MC). [3] [4] С помощью MC черты универсального дарвинизма улавливаются более адекватно. Рассматриваемый в этой перспективе, MA является более ограниченным понятием MC. Более конкретно, MA охватывает одну область MC, в частности, имея дело с областями эволюционных алгоритмов, которые объединяют другие детерминированные методы уточнения для решения задач оптимизации. MC расширяет понятие мемов, чтобы охватить концептуальные сущности процедур или представлений, улучшенных знаниями.
Теоретическая основа
Теоремы оптимизации и поиска о невозможности бесплатного обеда [5] [6] утверждают, что все стратегии оптимизации одинаково эффективны по отношению к множеству всех задач оптимизации. Наоборот, это означает, что можно ожидать следующего: чем эффективнее алгоритм решает задачу или класс задач, тем менее он общий и тем больше проблемно-специфичных знаний он строит. Это понимание напрямую приводит к рекомендации дополнять общеприменимую метаэвристику методами или эвристиками, специфичными для приложений, [7], что хорошо соответствует концепции MA.
Развитие МА
1-е поколение
Пабло Москато охарактеризовал MA следующим образом: « Меметические алгоритмы представляют собой союз глобального поиска на основе популяции и эвристического локального поиска, выполняемого каждым из индивидуумов. ... Механизмы для локального поиска могут заключаться в достижении локального оптимума или улучшении (относительно целевой функции стоимости) до предопределенного уровня ». И он подчеркивает: « Я не ограничиваю MA генетическим представлением ». [8] Это первоначальное определение MA, хотя и охватывает характеристики культурной эволюции (в форме локального уточнения) в цикле поиска, может не подпадать под определение истинно развивающейся системы согласно универсальному дарвинизму , поскольку отсутствуют все основные принципы наследования/меметической передачи, изменчивости и отбора. Это объясняет, почему термин MA вызвал критику и споры среди исследователей, когда был впервые введен. [1] Следующий псевдокод будет соответствовать этому общему определению MA:
Псевдокод
Процедура Меметический алгоритм Инициализация: Сгенерировать начальную популяцию, оценить особей и назначить им значение качества; пока Условия остановки не выполнены сделать Развить новую популяцию с помощью операторов стохастического поиска. Оценить всех особей в популяции и назначить им значение качества. Выбрать подмножество особей, , которые должны пройти процедуру индивидуального улучшения. для каждой особи в сделать Выполнить индивидуальное обучение с использованием мема(ов) с частотой или вероятностью , с интенсивностью . Продолжить обучение по Ламарку или Болдуину. конец для конец пока
Ламарковское обучение в этом контексте означает обновление хромосомы в соответствии с улучшенным решением, найденным на индивидуальном этапе обучения, в то время как Болдуиновское обучение оставляет хромосому неизменной и использует только улучшенную приспособленность . Этот псевдокод оставляет открытым вопрос о том, какие шаги основаны на приспособленности особей, а какие нет. Под вопросом находятся эволюция новой популяции и выбор .
Поскольку большинство реализаций MA основано на EA, псевдокод соответствующего представителя первого поколения также приведен здесь, следуя Красногору: [9]
Псевдокод
Процедура меметического алгоритма на основе инициализации EA : ; // Инициализация счетчика поколений Случайным образом сгенерировать начальную популяцию ; Вычислить приспособленность ; пока условия остановки не выполнены, выполнить выбор: соответственно выбрать подмножество и сохранить его в ; Потомство: рекомбинировать и мутировать особей и сохранить их в ; Обучение: улучшить с помощью локального поиска или эвристики ; Оценка: вычислить приспособленность ; если ламарковское обучение , то обновить хромосому в соответствии с улучшением ; fi Новое поколение: создать , выбрав несколько особей из и ; ; // Увеличить счетчик поколений end while Вернуть лучшую особь как результат;
Есть несколько альтернатив этой схеме MA. Например:
Все или некоторые из исходных особей могут быть улучшены мемом(ами).
Локальному улучшению могут подвергаться родители, а не потомки.
Вместо всего потомства локальное улучшение может быть получено только случайно выбранной или зависящей от приспособленности фракцией. Последнее требует оценки потомства до этапа обучения .
2-е поколение
Мультимемные, [10] гиперэвристические [11] [12] и металамарковские МА [13] [14] называются МА второго поколения, демонстрирующими принципы меметической передачи и отбора в своей конструкции. В мультимемных МА меметический материал кодируется как часть генотипа . Впоследствии декодированный мем каждой соответствующей особи/ хромосомы затем используется для выполнения локального уточнения. Затем меметический материал передается через простой механизм наследования от родителя к потомкам. С другой стороны, в гиперэвристических и металамарковских МА пул рассматриваемых мемов-кандидатов будет конкурировать на основе их прошлых заслуг в создании локальных улучшений с помощью механизма вознаграждения, решая, какой мем будет выбран для будущих локальных улучшений. Мемы с более высоким вознаграждением имеют больше шансов на продолжение использования. Для обзора МА второго поколения; т. е. МА, учитывающего множественные индивидуальные методы обучения в эволюционной системе, отсылаем читателя к [15] .
3-е поколение
Коэволюция [16] и самогенерирующиеся MA [17] могут рассматриваться как MA 3-го поколения, где были рассмотрены все три принципа, удовлетворяющие определениям базовой эволюционирующей системы. В отличие от MA 2-го поколения, которая предполагает, что мемы, которые будут использоваться, известны априори, MA 3-го поколения использует локальный поиск на основе правил для дополнения возможных решений в эволюционной системе, таким образом захватывая регулярно повторяющиеся особенности или шаблоны в проблемном пространстве.
Некоторые замечания по дизайну
Используемый метод обучения/мем оказывает значительное влияние на результаты улучшения, поэтому необходимо проявлять осторожность при принятии решения о том, какой мем или мемы использовать для конкретной задачи оптимизации. [11] [15] [18] Частота и интенсивность индивидуального обучения напрямую определяют степень эволюции (исследования) по сравнению с индивидуальным обучением (эксплуатацией) в поиске MA для заданного фиксированного ограниченного вычислительного бюджета. Очевидно, что более интенсивное индивидуальное обучение обеспечивает большую вероятность сходимости к локальным оптимумам, но ограничивает объем эволюции, который может быть израсходован без привлечения чрезмерных вычислительных ресурсов. Поэтому следует проявлять осторожность при установке этих двух параметров, чтобы сбалансировать вычислительный бюджет, доступный для достижения максимальной производительности поиска. Когда только часть особей популяции проходит обучение, необходимо рассмотреть вопрос о том, какое подмножество особей следует улучшить, чтобы максимизировать полезность поиска MA. И последнее, но не менее важное: необходимо решить, следует ли изменить соответствующую особь в результате успеха обучения (ламарковское обучение) или нет (болдуиновское обучение). Таким образом, необходимо ответить на следующие пять вопросов дизайна [14] [18] [19] , первый из которых рассматривается всеми указанными выше представителями 2-го поколения во время выполнения MA, в то время как расширенная форма металамарковского обучения [14] расширяет это до первых четырех проектных решений.
Выбор индивидуального метода обучения или мема, который будет использоваться для решения конкретной проблемы или для конкретного человека
В контексте непрерывной оптимизации индивидуальное обучение существует в форме локальной эвристики или обычных точных перечислительных методов. [20] Примерами индивидуальных стратегий обучения являются восхождение на холм , симплексный метод, метод Ньютона/квазиньютона, методы внутренних точек , метод сопряженных градиентов , линейный поиск и другие локальные эвристики. Обратите внимание, что большинство общих индивидуальных методов обучения являются детерминированными.
С другой стороны, в комбинаторной оптимизации индивидуальные методы обучения обычно существуют в форме эвристик (которые могут быть детерминированными или стохастическими), которые адаптированы к конкретной проблеме интереса. Типичные эвристические процедуры и схемы включают обмен k-генами, обмен ребрами, первое улучшение и многие другие.
Определение индивидуальной частоты обучения
Одним из первых вопросов, относящихся к проектированию меметических алгоритмов, является рассмотрение того, как часто должно применяться индивидуальное обучение; т. е. индивидуальная частота обучения. В одном случае [18] рассматривалось влияние индивидуальной частоты обучения на производительность поиска MA, где исследовались различные конфигурации индивидуальной частоты обучения на разных этапах поиска MA. Напротив, в другом месте [21] было показано , что может быть целесообразно применять индивидуальное обучение к каждому индивидууму, если вычислительная сложность индивидуального обучения относительно низкая.
Выбор лиц, к которым применяется индивидуальное обучение
В вопросе выбора подходящих особей среди популяции EA, которые должны пройти индивидуальное обучение, были изучены стратегии, основанные на приспособленности и распределении, для адаптации вероятности применения индивидуального обучения к популяции хромосом в задачах непрерывного параметрического поиска с Лэндом [22], расширившим работу до задач комбинаторной оптимизации . Бамбха и др. представили метод имитируемого нагрева для систематической интеграции параметризованного индивидуального обучения в эволюционные алгоритмы для достижения максимального качества решения. [23]
Уточнение интенсивности индивидуального обучения
Интенсивность индивидуального обучения, , представляет собой объем вычислительного бюджета, выделенного на итерацию индивидуального обучения; т. е. максимальный вычислительный бюджет, допустимый для индивидуального обучения, который можно потратить на улучшение одного решения.
Выбор ламаркистского или болдуиновского обучения
Необходимо решить, будет ли найденное улучшение работать только за счет лучшей приспособленности (обучение Болдуина) или же индивидуум также будет соответствующим образом адаптирован (обучение Ламарка). В случае ЭА это будет означать корректировку генотипа. Этот вопрос был предметом спорного обсуждения для ЭА в литературе еще в 1990-х годах, где утверждалось, что конкретный вариант использования играет важную роль. [24] [25] [26] Предыстория дебатов заключается в том, что адаптация генома может способствовать преждевременной конвергенции . Этот риск можно эффективно снизить другими мерами для лучшего баланса широты и глубины поиска, такими как использование структурированных популяций . [14]
Приложения
Меметические алгоритмы были успешно применены к множеству реальных проблем. Хотя многие люди используют методы, тесно связанные с меметическими алгоритмами, также используются альтернативные названия, такие как гибридные генетические алгоритмы .
Последние события в области меметических алгоритмов
Семинар IEEE по меметическим алгоритмам (WOMA 2009). Руководители программы: Джим Смит, Университет Западной Англии, Великобритания; Ю-Сун Онг, Наньянский технологический университет, Сингапур; Густафсон Стивен, Ноттингемский университет, Великобритания; Мэн Хиот Лим, Наньянский технологический университет, Сингапур; Наталио Красногор, Ноттингемский университет, Великобритания
Журнал Memetic Computing Journal, первый выпуск вышел в январе 2009 года.
2008 Всемирный конгресс IEEE по вычислительному интеллекту (WCCI 2008), Гонконг, Специальная сессия по меметическим алгоритмам.
Специальный выпуск «Новые тенденции в мягких вычислениях — меметический алгоритм». Архивировано 27 сентября 2011 г. в Wayback Machine , журнал «Soft Computing Journal», завершено и находится в печати, 2008 г.
Рабочая группа по новым технологиям Общества вычислительного интеллекта IEEE по меметическим вычислениям. Архивировано 27 сентября 2011 г. на Wayback Machine
Конгресс IEEE по эволюционным вычислениям (CEC 2007), Сингапур, Специальная сессия по меметическим алгоритмам.
«Меметические вычисления» в Essential Science Indicators компании Thomson Scientific как перспективная область исследований.
Специальный выпуск по меметическим алгоритмам, IEEE Transactions on Systems, Man, and Cybernetics - Часть B: Cybernetics, том 37, № 1, февраль 2007 г.
Последние достижения в области меметических алгоритмов, серия: Исследования нечеткости и мягких вычислений, том 166, ISBN 978-3-540-22904-9 , 2005.
Специальный выпуск по меметическим алгоритмам, Evolutionary Computation, осень 2004 г., т. 12, № 3: v-vi.
Ссылки
^ ab Moscato, Pablo (1989), Об эволюции, поиске, оптимизации, генетических алгоритмах и боевых искусствах: на пути к меметическим алгоритмам, Программа параллельных вычислений Caltech, Технический отчет 826, Пасадена, Калифорния: Калифорнийский технологический институт
^ ab Moscato, P.; Mathieson, L. (2019). «Меметические алгоритмы для бизнес-аналитики и науки о данных: краткий обзор». Business and Consumer Analytics: New Ideas . Springer . pp. 545–608 . doi :10.1007/978-3-030-06222-4_13. ISBN978-3-030-06221-7. S2CID 173187844.
^ Чен, XS; Онг, YS; Лим, MH; Тан, KC (2011). «Многогранный обзор меметических вычислений». Труды IEEE по эволюционным вычислениям . 15 (5): 591– 607. doi :10.1109/tevc.2011.2132725. S2CID 17006589.
^ Чен, XS; Онг, YS; Лим, MH (2010). «Исследовательский рубеж: меметические вычисления — прошлое, настоящее и будущее». Журнал IEEE Computational Intelligence . 5 (2): 24–36 . doi :10.1109/mci.2010.936309. hdl : 10356/148175 . S2CID 17955514.
^ Wolpert, DH; Macready, WG (апрель 1997 г.). «Теоремы о бесплатном обеде для оптимизации не существуют». Труды IEEE по эволюционным вычислениям . 1 (1): 67– 82. doi :10.1109/4235.585893. S2CID 5553697.
^ Вулперт, Д. Х.; Макреди, В. Г. (1995). «Теоремы о бесплатном обеде для поиска». Технический отчет SFI-TR-95-02-010 . Институт Санта-Фе. S2CID 12890367.
^ Дэвис, Лоуренс (1991). Справочник по генетическим алгоритмам . Нью-Йорк: Van Nostrand Reinhold. ISBN0-442-00173-8. OCLC 23081440.
^ Москато, Пабло (1989), Об эволюции, поиске, оптимизации , генетических алгоритмах и боевых искусствах: на пути к меметическим алгоритмам, Программа параллельных вычислений Калтеха, Технический отчет 826, Пасадена, Калифорния: Калифорнийский технологический институт, стр. 19–20
^ Красногор, Наталио (2002). Исследования по теории и пространству проектирования меметических алгоритмов (PhD). Бристоль, Великобритания: Университет Западной Англии. стр. 23.
^ Красногор, Наталио (1999). «Коэволюция генов и мемов в меметических алгоритмах». Семинар аспирантов : 371.
^ ab Кендалл Г. и Субеига Э. и Коулинг П. Функция выбора и случайная гиперэвристика (PDF) . 4-я Азиатско-Тихоокеанская конференция по имитации эволюции и обучению. SEAL 2002. С. 667–671 .
^ Берк EK; Джендро М.; Хайд М.; Кендалл Г.; Очоа Г.; Оумл; Зкан Э.; Ку Р. (2013). «Гиперэвристика: обзор современного состояния дел». Журнал Общества операционных исследований . 64 (12): 1695–1724 . CiteSeerX 10.1.1.384.9743 . doi :10.1057/jors.2013.71. S2CID 3053192.
^ YS Ong & AJ Keane (2004). «Мета-ламарковское обучение в меметических алгоритмах» (PDF) . IEEE Transactions on Evolutionary Computation . 8 (2): 99– 110. doi :10.1109/TEVC.2003.819944. S2CID 11003004.
^ abcd Якоб, Вильфрид (сентябрь 2010 г.). «Общая структура адаптации на основе затрат и выгод для алгоритмов мультимемов». Memetic Computing . 2 (3): 201– 218. doi :10.1007/s12293-010-0040-9. ISSN 1865-9284. S2CID 167807.
^ ab Ong YS и Lim MH и Zhu N. и Wong KW (2006). "Классификация адаптивных меметических алгоритмов: сравнительное исследование" (PDF) . IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics . 36 (1): 141– 152. doi :10.1109/TSMCB.2005.856143. hdl :10220/4653. PMID 16468573. S2CID 818688.
^ Смит Дж. Э. (2007). «Коэволюционирующие меметические алгоритмы: обзор и отчет о ходе работы» (PDF) . Труды IEEE по системам, человеку и кибернетике — часть B: Кибернетика . 37 (1): 6– 17. doi : 10.1109/TSMCB.2006.883273. PMID 17278554. S2CID 13867280.
^ Красногор Н. и Густафсон С. (2002). «К истинно «меметическим» меметическим алгоритмам: обсуждение и доказательство концепций». Достижения в области вычислений, вдохновленных природой: семинары PPSN VII. PEDAL (Parallel Emergent and Distributed Architectures Lab). Университет Рединга .
^ abc Hart, William E. (декабрь 1994 г.). Адаптивная глобальная оптимизация с локальным поиском (PhD). Сан-Диего, Калифорния: Калифорнийский университет. CiteSeerX 10.1.1.473.1370 .
^ Харт, Уильям Э.; Красногор, Наталио; Смит, Джим Э. (сентябрь 2004 г.). «Редакционное введение. Специальный выпуск по меметическим алгоритмам». Эволюционные вычисления . 12 (3): v– vi. doi :10.1162/1063656041775009. ISSN 1063-6560. S2CID 9912363.
^ Ku, KWC; Mak, MW; Siu., W. C (2000). «Исследование ламарковской эволюции рекуррентных нейронных сетей». IEEE Transactions on Evolutionary Computation . 4 (1): 31– 42. doi :10.1109/4235.843493. hdl : 10397/289 .
^ Land, MWS (1998). Эволюционные алгоритмы с локальным поиском для комбинаторной оптимизации (диссертация). Сан-Диего, Калифорния: Калифорнийский университет. CiteSeerX 10.1.1.55.8986 . ISBN978-0-599-12661-9.
^ Bambha NK и Bhattacharyya SS и Teich J. и Zitzler E. (2004). «Систематическая интеграция параметризованного локального поиска в эволюционные алгоритмы». IEEE Transactions on Evolutionary Computation . 8 (2): 137– 155. doi :10.1109/TEVC.2004.823471. S2CID 8303351.
^ Грюо, Фредерик; Уитли, Даррелл (сентябрь 1993 г.). «Добавление обучения к клеточному развитию нейронных сетей: эволюция и эффект Болдуина». Evolutionary Computation . 1 (3): 213– 233. doi :10.1162/evco.1993.1.3.213. ISSN 1063-6560. S2CID 15048360.
^ Орвош, Дэвид; Дэвис, Лоуренс (1993), Форрест, Стефани (ред.), «Должны ли мы ремонтировать? Генетические алгоритмы, комбинаторная оптимизация и ограничения осуществимости», Труды 5-й Международной конференции по генетическим алгоритмам (ICGA) , Сан-Матео, Калифорния, США: Morgan Kaufmann, стр. 650, ISBN978-1-55860-299-1, S2CID 10098180
^ Уитли, Даррелл; Гордон, В. Скотт; Матиас, Кит (1994), Давидор, Ювал; Швефель, Ганс-Пауль; Мэннер, Рейнхард (ред.), «Эволюция Ламарка, эффект Болдуина и оптимизация функций», Parallel Problem Solving from Nature — PPSN III , т. 866, Берлин, Гейдельберг: Springer Berlin Heidelberg, стр. 5–15 , doi :10.1007/3-540-58484-6_245, ISBN978-3-540-58484-1, получено 2023-02-07
^ Ичимура, Т.; Курияма, И. (1998). Обучение нейронных сетей с параллельным гибридным ГА с использованием функции королевской дороги . Международная объединенная конференция IEEE по нейронным сетям. Том 2. Нью-Йорк, штат Нью-Йорк. С. 1131– 1136. doi :10.1109/IJCNN.1998.685931.
^ Агилар, Дж.; Колменарес, А. (1998). «Решение проблем распознавания образов с использованием гибридного генетического/случайного алгоритма обучения нейронной сети». Анализ образов и приложения . 1 (1): 52– 61. doi :10.1007/BF01238026. S2CID 15803359.
^ Ridao, M.; Riquelme, J.; Camacho, E.; Toro, M. (1998). "Эволюционный и локальный алгоритм поиска для планирования движения двух манипуляторов". Задачи и методы в прикладном искусственном интеллекте . Конспект лекций по информатике. Том 1416. Springer-Verlag. С. 105–114 . CiteSeerX 10.1.1.324.2668 . doi :10.1007/3-540-64574-8_396. ISBN978-3-540-64574-0.
^ Хаас, О.; Бернхэм, К.; Миллс, Дж. (1998). «Оптимизация ориентации пучка в радиотерапии с использованием плоской геометрии». Физика в медицине и биологии . 43 (8): 2179– 2193. Bibcode : 1998PMB....43.2179H. doi : 10.1088/0031-9155/43/8/013. PMID 9725597. S2CID 250856984.
^ Харрис, С.; Ифичор, Э. (1998). «Автоматическое проектирование фильтров частотной выборки с помощью методов гибридного генетического алгоритма». Труды IEEE по обработке сигналов . 46 (12): 3304– 3314. Bibcode : 1998ITSP...46.3304H. doi : 10.1109/78.735305.
^ Аугульяро, А.; Дюсонше, Л.; Рива-Сансеверино, Э. (1998). «Восстановление обслуживания в компенсированных распределительных сетях с использованием гибридного генетического алгоритма». Исследования электрических систем электроснабжения . 46 (1): 59– 66. Bibcode : 1998EPSR...46...59A. doi : 10.1016/S0378-7796(98)00025-X.
^ Wehrens, R.; Lucasius, C.; Buydens, L.; Kateman, G. (1993). "HIPS, гибридная самоадаптирующаяся экспертная система для интерпретации спектра ядерного магнитного резонанса с использованием генетических алгоритмов". Analytica Chimica Acta . 277 (2): 313– 324. Bibcode : 1993AcAC..277..313W. doi : 10.1016/0003-2670(93)80444-P. hdl : 2066/112321 . S2CID 53954763.
^ Франса, П.; Мендес, А.; Москато, П. (1999). Меметические алгоритмы для минимизации задержек на одной машине с зависимым от последовательности временем настройки . Труды 5-й Международной конференции Института наук о принятии решений. Афины, Греция. С. 1708–1710 . S2CID 10797987.
^ Коста, Дэниел (1995). «Эволюционный алгоритм поиска табу и проблема планирования НХЛ». INFOR: Информационные системы и операционные исследования . 33 (3): 161– 178. doi : 10.1080/03155986.1995.11732279. S2CID 15491435.
^ Aickelin, U. (1998). Составление расписания медсестер с использованием генетических алгоритмов . Труды конференции молодых операционных исследований 1998 года. Гилфорд, Великобритания. arXiv : 1004.2870 .
^ Озкан, Э. (2007). «Мемы, самогенерация и составление расписания медсестер». Практика и теория автоматизированного расписания VI . Конспект лекций по информатике. Том 3867. Springer-Verlag. С. 85–104 . doi :10.1007/978-3-540-77345-0_6. ISBN978-3-540-77344-3.
^ Озкан, Э.; Онбасиоглу, Э. (2007). «Меметические алгоритмы для оптимизации параллельного кода». Международный журнал параллельного программирования . 35 (1): 33– 61. doi :10.1007/s10766-006-0026-x. S2CID 15182941.
^ Берк, Э.; Смит, А. (1999). «Меметический алгоритм для планирования планового обслуживания национальной сети». Журнал экспериментальной алгоритмики . 4 (4): 1– 13. doi : 10.1145/347792.347801 . S2CID 17174080.
^ Якоб, Вильфрид; Штрак, Сильвия; Квинте, Александр; Бенгель, Гюнтер; Штуки, Карл-Уве; Зюсс, Вольфганг (2013-04-22). "Быстрое перепланирование нескольких рабочих процессов для ограниченных гетерогенных ресурсов с использованием многокритериальных меметических вычислений". Алгоритмы . 6 (2): 245– 277. doi : 10.3390/a6020245 . ISSN 1999-4893.
^ Озкан, Э.; Басаран, К. (2009). «Исследование случая меметических алгоритмов для оптимизации ограничений». Мягкие вычисления: слияние основ, методологий и приложений . 13 ( 8– 9): 871– 882. CiteSeerX 10.1.1.368.7327 . doi :10.1007/s00500-008-0354-4. S2CID 17032624.
^ Merz, P.; Zell, A. (2002). "Кластеризация профилей экспрессии генов с помощью меметических алгоритмов". Параллельное решение задач из природы — PPSN VII . Конспект лекций по информатике. Том 2439. Springer . С. 811– 820. doi :10.1007/3-540-45712-7_78. ISBN978-3-540-44139-7.
^ Zexuan Zhu, YS Ong и M. Dash (2007). «Марковский бланкет-встроенный генетический алгоритм для отбора генов». Pattern Recognition . 49 (11): 3236– 3248. Bibcode : 2007PatRe..40.3236Z. doi : 10.1016/j.patcog.2007.02.007.
^ Zexuan Zhu, YS Ong и M. Dash (2007). «Алгоритм выбора признаков Wrapper-Filter с использованием меметической структуры». Труды IEEE по системам, человеку и кибернетике — часть B: Кибернетика . 37 (1): 70– 76. doi : 10.1109/TSMCB.2006.883267. hdl : 10338.dmlcz/141593 . PMID 17278560. S2CID 18382400.
^ Чжу, Цзэсюань; Онг, Ю-Сун; Зурада, Яцек М. (апрель 2010 г.). «Идентификация полных и частичных генов, релевантных классу». Труды IEEE/ACM по вычислительной биологии и биоинформатике . 7 (2): 263– 277. doi :10.1109/TCBB.2008.105. ISSN 1545-5963. PMID 20431146. S2CID 2904028.
^ G. Karkavitsas & G. Tsihrintzis (2011). "Автоматическая классификация музыкальных жанров с использованием гибридных генетических алгоритмов". Интеллектуальные интерактивные мультимедийные системы и сервисы . Интеллектуальные инновации, системы и технологии. Том 11. Springer. стр. 323– 335. doi :10.1007/978-3-642-22158-3_32. ISBN978-3-642-22157-6. S2CID 15011089.