Treffer: Firefly Algorithm Based on Level-Based Attracting and Variable Step Size
CC BY NC ND
Weitere Informationen
Pour relever le défi de l'optimisation locale et du réglage des paramètres de facteur de taille de pas dans le modèle d'attraction complet de l'algorithme firefly (FA), cet article présente l'attraction basée sur le niveau et la taille de pas variable à FA. Dans le modèle d'attraction basé sur les niveaux, les lucioles sont d'abord regroupées en différents niveaux en fonction de la luminosité, et chaque luciole sélectionne au hasard deux lucioles d'un niveau supérieur pour apprendre. En utilisant la stratégie de taille d'étape variable, la taille d'étape de recherche diminue avec le nombre d'itérations. Ici, le modèle d'attraction basé sur le niveau peut augmenter la diversité de l'apprentissage individuel et améliorer la capacité à sortir de l'optimisation locale. Pendant ce temps, l'ajustement dynamique de la taille des pas peut équilibrer la capacité de détection et de développement de l'algorithme et améliorer la précision d'optimisation de l'algorithme. Pour évaluer l'efficacité de l'algorithme proposé, des comparaisons sont effectuées par rapport à l'AF optimisé, à l'algorithme d'optimisation d'essaim de particules, à l'algorithme de colonie d'abeilles artificielles et à l'algorithme d'évolution différentielle sur une variété d'ensembles de fonctions de test.
Para abordar el desafío de la optimización local y la configuración de parámetros de tamaño de paso en el modelo de atracción completa del algoritmo de luciérnaga (FA), este documento presenta la atracción basada en niveles y el tamaño de paso variable a FA. En el modelo de atracción basado en niveles, las luciérnagas se agrupan en primer lugar en diferentes niveles según el brillo, y cada luciérnaga selecciona aleatoriamente dos luciérnagas de un nivel superior para aprender. Al utilizar la estrategia de tamaño de paso variable, el tamaño del paso de búsqueda disminuye con el número de iteraciones. En este caso, el modelo de atracción basado en niveles puede aumentar la diversidad del aprendizaje individual y mejorar la capacidad de salirse de la optimización local. Mientras tanto, el ajuste dinámico del tamaño del paso puede equilibrar la capacidad de detección y desarrollo del algoritmo y mejorar la precisión de optimización del algoritmo. Para evaluar la efectividad del algoritmo propuesto, se realizan comparaciones con FA optimizado, algoritmo de optimización de enjambre de partículas, algoritmo de colonias de abejas artificiales y algoritmo de evolución diferencial en una variedad de conjuntos de funciones de prueba.
To address the challenge of local optimization and step size factor parameter setting in the full attraction model of the firefly algorithm (FA), this paper introduces level-based attraction and variable step size to FA. In the level-based attraction model, fireflies are firstly grouped in different levels according to the brightness, and each firefly randomly selects two fireflies from a higher level to learn from. By using the variable step size strategy, the searching step size decreases with the number of iterations. Herein, the level-based attracting model can increase the diversity of individual learning and improve the ability to jump out of local optimization. Meanwhile, dynamic adjustment of step size can balance the detection and development ability of the algorithm and improve the optimization accuracy of the algorithm. To evaluate the effectiveness of the proposed algorithm, comparisons are drawn against optimized FA, particle swarm optimization algorithm, artificial bee colony algorithm and differential evolution algorithm on a variety of test function sets.
لمواجهة التحدي المتمثل في التحسين المحلي وإعداد معلمة عامل حجم الخطوة في نموذج الجذب الكامل لخوارزمية اليراعة، تقدم هذه الورقة الجذب القائم على المستوى وحجم الخطوة المتغيرة إلى خوارزمية اليراعة. في نموذج الجذب القائم على المستوى، يتم تجميع اليراعات أولاً في مستويات مختلفة وفقًا للسطوع، وتختار كل فراشة بشكل عشوائي اثنين من اليراعات من مستوى أعلى للتعلم منها. باستخدام استراتيجية حجم الخطوة المتغيرة، ينخفض حجم خطوة البحث مع عدد التكرارات. هنا، يمكن لنموذج الجذب القائم على المستوى أن يزيد من تنوع التعلم الفردي ويحسن القدرة على الخروج من التحسين المحلي. وفي الوقت نفسه، يمكن للتعديل الديناميكي لحجم الخطوة أن يوازن بين قدرة الكشف والتطوير للخوارزمية وتحسين دقة التحسين للخوارزمية. لتقييم فعالية الخوارزمية المقترحة، يتم إجراء مقارنات مقابل خوارزمية فا المحسنة، وخوارزمية تحسين سرب الجسيمات، وخوارزمية مستعمرة النحل الاصطناعية وخوارزمية التطور التفاضلي على مجموعة متنوعة من مجموعات وظائف الاختبار.