Une nouvelle biographie

Blog

MaisonMaison / Blog / Une nouvelle biographie

Apr 03, 2023

Une nouvelle biographie

Rapports scientifiques volume 13,

Rapports scientifiques volume 13, Numéro d'article : 8775 (2023) Citer cet article

2297 accès

Détails des métriques

Cet article présente un nouvel algorithme métaheuristique bio-inspiré appelé Walrus Optimization Algorithm (WaOA), qui imite les comportements des morses dans la nature. Les inspirations fondamentales employées dans la conception WaOA sont le processus d'alimentation, de migration, d'évasion et de lutte contre les prédateurs. Les étapes de mise en œuvre de WaOA sont modélisées mathématiquement en trois phases d'exploration, de migration et d'exploitation. Soixante-huit fonctions de référence standard consistant en une suite de tests unimodale, multimodale à haute dimension, multimodale à dimension fixe, CEC 2015 et CEC 2017 sont utilisées pour évaluer les performances de WaOA dans les applications d'optimisation. Les résultats d'optimisation des fonctions unimodales indiquent la capacité d'exploitation de WaOA, les résultats d'optimisation des fonctions multimodales indiquent la capacité d'exploration de WaOA, et les résultats d'optimisation des suites de tests CEC 2015 et CEC 2017 indiquent la grande capacité de WaOA à équilibrer l'exploration et l'exploitation pendant le processus de recherche. Les performances de WaOA sont comparées aux résultats de dix algorithmes métaheuristiques bien connus. Les résultats des simulations démontrent que WaOA, en raison de son excellente capacité à équilibrer l'exploration et l'exploitation, et sa capacité à fournir des résultats supérieurs pour la plupart des fonctions de référence, a présenté une performance remarquablement compétitive et supérieure par rapport à d'autres algorithmes comparables. De plus, l'utilisation de WaOA pour résoudre quatre problèmes d'ingénierie de conception et vingt-deux problèmes d'optimisation du monde réel de la suite de tests CEC 2011 démontre l'efficacité apparente de WaOA dans les applications du monde réel. Les codes MATLAB de WaOA sont disponibles sur https://uk.mathworks.com/matlabcentral/profile/authors/13903104.

Récemment, de nombreux problèmes d'optimisation dans les domaines de la science, de l'ingénierie, de l'industrie et de la technologie doivent être résolus à l'aide de techniques d'optimisation. D'un point de vue mathématique, les variables de décision, les contraintes et les fonctions objectifs sont les trois parties principales de la modélisation d'un problème d'optimisation. Le but de l'optimisation est de quantifier les variables de décision du problème pour qu'en respectant les contraintes, il conduise à atteindre la valeur minimale (problèmes de minimisation) ou maximale (problèmes de maximisation) pour la fonction objectif1. Les techniques appliquées à la résolution de problèmes d'optimisation relèvent des approches déterministes et stochastiques. Pour choisir la technique appropriée pour résoudre un problème d'optimisation, un utilisateur a besoin d'informations complètes sur la comparaison des techniques de résolution de problèmes. En revanche, il faut souvent plus que les informations disponibles pour l'utilisateur. Les approches stochastiques, qui sont principalement basées sur la recherche aléatoire dans l'espace de résolution de problèmes, peuvent traiter les problèmes de boîte noire plus simplement que de nombreux algorithmes déterministes. Ces approches conviennent également aux problèmes où les évaluations des fonctions sont corrompues par du bruit. Chaque approche déterministe et stochastique présente divers avantages et, en général, aucune ne peut être considérée comme supérieure. Plus d'informations et une comparaison détaillée des approches déterministes et stochastiques sont fournies dans le livre de Krasov2.

En tant que l'une des approches stochastiques les plus largement utilisées, les algorithmes métaheuristiques, utilisant des opérateurs stochastiques, des concepts d'essais et d'erreurs et la recherche stochastique, peuvent fournir des solutions appropriées aux problèmes d'optimisation sans nécessiter d'informations dérivées de la fonction objectif. La simplicité des idées, la facilité de mise en œuvre, l'indépendance par rapport au type de problème et l'absence de processus de dérivation sont parmi les avantages qui ont conduit à la popularité et à l'omniprésence des algorithmes métaheuristiques parmi les chercheurs3. Le processus d'optimisation dans les algorithmes métaheuristiques commence par la génération aléatoire de plusieurs solutions réalisables initiales dans l'espace de recherche de problèmes. Puis, dans un processus itératif, basé sur l'efficacité des étapes de l'algorithme, ces solutions initiales sont améliorées. Enfin, la meilleure solution trouvée lors de l'implémentation de l'algorithme est introduite comme solution au problème4. Cependant, aucun des algorithmes métaheuristiques ne garantit qu'ils seront en mesure de fournir la solution globale optimale. Cette insuffisance est due à la nature de la recherche aléatoire dans ces types d'approches d'optimisation. Ainsi, les solutions dérivées des algorithmes métaheuristiques sont dites solutions quasi-optimales5.

Les capacités d'exploration et d'exploitation permettent aux algorithmes métaheuristiques de fournir de meilleures solutions quasi-optimales. L'exploration fait référence à la capacité de rechercher globalement dans différentes zones de l'espace de résolution de problèmes pour découvrir la meilleure zone optimale. En revanche, l'exploitation fait référence à la capacité de rechercher localement autour des solutions disponibles et des domaines prometteurs pour converger vers l'optimum global. L'équilibre entre l'exploration et l'exploitation est la clé du succès des algorithmes métaheuristiques dans la réalisation de solutions efficaces6. L'obtention de meilleures solutions quasi-optimales a été le principal défi et la raison du développement par les chercheurs de divers algorithmes métaheuristiques7,8.

La principale question de recherche est que malgré les nombreux algorithmes métaheuristiques introduits jusqu'à présent, est-il encore nécessaire de développer de nouveaux algorithmes ? Le théorème No Free Lunch (NFL)9 répond à la question selon laquelle les performances optimales d'un algorithme dans la résolution d'un ensemble de problèmes d'optimisation ne garantissent pas les performances similaires de cet algorithme dans la résolution d'autres problèmes d'optimisation. Le concept du théorème NFL rejette l'hypothèse selon laquelle un algorithme métaheuristique particulier est le meilleur optimiseur pour toutes les applications d'optimisation sur tous les différents algorithmes. Au lieu de cela, le théorème NFL encourage les chercheurs à continuer à concevoir de nouveaux algorithmes métaheuristiques pour obtenir de meilleures solutions quasi-optimales aux problèmes d'optimisation. Ce théorème a également motivé les auteurs de cet article à développer un nouvel algorithme métaheuristique pour relever les défis de l'optimisation.

La nouveauté et la contribution de cet article résident dans la conception d'un nouvel algorithme métaheuristique appelé Walrus Optimization Algorithm (WaOA), qui est basé sur la simulation des comportements des morses dans la nature. Les principales contributions de cet article sont les suivantes :

Les comportements naturels des morses inspirent la conception de WaOA en matière d'alimentation lors de la migration, de la fuite et de la lutte contre les prédateurs.

WaOA est mathématiquement modélisé en trois phases : exploration, exploitation et migration.

L'efficacité de WaOA dans la gestion des problèmes d'optimisation est testée sur soixante-huit fonctions objectives standard de divers types d'unités unimodales, multimodales, la suite de tests CEC 2015 et la suite de tests CEC 2017.

Les performances de WaOA sont comparées aux performances de dix algorithmes métaheuristiques bien connus.

Le succès de WaOA dans les applications du monde réel est mis au défi par la résolution de quatre problèmes de conception technique et de vingt-deux problèmes d'optimisation du monde réel de la suite de tests CEC 2011.

Le reste du papier est le suivant. La revue de la littérature est présentée dans la section "Revue de la littérature". L'approche WaOA proposée est présentée et modélisée dans la section "Walrus Optimization Algorithm". Les études de simulation sont présentées dans la section "Études de simulation et résultats". L'efficacité de WaOA dans la résolution de problèmes de conception d'ingénierie est évaluée dans la section "WaOA pour une application dans le monde réel". Les conclusions et les futures directions de recherche sont incluses dans la section "Conclusions et travaux futurs".

Les algorithmes métaheuristiques sont basés sur l'inspiration et la simulation de divers phénomènes naturels, stratégies et comportements animaux, concepts des sciences biologiques, de la génétique, des sciences physiques, des activités humaines, des règles des jeux et de tout processus basé sur l'évolution. En conséquence, du point de vue de l'inspiration principale utilisée dans la conception, les algorithmes métaheuristiques se répartissent en cinq groupes : basés sur l'évolution, basés sur l'essaim, basés sur la physique, basés sur l'homme et basés sur le jeu.

Des algorithmes métaheuristiques basés sur l'évolution ont été développés en utilisant les concepts de la biologie, de la théorie de la sélection naturelle et des opérateurs aléatoires tels que la sélection, le croisement et la mutation. L'algorithme génétique (GA) est l'un des algorithmes métaheuristiques les plus célèbres, qui s'inspire du processus de reproduction, de la théorie de l'évolution de Darwin, de la sélection naturelle et des concepts biologiques10. L'évolution différentielle (DE) est un autre calcul évolutionnaire qui, en plus d'utiliser les concepts de biologie, d'opérateurs aléatoires et de sélection naturelle, utilise un opérateur différentiel pour générer de nouvelles solutions11.

Des algorithmes métaheuristiques basés sur les essaims ont été développés sur la base de la modélisation des phénomènes naturels, des phénomènes d'essaimage et des comportements des animaux, des oiseaux, des insectes et d'autres êtres vivants. L'optimisation par essaim de particules (PSO) est l'une des premières méthodes métaheuristiques introduites et a été largement utilisée dans les domaines de l'optimisation. L'inspiration principale dans la conception des OSP est les comportements de recherche des oiseaux et des poissons pour découvrir les sources de nourriture12,13. Ant Colony Optimization (ACO) est une méthode basée sur un essaim inspirée par la capacité et la stratégie d'une colonie de fourmis à identifier le chemin le plus court entre la colonie et les sources de nourriture14. Grey Wolf Optimization (GWO) est un algorithme métaheuristique inspiré de la structure hiérarchique et du comportement social des loups gris lors de la chasse15. L'algorithme des prédateurs marins (MPA) a été développé en s'inspirant des stratégies des prédateurs océaniques et marins et de leurs mouvements de vol Levy pour piéger les proies16. La stratégie des tuniciers et leur mécanisme de recherche dans le processus de recherche de sources de nourriture et de recherche de nourriture ont été les principales inspirations dans la conception de l'algorithme Tunicate Swarm Algorithm (TSA)17. Certaines autres méthodes basées sur les essaims sont White Shark Optimizer (WSO)18, Reptile Search Algorithm (RSA)19, Raccoon Optimization Algorithm (ROA)20, African Vultures Optimization Algorithm (AVOA)21, Farmland Fertility Algorithm (FFA)22, Slime Mold (SMA)23, Mountain Gazelle Optimizer (MGO)24, Sparrow Search Algorithm (SSA)25, Whale Optimization Algorithm (WOA)26, Artificial Gorilla Troops Optimizer (GTO)27 et Pelican Optimization Algorithm (POA)28.

Les algorithmes métaheuristiques basés sur la physique ont été inspirés par les théories, les concepts, les lois, les forces et les phénomènes de la physique. Le recuit simulé (SA) est l'une des méthodes les plus célèbres basées sur la physique, dont l'inspiration principale est le processus de recuit des métaux. Au cours de ce processus physique, un solide est placé dans un bain de chaleur et la température est continuellement élevée jusqu'à ce que le solide fonde. Les particules solides sont physiquement séparées ou placées au hasard. À partir d'un tel niveau d'énergie, le bain thermique se refroidit lentement à mesure que la température diminue afin que les particules puissent s'aligner dans une structure de réseau cristallin régulier29. L'algorithme de recherche gravitationnelle (GSA) est une méthode de calcul basée sur la physique inspirée de la simulation de la loi de gravitation universelle de Newton et des lois de mouvement de Newton parmi les masses logées dans un système30. L'application des trois concepts d'un trou noir, d'un trou blanc et d'un trou de ver dans la science de la cosmologie a été l'inspiration pour la conception du Multi-Verse Optimizer (MVO)31. Certaines autres méthodes basées sur la physique sont : l'algorithme du cycle de l'eau (WCA)32, l'algorithme de recherche de printemps (SSA)33, l'optimisation de la recherche d'atomes (ASO)34, les algorithmes métaheuristiques d'inspiration quantique35, l'algorithme de recherche de moment (MSA)36 et l'optimisation de la réaction nucléaire. (NRO)37.

Des algorithmes métaheuristiques humains ont été développés en s'inspirant des activités humaines, des relations sociales et des interactions. L'optimisation basée sur l'apprentissage de l'enseignement (TLBO) est l'algorithme métaheuristique humain le plus utilisé dans lequel les interactions entre l'enseignant et les étudiants, ainsi que les étudiants entre eux dans l'espace éducatif, sont sa principale source d'inspiration38. Les efforts de deux sections de la société, y compris les pauvres et les riches, pour améliorer leur situation financière ont été l'idée principale dans la conception de l'optimisation des pauvres et des riches (PRO)39. Certaines autres méthodes basées sur l'homme sont Archery Algorithm (AA)40, Brain Storm Optimization (BSO)41, Chef Based Optimization Algorithm (CBOA)42, War Strategy Optimization (WSO)43 et Teamwork Optimization Algorithm (TOA)44.

Des algorithmes métaheuristiques basés sur le jeu ont été introduits en simulant les règles régissant divers jeux individuels et de groupe et en imitant les comportements des joueurs, des arbitres, des entraîneurs et d'autres interactions efficaces. Par exemple, la concurrence des joueurs dans le jeu du tir à la corde selon les règles de ce jeu a été l'idée principale utilisée dans la conception de l'algorithme d'optimisation du tir à la corde (TWO)45. L'algorithme Premier Volleyball League (PVL) est introduit sur la base d'une modélisation mathématique des interactions des joueurs, des compétitions et des instructions d'entraînement pendant le match46. Puzzle Optimization Algorithm (POA) est un autre algorithme métaheuristique basé sur le jeu qui a été produit sur la base de joueurs essayant de résoudre des énigmes et s'aidant les uns les autres pour mieux organiser les pièces du puzzle47. Certaines autres méthodes basées sur le jeu sont Orientation Search Algorithm (OSA)48, Ring Toss Game-Based Optimization (RTGBO)49, Football Game Based Optimization (FGBO)50, Dice Game Optimization (DGO)51 et Orientation Search Algorithm (OSA) 48.

Sur la base des meilleures connaissances issues de la revue de la littérature, aucun algorithme métaheuristique n'a été développé sur la base de la simulation des comportements et des stratégies des morses. Cependant, les comportements intelligents des morses tels que la recherche de nourriture, la migration, la fuite et les combats avec les prédateurs sont enclins à concevoir un optimiseur. Dans la section suivante, basée sur la modélisation mathématique des comportements naturels des morses, un nouvel algorithme métaheuristique est développé pour gérer les applications d'optimisation afin de combler cette lacune de la recherche.

Dans cette section, l'inspiration fondamentale employée et la théorie de l'algorithme d'optimisation Walrus proposé (WaOA) sont énoncées, puis ses différentes étapes sont modélisées mathématiquement.

Le morse est un grand mammifère marin à nageoires dont la distribution est discontinue dans l'océan Arctique et les eaux subarctiques de l'hémisphère Nord autour du pôle Nord52. Les morses adultes sont facilement identifiables grâce à leurs larges moustaches et défenses. Les morses sont des animaux sociaux qui passent la plupart de leur temps sur la banquise, à la recherche de mollusques bivalves benthiques pour se nourrir. La caractéristique la plus importante des morses est les longues défenses de cet animal. Ce sont des canines allongées observées chez les espèces mâles et femelles qui peuvent peser jusqu'à 5,4 kg et mesurer jusqu'à 1 m de long. Les défenses des mâles sont légèrement plus épaisses et plus longues et sont utilisées pour la domination, le combat et l'affichage. Le mâle le plus musclé avec les défenses les plus longues domine les autres membres du groupe et les mène53. Une image de morse est présentée à la figure 1. À mesure que le temps se réchauffe et que la glace fond à la fin de l'été, les morses préfèrent migrer vers les affleurements ou les plages rocheuses. Ces migrations sont très spectaculaires et impliquent des rassemblements massifs de morses54. Le morse n'a que deux prédateurs naturels en raison de sa grande taille et de ses défenses : l'ours polaire et l'épaulard (orque). Les observations montrent que la bataille entre un morse et un ours polaire est très longue et épuisante, et généralement, les ours polaires se retirent du combat après avoir blessé le morse. Cependant, les morses blessent les ours polaires avec leurs défenses pendant cette bataille. Dans la lutte contre les morses, les épaulards peuvent les chasser avec succès, avec peu ou pas de blessures55.

Morse (la photo est téléchargée depuis Wikimedia56).

La vie sociale et les comportements naturels des morses représentent un processus intelligent. Parmi ces comportements intelligents, trois sont les plus évidents :

(i) Guider les individus à se nourrir sous la direction d'un membre avec les défenses les plus longues.

Le suivi du meilleur membre de la population dans le processus de recherche oriente l'algorithme vers des zones prometteuses. Dans la vie sociale des morses, le morse le plus puissant, qui peut être reconnu comme ayant la défense la plus longue, est chargé de guider les autres morses. Le déplacement des morses dans ce processus entraîne des changements importants dans leur position. La simulation de ces grands déplacements augmente la capacité de l'algorithme dans la recherche globale et la capacité d'exploration.

(ii) Migration des morses vers les plages rocheuses.

L'un des comportements naturels des morses est leur migration en raison du réchauffement climatique en été. Dans ce processus, les morses modifient considérablement leur position en se déplaçant vers des affleurements ou des plages rocheuses. Dans la simulation WaOA pour un morse, la position des autres morses est supposée comme destination de migration, l'une de ces positions est sélectionnée au hasard et le morse se dirige vers elle. Dans la conception de WaOA, imitant cette stratégie, les capacités de recherche et de découverte globales sont améliorées. La différence entre la stratégie de migration et le processus de recherche de nourriture sous la direction du morse le plus fort est que, dans ce processus, le processus de mise à jour de la population est empêché de s'appuyer sur un membre particulier, tel que le meilleur membre de la population. Ce processus de mise à jour empêche la convergence précoce et l'algorithme de rester bloqué dans les optima locaux.

(iii) Combattre ou échapper aux prédateurs.

La stratégie de combat des morses face à leurs prédateurs, tels que l'ours polaire et l'épaulard, est un long processus de chasse. Ce processus de poursuite a lieu dans une petite zone autour de la position du morse et provoque de petits changements dans la position du morse. Par conséquent, simuler les petits déplacements du morse en visant de meilleures positions pendant le combat conduit à une augmentation de la capacité de WaOA à rechercher localement et à exploiter pour converger vers de meilleures solutions.

La modélisation mathématique de ces comportements est la principale source d'inspiration pour développer l'approche WaOA proposée.

WaOA est un algorithme métaheuristique basé sur la population dans lequel les membres chercheurs de cette population sont des morses. Dans WaOA, chaque morse représente une solution candidate au problème d'optimisation. Ainsi, la position de chaque morse dans l'espace de recherche détermine les valeurs candidates pour les variables du problème. Par conséquent, chaque morse est un vecteur et la population de morses peut être modélisée mathématiquement à l'aide de ce qu'on appelle la matrice de population. Au début de la mise en œuvre de WaOA, les populations de morses sont initialisées de manière aléatoire. Cette matrice de population WaOA est déterminée à l'aide de (1).

où \(X\) est la population de morses, \({X}_{i}\) est le \(i\)ème morse (solution candidate), \({x}_{i,j}\) est la valeur de la \(j\)ième variable de décision suggérée par le \(i\)ième morse, \(N\) est le nombre de morses et \(m\) est le nombre de variables de décision.

Comme mentionné, chaque morse est une solution candidate au problème, et sur la base de ses valeurs suggérées pour les variables de décision, la fonction objective du problème peut être évaluée. Les valeurs estimées de la fonction objectif obtenues à partir des morses sont spécifiées en (2).

où \(F\) est le vecteur de la fonction objectif et \({F}_{i}\) est la valeur de la fonction objectif évaluée en fonction du \(i\)ème morse.

Les valeurs des fonctions objectives sont la meilleure mesure de la qualité des solutions candidates. La solution candidate qui aboutit à l'évaluation de la meilleure valeur pour la fonction objectif est appelée le meilleur membre. D'autre part, la solution candidate qui donne la pire valeur pour la fonction objectif est appelée le pire membre. Selon la mise à jour des valeurs de la fonction objectif à chaque itération, les meilleurs et les pires membres sont également mis à jour.

Le processus de mise à jour de la position des morses dans la WaOA est modélisé en trois phases différentes basées sur les comportements naturels de cet animal.

Les morses ont un régime alimentaire varié, se nourrissant de plus de soixante espèces d'organismes marins, tels que les concombres de mer, les tuniciers, les coraux mous, les vers tubicoles, les crevettes et divers mollusques57. Cependant, le morse préfère les mollusques bivalves benthiques, en particulier les palourdes, pour lesquelles il se nourrit en broutant le fond marin, en cherchant et en détectant la nourriture grâce à ses mouvements de nageoires énergiques et à ses vibrisses sensibles58. Dans ce processus de recherche, le morse le plus fort avec les défenses les plus hautes guide l'autre morse du groupe pour trouver de la nourriture. La longueur des défenses des morses est similaire à la qualité des valeurs de la fonction objectif des solutions candidates. Par conséquent, la meilleure solution candidate avec la meilleure valeur pour la fonction objectif est considérée comme le morse le plus fort du groupe. Ce comportement de recherche des morses conduit à différentes zones de balayage de l'espace de recherche, ce qui améliore la puissance d'exploration du WaOA dans la recherche globale. Le processus de mise à jour de la position des morses est modélisé mathématiquement sur la base du mécanisme d'alimentation sous la direction du membre le plus vital du groupe, en utilisant (3) et (4). Dans ce processus, une nouvelle position pour le morse est d'abord générée selon (3). Cette nouvelle position remplace la position précédente si elle améliore la valeur de la fonction objectif ; ce concept est modélisé en (4).

où \({X}_{i}^{{P}_{1}}\) est la nouvelle position générée pour le \(i\)ème morse basée sur la 1ère phase, \({x}_{i ,j}^{{P}_{1}}\) est sa \(j\)ième dimension, \({F}_{i}^{{P}_{1}}\) est sa fonction objectif valeur, \({rand}_{i,j}\) sont des nombres aléatoires de l'intervalle \(\left[0, 1\right]\), \(SW\) est la meilleure solution candidate qui est considérée comme la morse le plus fort, et \({I}_{i,j}\) sont des nombres entiers choisis au hasard entre 1 ou 2. \({I}_{i,j}\) est utilisé pour augmenter la capacité d'exploration de l'algorithme de sorte que si il est choisi égal à 2, il crée des changements plus importants et plus larges dans la position des morses par rapport à la valeur de 1, qui est l'état normal de ce déplacement. Ces conditions aident à améliorer la recherche globale de l'algorithme en s'échappant des optima locaux et en découvrant la zone optimale d'origine dans l'espace de résolution de problèmes.

L'un des comportements naturels des morses est leur migration vers des affleurements ou des plages rocheuses en raison du réchauffement de l'air à la fin de l'été. Ce processus de migration est utilisé dans le WaOA pour guider les morses dans l'espace de recherche afin de découvrir des zones appropriées dans l'espace de recherche. Ce mécanisme comportemental est modélisé mathématiquement à l'aide de (5) et (6). Cette modélisation suppose que chaque morse migre vers une autre position de morse (sélectionnée au hasard) dans une autre zone de l'espace de recherche. Par conséquent, la nouvelle position proposée est d'abord générée sur la base de (5). Alors selon (6), si cette nouvelle position améliore la valeur de la fonction objectif, elle remplace la position précédente du morse.

où \({X}_{i}^{{P}_{2}}\) est la nouvelle position générée pour le \(i\)e morse basée sur la 2e phase, \({x}_{i ,j}^{{P}_{2}}\) est sa \(j\)ième dimension, \({F}_{i}^{{P}_{2}}\) est sa fonction objectif valeur, \({X}_{k}, k\in \left\{\mathrm{1,2}, \dots ,N\right\} \, \mathrm{and} \, k\ne i,\ ) est l'emplacement du morse sélectionné pour migrer le \(i\)ème morse vers lui, \({x}_{k,j}\) est sa \(j\)ème dimension, et \({F}_ {k}\) est sa valeur de fonction objectif.

Les morses sont toujours exposés aux attaques de l'ours polaire et de l'épaulard. La stratégie d'évasion et de lutte contre ces prédateurs entraîne une modification de la position des morses au voisinage de la position dans laquelle ils se trouvent. La simulation de ce comportement naturel des morses améliore le pouvoir d'exploitation de WaOA dans la recherche locale dans l'espace de résolution de problèmes autour des solutions candidates. Étant donné que ce processus se produit près de la position de chaque morse, on suppose dans la conception WaOA que cette plage de changement de position des morses se produit dans un voisinage correspondant centré sur les morses avec un certain rayon. Considérant que dans les itérations initiales de l'algorithme, la priorité est donnée à la recherche globale afin de découvrir la zone optimale dans l'espace de recherche, le rayon de ce voisinage est considéré comme variable de sorte qu'il est d'abord fixé à la valeur la plus élevée puis devient plus petit lors des itérations de l'algorithme. Pour cette raison, des bornes inférieures/supérieures locales ont été utilisées dans cette phase de WaOA pour créer un rayon variable avec des répétitions d'algorithmes. Pour la simulation de ce phénomène dans WaOA, un voisinage est supposé autour de chaque morse, qui est d'abord généré une nouvelle position aléatoirement dans ce voisinage en utilisant (7) et (8). puis si la valeur de la fonction objectif est améliorée, cette nouvelle position remplace la position précédente selon (9).

où \({X}_{i}^{{P}_{3}}\) est la nouvelle position générée pour le \(i\)e morse basée sur la 3e phase, \({x}_{i ,j}^{{P}_{3}}\) est sa \(j\)ième dimension, \({F}_{i}^{{P}_{3}}\) est sa fonction objectif valeur, \(t\) est le contour d'itération, \(l{b}_{j}\) et \(u{b}_{j}\) sont les bornes inférieure et supérieure du \(j\) ième variable, respectivement, \(l{b}_{local,j}^{t}\) et \({ub}_{local,j}^{t}\) sont les limites inférieure et supérieure locales autorisées pour la \(j\)ième variable, respectivement, pour simuler la recherche locale au voisinage des solutions candidates.

Après avoir mis à jour la position des morses en fonction de la mise en œuvre des première, deuxième et troisième phases, la première itération WaOA est terminée et de nouvelles valeurs sont calculées pour la position des morses et les fonctions objectives. La mise à jour et l'amélioration des solutions candidates sont répétées en fonction des étapes WaOA selon les équations. (3)–(9) jusqu'à l'itération finale. À la fin de l'exécution de l'algorithme, WaOA présente la meilleure solution candidate trouvée lors de l'exécution comme solution au problème donné. L'organigramme de mise en œuvre de WaOA est présenté à la Fig. 2 et son pseudocode est spécifié dans l'algorithme 1.

Organigramme de WaOA.

Dans cette sous-section, la complexité de calcul de WaOA est étudiée. L'initialisation WaOA, impliquant la formation de la matrice de population et le calcul de la fonction objectif, a une complexité égale à \(O(Nm)\), où N est le nombre de morses et m est le nombre de variables du problème. Le processus de mise à jour WaOA comporte trois phases différentes, chacune ayant une complexité égale à \(O(NmT)\), où T est le nombre d'itérations de l'algorithme. Ainsi, la complexité de calcul totale de WaOA est égale à \(O(Nm (1 + 3T))\).

En ce qui concerne les algorithmes concurrents, GA, PSO, GSA, GWO, MVO, MPA, TSA, RSA et WSO ont une complexité temporelle égale à \(O(Nm (1 + T))\), et TLBO a une complexité de calcul égale à à \(O(Nm (1 + 2T))\). Par conséquent, il est clair que l'approche WaOA proposée a une complexité de calcul plus élevée que tous les algorithmes utilisés pour la comparaison. Cependant, pour faire une comparaison équitable, nous avons utilisé la taille de la population de chaque algorithme métaheuristique dans l'analyse de simulation afin que le nombre total d'évaluations de fonction soit le même pour tous les algorithmes employés.

Dans cette section, des études de simulation WaOA sur des applications d'optimisation sont présentées. L'efficacité de WaOA à fournir la solution optimale a été testée sur soixante-huit fonctions objectives standard, y compris unimodale, multimodale à haute dimension, multimodale à dimension fixe, la suite de tests CEC 2015 et la suite de tests CEC 2017. Les informations sur ces fonctions de test sont précisées en annexe et dans les tableaux A1 à A5.

Les raisons du choix de ces fonctions de référence sont les suivantes. Les fonctions unimodales F1 à F7 sont adaptées pour évaluer la capacité d'exploitation des algorithmes métaheuristiques en convergence vers l'optimal global car ils n'ont pas d'optimum local. Les fonctions multimodales F8 à F23 sont des options appropriées pour évaluer la capacité d'exploration des algorithmes métaheuristiques en raison de l'optimum local multiple. Les suites de tests CEC 2015 et CEC 2017 ont des fonctions de référence complexes qui conviennent pour évaluer la capacité des algorithmes métaheuristiques à équilibrer l'exploration et l'exploitation pendant le processus de recherche. Les performances de WaOA sont comparées à dix algorithmes bien connus GA, PSO, GSA, TLBO, GWO, MVO, MPA, TSA, RSA et WSO pour déterminer la qualité des résultats de WaOA. Les valeurs définies pour les paramètres de contrôle des algorithmes employés sont spécifiées dans le tableau 1. Le WaOA et les algorithmes concurrents mentionnés ont été mis en œuvre sur F1 à F23, chacun en vingt exécutions indépendantes contenant mille itérations (c'est-à-dire \(T=1000\) ). Dans cette étude, le paramètre \(N\) est considéré égal à 20 pour WaOA, 30 pour TLBO et 60 pour les autres algorithmes concurrents pour égaliser le nombre d'évaluations de fonction. Dans ce cas, compte tenu de la complexité de calcul de chaque algorithme, le nombre d'évaluations de fonction pour chaque algorithme métaheuristique est égal à 60 000.

Les résultats de l'optimisation sont rapportés à l'aide de quatre indicateurs statistiques : moyenne, meilleur, écart type et médiane. De plus, le rang de chaque algorithme dans le traitement de chaque fonction objectif est déterminé sur la base du critère moyen.

Des fonctions objectifs unimodales ont été sélectionnées pour évaluer la capacité d'exploitation de WaOA dans la recherche locale en raison de l'absence d'une seule solution optimale principale et donc du manque de solutions locales. Les résultats de l'optimisation des fonctions F1 à F7 à l'aide de WaOA et des algorithmes concurrents sont publiés dans le tableau 2. Les résultats de la simulation montrent que WaOA a mis à disposition la solution globale optimale pour les fonctions objectifs F1, F3, F5 et F6. WaOA est également le meilleur optimiseur pour optimiser F2, F4 et F7. Une comparaison des résultats d'optimisation montre que WaOA a une supériorité très compétitive et évidente sur les dix algorithmes comparés.

Des fonctions multimodales de haute dimension avec plusieurs solutions optimales locales et globales ont été sélectionnées pour évaluer la capacité d'exploration WaOA dans la recherche globale. Les résultats d'optimisation des fonctions F8 à F13 utilisant WaOA et des algorithmes concurrents sont rapportés dans le tableau 3. Ce que l'on peut déduire des résultats de ce tableau est que WaOA a convergé vers l'optimum global en optimisant F9 et F11. WaOA est également le meilleur optimiseur pour optimiser F10, F12 et F13. TSA est le meilleur optimiseur pour la fonction objectif F8, tandis que WaOA est le deuxième meilleur optimiseur pour cette fonction objectif. L'analyse des résultats de la simulation montre que WaOA a une performance acceptable dans l'optimisation des fonctions objectives multimodales de grande dimension et a fourni un résultat supérieur par rapport à dix algorithmes concurrents.

Les fonctions multimodales de dimension fixe, qui ont moins de solutions locales que les fonctions F8 à F13, ont été sélectionnées pour évaluer la capacité de WaOA à équilibrer exploration et exploitation. Les résultats d'optimisation des fonctions F14 à F23 sont rapportés dans le tableau 4. Les résultats montrent que WaOA se classe au premier rang des meilleurs optimiseurs pour la gestion de toutes les fonctions F14 à F23. De plus, l'analyse des résultats de simulation montre la supériorité de WaOA sur dix algorithmes comparés en raison de la puissance élevée de WaOA dans l'équilibre entre l'exploration et l'exploitation.

Les performances de WaOA et des algorithmes concurrents dans la résolution des fonctions F1 à F23 sont présentées sous forme de boîtes à moustaches à la Fig. 3. L'analyse intuitive de ces boîtes à moustaches montre que l'approche WaOA proposée a fourni des performances supérieures et plus efficaces que les algorithmes concurrents en fournissant de meilleurs résultats en statistiques. indicateurs dans la plupart des fonctions de référence.

Le diagramme boxplot des performances de WaOA et des algorithmes concurrents sur les fonctions F1 à F23.

Dans cette sous-section, la supériorité de WaOA sur les algorithmes concurrents est analysée statistiquement pour déterminer si cette supériorité est significative ou non. Pour effectuer une analyse statistique des résultats obtenus, le test des rangs signés de Wilcoxon59 est utilisé. Le test de rang signé de Wilcoxon est un test non paramétrique utilisé pour détecter des différences significatives entre deux échantillons de données. Les résultats de l'analyse statistique à l'aide de ce test sont présentés dans le tableau 5. Ce qui ressort de l'étude des résultats de la simulation est que WaOA a une supériorité statistique significative sur l'algorithme concurrent dans les cas où la valeur \(p\) est inférieure supérieur à 0,05.

WaOA est un optimiseur basé sur la population qui exécute le processus d'optimisation dans un calcul répétitif. En conséquence, les paramètres \(N\) (le nombre de membres de la population) et \(T\) (le nombre total d'itérations de l'algorithme) devraient affecter les performances d'optimisation WaOA. Par conséquent, l'analyse de sensibilité de WaOA aux paramètres \(T\) et \(N\) est présentée dans cette sous-section.

Pour analyser la sensibilité de WaOA au paramètre \(N\), l'algorithme proposé pour différentes valeurs du paramètre \(N\) égales à 20, 30, 50 et 100 est utilisé pour optimiser les fonctions de F1 à F23. Les résultats de l'optimisation sont donnés dans le tableau 6, et les courbes de convergence de WaOA dans le cadre de cette analyse sont présentées à la figure 4. Ce qui ressort de l'analyse de la sensibilité de WaOA au paramètre \ (N \) est que l'augmentation des agents de recherche améliore la capacité de recherche de WaOA dans balayer l'espace de recherche, ce qui améliore les performances de l'algorithme proposé et réduit les valeurs de la fonction objectif.

Courbes de convergence de WaOA dans l'étude de l'analyse de sensibilité au paramètre \(N\).

Pour analyser la sensibilité de l'algorithme proposé au paramètre \(T\), WaOA pour différentes valeurs du paramètre \(T\) égales à 200, 500, 800 et 1000 est utilisée pour optimiser les fonctions de F1 à F23. Les résultats de l'optimisation figurent dans le tableau 7 et les courbes de convergence de WaOA dans le cadre de cette analyse sont présentées à la figure 5. Sur la base des résultats obtenus, on constate que l'augmentation des valeurs de \(T\) donne à l'algorithme plus de possibilités de converger vers de meilleures solutions en fonction de la capacité d'exploitation. Par conséquent, on peut voir qu'avec des valeurs croissantes de \(T\), le processus d'optimisation est devenu plus efficace et, par conséquent, les valeurs de la fonction objectif ont diminué.

Courbes de convergence de WaOA dans l'étude de l'analyse de sensibilité au paramètre \(T\).

Les résultats d'optimisation de la suite de tests CEC 2015, y compris C15–F1 à C15–F15 utilisant WaOA et des algorithmes concurrents, sont publiés dans le tableau 8. Les résultats de la simulation montrent que WaOA est le meilleur optimiseur pour C15–F1 à C15–F8, C15 –F10, C15–F13 et C15–F14. De plus, en résolvant C15–F9 après MVO, en C15–F11 après WSO, C15–F12 et C15–F15 après GSA, le WaOA proposé est le deuxième meilleur optimiseur. L'analyse des résultats de simulation montre que WaOA fournit de meilleurs résultats dans la plupart des fonctions de la suite de tests CEC 2015, et au total, avec le premier rang du meilleur optimiseur dans la gestion de la suite de tests CEC 2015, a fourni des performances supérieures par rapport aux algorithmes concurrents.

Les résultats d'emploi de WaOA et des algorithmes concurrents sur la suite de tests CEC 2017 comprenant les fonctions C17-F1 à C17-F30 sont présentés dans le tableau 9. Ce qui ressort de l'analyse des résultats de simulation est que WaOA est le premier meilleur optimiseur pour C17 Fonctions –F1 à C17–F6, C17–F8 à C17–F30. dans la résolution de C17-F7, WaOA proposé après GSA est le deuxième meilleur optimiseur. La comparaison des résultats de simulation montre que WaOA a fourni de meilleurs résultats dans la plupart des fonctions de la suite de tests CEC 2017 et a fourni des performances supérieures dans la résolution de cette suite de tests par rapport aux algorithmes concurrents.

Le consentement éclairé n'était pas requis car aucun être humain ou animal n'était impliqué.

Cet article ne contient aucune étude avec des participants humains ou des animaux réalisée par l'un des auteurs.

Les algorithmes métaheuristiques sont l'une des techniques les plus largement utilisées pour traiter les applications du monde réel. Cette section teste les performances de WaOA dans l'optimisation de quatre défis de conception technique et de vingt-deux problèmes d'optimisation contraints de la suite de tests CEC 2011. Il est à noter que pour modéliser les contraintes des problèmes d'optimisation, la fonction de pénalité a été utilisée. Ainsi, si une solution ne respecte aucune des contraintes du problème, un coefficient de pénalité est ajouté à la valeur de sa fonction objectif correspondant à chaque non-respect de la contrainte, et par conséquent, on parle de solution inappropriée .

La conception des ressorts de tension/compression est un défi dans les applications du monde réel dans le but de minimiser le poids du ressort de tension/compression. Un schéma de cette conception est illustré à la Fig. 659. La formulation du problème de ressort de traction/compression est la suivante :

Vue schématique du problème du ressort de tension/compression.

Considérons \(X=\left[{x}_{1}, {x}_{2}, {x}_{3} \right]=\left[d, D, P\right].\)

Réduire \(f \left(X\right)=\left({x}_{3}+2\right){x}_{2}{x}_{1}^{2}.\)

Sujet à:

Avec.

\(0.05\le {x}_{1}\le 2, {0.25\le x}_{2}\le 1.3\mathrm{ and }2\le {x}_{3}\le 15\).

Les résultats de l'utilisation de WaOA et d'algorithmes concurrents pour optimiser les variables de conception des ressorts de traction/compression sont présentés dans le tableau 10. Les résultats de la simulation montrent que WaOA a fourni la solution optimale à ce problème avec les valeurs des variables égales à (0,0519693, 0,363467, 10,9084) et la valeur de la fonction objectif correspondante égale à 0,012672. Les résultats statistiques obtenus à partir des performances de WaOA et des algorithmes concurrents sont rapportés dans le tableau 11, qui montre la supériorité de WaOA à fournir de meilleures valeurs pour les indicateurs statistiques. La courbe de convergence WaOA tout en réalisant la solution pour le ressort de tension/compression est illustrée à la Fig. 7.

Analyse de convergence de la WaOA pour le problème d'optimisation de la conception des ressorts de traction/compression.

La conception de poutres soudées est un véritable défi mondial en sciences de l'ingénieur dont l'objectif principal en conception est de réduire le coût de fabrication de la poutre soudée. Un schéma de cette conception est illustré à la Fig. 860. La formulation du problème de conception de poutres soudées est la suivante :

Vue schématique du problème de conception de poutres soudées.

Considérons \(X=\left[{x}_{1}, {x}_{2}, {x}_{3}, {x}_{4}\right]=\left[h, l, t, b\droite]\).

Minimiser \(f (X)=1.10471{x}_{1}^{2}{x}_{2}+0.04811{x}_{3}{x}_{4} (14.0+{x}_ {2})\).

Sujet à:

Avec

WaOA et des algorithmes concurrents sont mis en œuvre sur le problème de conception de poutres soudées, et les résultats sont présentés dans le tableau 12. Sur la base de ces résultats, WaOA a fourni la solution optimale à ce problème avec les valeurs des variables égales à (0,20573, 3,470489, 9,036624 , 0,20573) et la valeur de la fonction objectif correspondante égale à 1,724901. Les résultats statistiques des performances de WaOA et des algorithmes concurrents sont présentés dans le tableau 13. Ce tableau montre que WaOA fonctionne mieux en termes d'indicateurs statistiques. La courbe de convergence de la mise en œuvre WaOA sur la conception de la poutre soudée est illustrée à la Fig. 9.

Analyse de convergence de la WaOA pour le problème d'optimisation de la conception des poutres soudées.

La conception du réducteur de vitesse est un défi d'optimisation technique dans le monde réel visant à minimiser le poids du réducteur de vitesse. Un schéma de cette conception est illustré à la Fig. 1061,62. Le problème de conception du réducteur de vitesse est formulé comme suit :

Vue schématique du problème de conception du réducteur de vitesse.

Considérez \(X=\left[{x}_{1,} {x}_{2}, {x}_{3}, {x}_{4}, {x}_{5}{ ,x }_{6} ,{x}_{7}\right]=\left[b, m, p, {l}_{1}, {l}_{2}, {d}_{1}, {d}_{2}\droite]\).

Réduire \(f \left(X\right)=0.7854{x}_{1}{x}_{2}^{2}\left(3.3333{x}_{3}^{2}+14.9334{x }_{3}-43.0934\right)-1.508{x}_{1}\left({x}_{6}^{2}+{x}_{7}^{2}\right)+7.4777 \left({x}_{6}^{3}+{x}_{7}^{3}\right)+0.7854({x}_{4}{x}_{6}^{2} +{x}_{5}{x}_{7}^{2})\).

Sujet à:

Avec

Les résultats obtenus en utilisant WaOA et les algorithmes concurrents dans l'optimisation de la conception des réducteurs de vitesse sont rapportés dans le tableau 14. Les résultats montrent que WaOA a fourni la solution optimale à ce problème avec les valeurs des variables égales à (3,5, 0,7, 17, 7,3, 7,8, 3,35021, 5,28668) et la valeur de la fonction objectif correspondante égale à 2996,3482. Les résultats statistiques obtenus à partir de WaOA et les algorithmes comparés dans le tableau 15 sont publiés, ce qui indique la supériorité de la WaOA proposée. La courbe de convergence WaOA tout en obtenant la solution au problème de conception du réducteur de vitesse est illustrée à la Fig. 11.

Analyse de convergence de la WaOA pour le problème d'optimisation de la conception du réducteur de vitesse.

La conception de récipients sous pression est un défi d'optimisation réel qui vise à réduire les coûts de conception. Un schéma de cette conception est illustré à la Fig. 1263. La formulation du problème de conception d'un récipient sous pression est la suivante :

Vue schématique du problème de conception d'un récipient sous pression.

Considérons \(X=\left[{x}_{1}, {x}_{2}, {x}_{3}, {x}_{4}\right]=\left[{T}_ {s}, {T}_{h}, R, L\droite]\).

Réduire \(f \left(X\right)=0.6224{x}_{1}{x}_{3}{x}_{4}+1.778{x}_{2}{x}_{3} ^{2}+3.1661{x}_{1}^{2}{x}_{4}+19.84{x}_{1}^{2}{x}_{3}.\)

Sujet à:

Avec

WaOA et des algorithmes concurrents sont utilisés pour optimiser la conception des récipients sous pression. Les résultats obtenus pour les variables de conception de ce sujet sont publiés dans le tableau 16. Sur la base de ce tableau, WaOA fournit les valeurs optimales des variables de conception égales à (0,7782641, 0,3847753, 40,32163, 199,8713), ce qui conduit à la valeur égale à 5883,9604 pour la fonction objectif. Les résultats des indicateurs statistiques obtenus sur les performances de WaOA et des algorithmes concurrents sont présentés dans le tableau 17. Les résultats statistiques indiquent que WaOA a efficacement optimisé le défi de conception des appareils sous pression en fournissant des valeurs plus favorables pour les indicateurs statistiques. La courbe de convergence WaOA pour obtenir la solution optimale est illustrée à la Fig. 13.

Analyse de convergence de la WaOA pour le problème d'optimisation de la conception des récipients sous pression.

Dans cette sous-section, les performances de WaOA dans la gestion des applications du monde réel sont mises au défi sur vingt-deux problèmes d'optimisation contraints de la suite de tests CEC 2011. Cette suite de tests comporte vingt-deux problèmes d'optimisation, à savoir : l'estimation des paramètres pour les ondes sonores modulées en fréquence (FM), le problème du potentiel de Lennard-Jones, le problème de contrôle optimal du mélange de catalyseur bifonctionnel, le contrôle optimal d'un réacteur à cuve agitée non linéaire, le Tersoff potentiel pour le modèle Si (B), le potentiel de Tersoff pour le modèle Si (C), la conception de code polyphasé radar à spectre étalé, le problème de planification de l'expansion du réseau de transmission (TNEP), le problème de tarification de la transmission à grande échelle, le problème de conception de réseau d'antennes circulaires et l'ELD problèmes (qui consistent en l'instance DED 1, l'instance DED 2, l'instance ELD 1, l'instance ELD 2, l'instance ELD 3, l'instance ELD 4, l'instance ELD 5, l'instance de planification hydrothermale 1, l'instance de planification hydrothermale 2 et l'instance de planification hydrothermale 3), le problème d'optimisation de la trajectoire de l'engin spatial Messenger et le problème d'optimisation de la trajectoire de l'engin spatial Cassini 2. Tous les détails et la description de la suite de tests CEC 2011 sont disponibles sur64. Les résultats de l'utilisation de WaOA et d'algorithmes concurrents sur ces problèmes d'optimisation du monde réel sont présentés dans le tableau 18. Les diagrammes de boîtes à moustaches obtenus à partir des performances des algorithmes métaheuristiques dans la gestion des problèmes d'optimisation de la suite de tests CEC 2011 sont dessinés à la Fig. 14. Sur la base de la simulation résultats, WaOA est le premier meilleur optimiseur à résoudre tous les problèmes d'optimisation C11–F1 à C11–F22. Sur la base des résultats de simulation, l'approche WaOA proposée a fourni de meilleurs résultats dans la plupart des problèmes d'optimisation et a fourni des performances supérieures dans la gestion de la suite de tests CEC 2011 en concurrence avec des algorithmes concurrents. De plus, les résultats obtenus à partir de l'analyse statistique pour la valeur \(p\) montrent que WaOA a une supériorité statistique significative par rapport aux algorithmes concurrents.

Diagrammes Boxplot des performances de WaOA et des algorithmes concurrents sur la suite de tests CEC 2011.

Dans cette étude, un nouvel algorithme métaheuristique bio-inspiré appelé Walrus Optimization Algorithm (WaOA) a été développé sur la base des comportements naturels des morses. Se nourrir, s'échapper, combattre les prédateurs et migrer sont les principales sources d'inspiration utilisées dans la conception de WaOA. Par conséquent, la théorie WaOA a été expliquée et sa modélisation mathématique a été présentée en trois phases : (i) stratégie d'alimentation, (ii) migration et (iii) fuite et lutte contre les prédateurs. Soixante-huit fonctions de référence standard de divers types d'unités unimodales, multimodales, la suite de tests CEC 2015 et la suite de tests CEC 2017 ont été utilisées pour analyser les performances de WaOA dans la fourniture de solutions. Les informations sur ces fonctions de test sont précisées en annexe et dans les tableaux A1 à A5. Les résultats d'optimisation des fonctions unimodales ont montré la grande capacité de l'exploitation de WaOA en recherche locale à converger vers l'optimum global. Les résultats d'optimisation des fonctions multimodales ont indiqué la grande capacité de l'exploration WaOA dans la recherche globale et de ne pas être pris dans des solutions localement optimales. Les résultats de performance de WaOA ont été comparés aux dix algorithmes métaheuristiques bien connus. Les résultats de la simulation et de la comparaison ont montré que l'approche WaOA proposée a une grande capacité à équilibrer l'exploration et l'exploitation et est bien supérieure et plus compétitive par rapport à dix algorithmes métaheuristiques concurrents. De plus, les résultats de la mise en œuvre de WaOA dans la résolution des quatre problèmes de conception et des vingt-deux problèmes d'optimisation du monde réel de la suite de tests CEC 2011 démontrent l'efficacité de l'approche proposée dans les applications du monde réel.

Bien qu'il ait été observé que WaOA avait fourni des résultats supérieurs dans la plupart des fonctions de référence, l'approche proposée présente certaines limites. La première limitation à laquelle sont confrontés tous les algorithmes métaheuristiques est qu'il est toujours possible de concevoir de nouveaux algorithmes qui peuvent fournir de meilleurs résultats que les algorithmes existants. La deuxième limitation de WaOA est que la méthode proposée peut échouer dans certaines applications d'optimisation. La troisième limitation de WaOA est que la nature de la recherche aléatoire dans cet algorithme conduit au fait qu'il n'y a aucune garantie d'atteindre l'optimum global. De plus, les auteurs ne prétendent pas que l'approche WaOA proposée est le meilleur optimiseur pour toutes les tâches d'optimisation possibles. Ce fait, bien sûr, ne peut être dit à propos d'aucun optimiseur en raison de la validité du théorème NFL.

Les auteurs proposent plusieurs directions d'étude pour les recherches futures, notamment la conception de la version multi-objectifs de WaOA et de la version binaire de WaOA. De plus, l'utilisation de WaOA dans la résolution de problèmes d'optimisation dans des applications du monde réel est une voie possible pour des recherches ultérieures.

Toutes les données générées ou analysées au cours de cette étude sont incluses directement dans le texte de ce manuscrit soumis. Il n'y a pas de fichiers externes supplémentaires avec des ensembles de données.

Gill, PE, Murray, W. & Wright, MH Optimisation pratique (SIAM, 2019).

Livre MATH Google Scholar

Kvasov, DE & Mukhametzhanov, MS Algorithmes d'optimisation globale métaheuristique vs déterministe : le cas univarié. Appl. Mathématiques. Calcul. 318, 245-259 (2018).

MathSciNet MATHGoogle Scholar

Cavazzuti, M. Méthodes d'optimisation : de la théorie à la conception Aspects scientifiques et technologiques en mécanique 77-102 (Springer, 2013).

MATH Google Scholar

Dehghani, M., Hubálovský, Š. & Trojovský, P. Optimisation du diable de Tasmanie : un nouvel algorithme d'optimisation bio-inspiré pour résoudre l'algorithme d'optimisation. Accès IEEE (2022).

Cervone, G., Franzese, P. & Keesee, AP L'algorithme d'apprentissage quasi-optimal (AQ). Wiley interdisciplinaire. Rév. L'informatique. Statistique 2, 218-236 (2010).

Article Google Scholar

Osuna-Enciso, V., Cuevas, E. & Chestnut, BM Une métrique de diversité pour les algorithmes métaheuristiques basés sur la population. Inf. Sci. Rév.586, 192–208 (2022).

Article Google Scholar

Gharehchopogh, FS, Maleki, I. & Dizaji, ZA Algorithme de recherche de vortex chaotique : algorithme métaheuristique pour la sélection de caractéristiques. Évol. Intel. 15, 1777-1808 (2022).

Article Google Scholar

Mohammadzadeh, H. & Gharehchopogh, FS Un système multi-agents basé sur la résolution de problèmes d'optimisation de grande dimension : une étude de cas sur la détection de spam par e-mail. Int. J. Commun. Syst. 34, e4670 (2021).

Article Google Scholar

Wolpert, DH & Macready, WG Pas de théorèmes gratuits pour l'optimisation. IEEE Trans. Évol. Calcul. 1, 67–82 (1997).

Article Google Scholar

Goldberg, DE & Holland, JH Algorithmes génétiques et apprentissage automatique. Mach. Apprendre. 3, 95–99. https://doi.org/10.1023/A:1022602019183 (1988).

Article Google Scholar

Storn, R. & Price, K. Évolution différentielle : une heuristique simple et efficace pour l'optimisation globale sur des espaces continus. J. Glob. Optim. 11, 341–359 (1997).

Article MathSciNet MATH Google Scholar

Kennedy, J. & Eberhart, R. dans Actes de l'ICNN'95 : Conférence internationale sur les réseaux de neurones, vol.1944, 1942-1948 (IEEE, 2023).

Zaman, HRR & Gharehchopogh, FS Une optimisation améliorée de l'essaim de particules avec un algorithme d'optimisation de la recherche de retour en arrière pour résoudre les problèmes d'optimisation continue. Ing. Calcul. 1, 1–35 (2021).

Google Scholar

Dorigo, M., Maniezzo, V. & Colorni, A. Système Ant : Optimisation par une colonie d'agents coopérants. IEEE Trans. Syst. Homme Cybern. B 26, 29–41 (1996).

Article CAS Google Scholar

Mirjalili, S., Mirjalili, SM & Lewis, A. L'optimiseur Grey Wolf. Adv. Ing. Logiciel 69 , 46–61 . https://doi.org/10.1016/j.advengsoft.2013.12.007 (2014).

Article Google Scholar

Faramarzi, A., Heidarinejad, M., Mirjalili, S. & Gandomi, AH Algorithme des prédateurs marins : une métaheuristique inspirée de la nature. Système expert. Appl. 152, 113377 (2020).

Article Google Scholar

Kaur, S., Awasthi, LK, Sangal, AL & Dhiman, G. Algorithme d'essaim de tuniciers : un nouveau paradigme métaheuristique bio-inspiré pour l'optimisation globale. Ing. Appl. Artef. Renseignement. 90, 103541. https://doi.org/10.1016/j.engappai.2020.103541 (2020).

Article Google Scholar

Braik, M., Hammouri, A., Atwan, J., Al-Betar, MA & Awadallah, MA Optimiseur de requin blanc : un nouvel algorithme méta-heuristique bio-inspiré pour les problèmes d'optimisation globale. Savoir. Syst. 243, 108457 (2022).

Article Google Scholar

Abualigah, L., Abd Elaziz, M., Sumari, P., Geem, ZW & Gandomi, AH Reptile search algorithm (RSA): Un optimiseur méta-heuristique inspiré de la nature. Système expert. Appl. 191, 116158 (2022).

Article Google Scholar

Koohi, SZ, Hamid, NAWA, Othman, M. & Ibragimov, G. Algorithme d'optimisation du raton laveur. Accès IEEE 7, 5383–5399 (2018).

Article Google Scholar

Abdollahzadeh, B., Gharehchopogh, FS & Mirjalili, S. Algorithme d'optimisation des vautours africains : un nouvel algorithme métaheuristique inspiré de la nature pour les problèmes d'optimisation globale. Calcul. Ing. ind. 158, 107408 (2021).

Article Google Scholar

Shayanfar, H. & Gharehchopogh, FS Fertilité des terres agricoles : un nouvel algorithme métaheuristique pour résoudre les problèmes d'optimisation continue. Appl. Calcul doux. 71, 728–746 (2018).

Article Google Scholar

Gharehchopogh, FS, Ucan, A., Ibrikci, T., Arasteh, B. & Isik, G. Algorithme de moisissure visqueuse : une étude complète de ses variantes et applications. Cambre. Calcul. Méthodes Ing. 1, 1–41 (2023).

Google Scholar

Abdollahzadeh, B., Gharehchopogh, FS, Khodadadi, N. & Mirjalili, S. Optimiseur de gazelle de montagne : un nouvel algorithme métaheuristique inspiré de la nature pour les problèmes d'optimisation globale. Adv. Ing. Logiciel 174, 103282 (2022).

Article Google Scholar

Gharehchopogh, FS, Namazi, M., Ebrahimi, L. & Abdollahzadeh, B. Avancées dans l'algorithme de recherche de moineaux : une enquête complète. Cambre. Calcul. Méthodes Ing. 30, 427–455 (2023).

Article Google Scholar

Shen, Y., Zhang, C., Gharehchopogh, FS et Mirjalili, S. Un algorithme amélioré d'optimisation des baleines basé sur l'évolution de plusieurs populations pour l'optimisation globale et les problèmes de conception technique. Système expert. Appl. 215, 119269 (2023).

Article Google Scholar

Abdollahzadeh, B., Soleimanian Gharehchopogh, F. & Mirjalili, S. Optimiseur de troupes de gorilles artificielles : un nouvel algorithme métaheuristique inspiré de la nature pour les problèmes d'optimisation globale. Int. J. Intel. Syst. 36, 5887–5958 (2021).

Article Google Scholar

Trojovský, P. & Dehghani, M. Algorithme d'optimisation Pelican : un nouvel algorithme inspiré de la nature pour les applications d'ingénierie. Capteurs 22, 855 (2022).

Article ADS PubMed PubMed Central Google Scholar

Kirkpatrick, S., Gelatt, CD & Vecchi, MP Optimisation par recuit simulé. Sciences 220, 671–680 (1983).

Article ADS MathSciNet CAS PubMed MATH Google Scholar

Rashedi, E., Nezamabadi-Pour, H. & Saryazdi, S. GSA : Un algorithme de recherche gravitationnelle. Inf. Sci. 179, 2232-2248 (2009).

Article MATH Google Scholar

Mirjalili, S., Mirjalili, SM & Hatamlou, A. Optimiseur multivers : un algorithme inspiré de la nature pour l'optimisation globale. Calcul neuronal. Appl. 27, 495-513 (2016).

Article Google Scholar

Eskandar, H., Sadollah, A., Bahreininejad, A. & Hamdi, M. Algorithme du cycle de l'eau : une nouvelle méthode d'optimisation métaheuristique pour résoudre des problèmes d'optimisation d'ingénierie sous contrainte. Calcul. Structure. 110, 151–166 (2012).

Article Google Scholar

Dehghani, M. et al. Un algorithme de recherche de printemps appliqué aux problèmes d'optimisation d'ingénierie. Appl. Sci. 10, 6173 (2020).

Article CAS Google Scholar

Zhao, W., Wang, L. & Zhang, Z. Optimisation de la recherche atomique et son application pour résoudre un problème d'estimation de paramètres hydrogéologiques. Savoir. Syst. 163, 283–304 (2019).

Article Google Scholar

Gharehchopogh, Algorithmes métaheuristiques inspirés de FS Quantum : enquête et classification complètes. Artef. Renseignement. Rév. 56, 5479–5483 (2022).

Article Google Scholar

Dehghani, M. & Samet, H. Momentum search algorithm : Un nouvel algorithme d'optimisation méta-heuristique inspiré de la loi de conservation de la quantité de mouvement. SN Appl. Sci. 2, 1–15. https://doi.org/10.1007/s42452-020-03511-6 (2020).

Article Google Scholar

Wei, Z., Huang, C., Wang, X., Han, T. & Li, Y. Optimisation des réactions nucléaires : un nouvel algorithme puissant basé sur la physique pour l'optimisation globale. Accès IEEE 7, 66084–66109 (2019).

Article Google Scholar

Rao, RV, Savsani, VJ & Vakharia, D. Optimisation basée sur l'enseignement-apprentissage : une nouvelle méthode pour les problèmes d'optimisation de conception mécanique sous contrainte. Calcul. Des aidés. 43, 303–315 (2011).

Article Google Scholar

Moosavi, SHS & Bardsiri, VK Algorithme d'optimisation pauvre et riche : un nouvel algorithme basé sur l'homme et multi-populations. Ing. Appl. Artif. Renseignement. 86, 165-181 (2019).

Article Google Scholar

Zeidabadi, F.-A. et coll. Algorithme de tir à l'arc : un nouvel algorithme d'optimisation stochastique pour résoudre les problèmes d'optimisation. Calcul. Mater. Continuer. 72, 399-416 (2022).

Google Scholar

Shi, Y. Algorithme d'optimisation de la tempête cérébrale. Conférence internationale sur l'intelligence en essaim, 303–309 (Springer, 2011).

Dehghani, M. et al. Un nouvel algorithme d'optimisation "médecin et patient": une application au problème d'engagement énergétique. Appl. Sci. 10, 5791 (2020).

Article CAS Google Scholar

Ayyarao, TL et al. Algorithme d'optimisation de la stratégie de guerre : un nouvel algorithme métaheuristique efficace pour l'optimisation globale. Accès IEEE 10, 25073 (2022).

Article Google Scholar

Dehghani, M. & Trojovský, P. Algorithme d'optimisation du travail d'équipe : une nouvelle approche d'optimisation pour la minimisation/maximisation des fonctions. Capteurs 21, 4567 (2021).

Article ADS PubMed PubMed Central Google Scholar

Kaveh, A. & Zolghadr, A. Un nouvel algorithme méta-heuristique : optimisation du tir à la corde. Université d'Iran. Sci. Technol. 6, 469–492 (2016).

Google Scholar

Moghdani, R. & Salimifard, K. Algorithme de première ligue de volleyball. Appl. Calcul doux. 64, 161-185 (2018).

Article Google Scholar

Zeidabadi, FA & Dehghani, M. POA : Algorithme d'optimisation de puzzle. Int. J. Intel. Ing. Syst. 15, 273–281 (2022).

Google Scholar

Dehghani, M., Montazeri, Z., Malik, OP, Ehsanifar, A. & Dehghani, A. OSA : Algorithme de recherche d'orientation. Int. J. Ind. Electron. Contrôle Optim. 2, 99-112 (2019).

Google Scholar

Doumari, SA, Givi, H., Dehghani, M. & Malik, OP Algorithme d'optimisation basé sur le jeu de lancer d'anneaux pour résoudre divers problèmes d'optimisation. Int. J. Intel. Ing. Syst. 14, 545-554 (2021).

Google Scholar

Dehghani, M., Mardaneh, M., Guerrero, JM, Malik, O. & Kumar, V. Optimisation basée sur le jeu de football : une application pour résoudre le problème de l'engagement énergétique. Int. J. Intel. Ing. Syst. 13, 514-523 (2020).

Google Scholar

Dehghani , M. , Montazeri , Z. & Malik , OP DGO : Optimiseur de jeux de dés . Université de Gazi J. Sci. 32, 871–882 (2019).

Article Google Scholar

Wilson, DE & Reeder, DM Espèces de mammifères du monde : Une référence taxonomique et géographique Vol. 1 (presses JHU, 2005).

Réserver Google Scholar

Fay, FH L'écologie et la biologie du morse du Pacifique, Odobenus rosmarus divergence Illiger. N. Am. Faune 74, 1–279 (1982).

Article Google Scholar

Fischbach, AS, Kochnev, AA, Garlich-Miller, JL & Jay, CV Base de données sur les haulouts côtiers des morses du Pacifique, 1852–2016—Rapport d'information. Rapport n° 2331-1258 (US Geological Survey, 2016).

Jefferson, TA, Stacey, PJ & Baird, RW Un examen des interactions des épaulards avec d'autres mammifères marins : de la prédation à la coexistence. Mamm. Rév. 21, 151–180 (1991).

Article Google Scholar

Christman, B. NOAA Corps. https://www.upload.wikimedia.org/wikipedia/commons/c/ce/Noaa-walrus22.jpg.

Sheffield, G., Fay, FH, Feder, H. et Kelly, BP Digestion en laboratoire des proies et interprétation du contenu de l'estomac des morses. Mar. Mamm. Sci. 17, 310-330 (2001).

Article Google Scholar

Levermann, N., Galatius, A., Ehlme, G., Rysgaard, S. & Born, EW Comportement alimentaire des morses en liberté avec des notes sur la dextralité apparente de l'utilisation des nageoires. BMC Écol. 3, 1–13 (2003).

Article Google Scholar

Wilcoxon, F. Comparaisons individuelles par méthodes de classement. Biomètre. Taureau. 1, 80–83 (1945).

Article Google Scholar

Mirjalili, S. & Lewis, A. L'algorithme d'optimisation des baleines. Adv. Ing. Logiciel Rév. 95, 51–67 (2016).

Article Google Scholar

Gandomi, AH & Yang, X.-S. Optimisation computationnelle, méthodes et algorithmes 259–281 (Springer, Londres, 2011).

Livre MATH Google Scholar

Mezura-Montes, E. & Coello, CAC Conférence internationale mexicaine sur l'intelligence artificielle, 652–662 (Springer, 2023).

Kannan, B. & Kramer, SN Une méthode basée sur un multiplicateur de Lagrange augmenté pour l'optimisation continue discrète entière mixte et ses applications à la conception mécanique. J. Mech. Dés. 116, 405–411 (1994).

Article Google Scholar

Das, S. & Suganthan, PN Définitions des problèmes et critères d'évaluation pour le concours CEC 2011 sur les tests d'algorithmes évolutionnaires sur les problèmes d'optimisation du monde réel 341–359 (Université de Jadavpur, 2010).

Google Scholar

Télécharger les références

Ce travail a été soutenu par le projet d'excellence, Faculté des sciences, Université de Hradec Králové, n° 2210/2023-2024.

Département de mathématiques, Faculté des sciences, Université de Hradec Králové, Rokitanského 62, Hradec Králové, 500 03, République tchèque

Pavel Trojovsky et Mohammad Dehghani

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Conceptualisation, PT ; méthodologie, PT ; logiciel, MD ; validation, PT et MD ; analyse formelle, MD ; enquête, PT ; ressources, PT. ; conservation des données, PT et MD ; rédaction—préparation du brouillon original, PT et MD ; rédaction—révision et édition, PT et MD ; visualisation, physiothérapie ; supervision, PT. ; administration de projets, MD ; acquisition de financement, PT

Correspondance à Pavel Trojovský.

Les auteurs ne déclarent aucun intérêt concurrent.

Springer Nature reste neutre en ce qui concerne les revendications juridictionnelles dans les cartes publiées et les affiliations institutionnelles.

Libre accès Cet article est sous licence Creative Commons Attribution 4.0 International, qui autorise l'utilisation, le partage, l'adaptation, la distribution et la reproduction sur tout support ou format, à condition que vous accordiez le crédit approprié à l'auteur ou aux auteurs originaux et à la source, fournissez un lien vers la licence Creative Commons et indiquez si des modifications ont été apportées. Les images ou tout autre matériel de tiers dans cet article sont inclus dans la licence Creative Commons de l'article, sauf indication contraire dans une ligne de crédit au matériel. Si le matériel n'est pas inclus dans la licence Creative Commons de l'article et que votre utilisation prévue n'est pas autorisée par la réglementation légale ou dépasse l'utilisation autorisée, vous devrez obtenir l'autorisation directement du détenteur des droits d'auteur. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by/4.0/.

Réimpressions et autorisations

Trojovský, P., Dehghani, M. Un nouvel algorithme métaheuristique bio-inspiré pour résoudre les problèmes d'optimisation basés sur le comportement des morses. Sci Rep 13, 8775 (2023). https://doi.org/10.1038/s41598-023-35863-5

Télécharger la citation

Reçu : 17 octobre 2022

Accepté : 24 mai 2023

Publié: 31 mai 2023

DOI : https://doi.org/10.1038/s41598-023-35863-5

Toute personne avec qui vous partagez le lien suivant pourra lire ce contenu :

Désolé, aucun lien partageable n'est actuellement disponible pour cet article.

Fourni par l'initiative de partage de contenu Springer Nature SharedIt

En soumettant un commentaire, vous acceptez de respecter nos conditions d'utilisation et nos directives communautaires. Si vous trouvez quelque chose d'abusif ou qui ne respecte pas nos conditions ou directives, veuillez le signaler comme inapproprié.