Treffer: A Lifetime Extended Energy Management Strategy for Fuel Cell Hybrid Electric Vehicles via Self-Learning Fuzzy Reinforcement Learning

Title:
A Lifetime Extended Energy Management Strategy for Fuel Cell Hybrid Electric Vehicles via Self-Learning Fuzzy Reinforcement Learning
Une stratégie de gestion de l'énergie prolongée à vie pour les véhicules électriques hybrides à pile à combustible via l'apprentissage par renforcement flou par auto-apprentissage
Contributors:
Pronostic-Diagnostic Et CommAnde : Santé et Energie (PECASE), Laboratoire d'Informatique et des Systèmes (LIS) (Marseille, Toulon) (LIS), Aix Marseille Université (AMU)-Université de Toulon (UTLN)-Centre National de la Recherche Scientifique (CNRS)-Aix Marseille Université (AMU)-Université de Toulon (UTLN)-Centre National de la Recherche Scientifique (CNRS), Aix Marseille Université (AMU), Franche-Comté Électronique Mécanique, Thermique et Optique - Sciences et Technologies (UMR 6174) (FEMTO-ST), Université de Technologie de Belfort-Montbeliard (UTBM)-Ecole Nationale Supérieure de Mécanique et des Microtechniques (ENSMM)-Centre National de la Recherche Scientifique (CNRS)-Université de Franche-Comté (UFC), Université Bourgogne Franche-Comté [COMUE] (UBFC)-Université Bourgogne Franche-Comté [COMUE] (UBFC), Université de Technologie de Belfort-Montbeliard (UTBM), IEEE, ANR-20-CE05-0016,DEAL,Amélioration de la durabilité des véhicules électriques à pile à combustible en explorant le contrôle basé sur l'apprentissage à plusieurs niveaux(2020)
Source:
2022 10th International Conference on Systems and Control (ICSC). :161-167
Publisher Information:
CCSD, 2022.
Publication Year:
2022
Collection:
collection:UNIV-TLN
collection:CNRS
collection:UNIV-AMU
collection:UNIV-FCOMTE
collection:UNIV-BM
collection:ENSMM
collection:FEMTO-ST
collection:UNIV-BM-THESE
collection:TDS-MACS
collection:LIS-LAB
collection:ANR
collection:INCIAM
Subject Geographic:
Original Identifier:
ARXIV: 2302.06236
HAL: hal-03981946
Document Type:
Konferenz conferenceObject<br />Conference papers
Language:
English
Relation:
info:eu-repo/semantics/altIdentifier/arxiv/2302.06236; info:eu-repo/semantics/altIdentifier/doi/10.1109/ICSC57768.2022.9993916
DOI:
10.1109/ICSC57768.2022.9993916
Rights:
info:eu-repo/semantics/OpenAccess
Accession Number:
edshal.hal.03981946v1
Database:
HAL

Weitere Informationen

Modeling difficulty, time-varying model, and uncertain external inputs are the main challenges for energy management of fuel cell hybrid electric vehicles. In the paper, a fuzzy reinforcement learning-based energy management strategy for fuel cell hybrid electric vehicles is proposed to reduce fuel consumption, maintain the batteries' long-term operation, and extend the lifetime of the fuel cells system. Fuzzy Q-learning is a model-free reinforcement learning that can learn itself by interacting with the environment, so there is no need for modeling the fuel cells system. In addition, frequent startup of the fuel cells will reduce the remaining useful life of the fuel cells system. The proposed method suppresses frequent fuel cells startup by considering the penalty for the times of fuel cell startups in the reward of reinforcement learning. Moreover, applying fuzzy logic to approximate the value function in Q-Learning can solve continuous state and action space problems. Finally, a python-based training and testing platform verify the effectiveness and self-learning improvement of the proposed method under conditions of initial state change, model change and driving condition change.
La difficulté de modélisation, le modèle variant dans le temps et les entrées externes incertaines sont les principaux défis pour la gestion de l'énergie des véhicules électriques hybrides à pile à combustible. Dans l'article, une stratégie de gestion de l'énergie basée sur l'apprentissage par renforcement flou pour les véhicules électriques hybrides à pile à combustible est proposée pour réduire la consommation de carburant, maintenir le fonctionnement à long terme des batteries et prolonger la durée de vie du système de piles à combustible. Le Fuzzy Q-learning est un apprentissage par renforcement sans modèle qui peut s'apprendre en interagissant avec l'environnement, il n'est donc pas nécessaire de modéliser le système de piles à combustible. De plus, un démarrage fréquent des piles à combustible réduira la durée de vie utile restante du système de piles à combustible. La méthode proposée supprime le démarrage fréquent des piles à combustible en considérant la pénalité pour les temps de démarrage des piles à combustible dans la récompense de l'apprentissage par renforcement. De plus, l'application de la logique floue pour approximer la fonction de valeur dans Q-Learning peut résoudre des problèmes d'état continu et d'espace d'action. Enfin, une plateforme de formation et de test basée sur Python vérifie l'efficacité et l'amélioration de l'auto-apprentissage de la méthode proposée dans des conditions de changement d'état initial, de changement de modèle et de changement de condition de conduite.