Onderzoeksgroep

SAFIR - Stabiliteitsbewust aanpasbaar framework voor industriële reinforcement learning. 01/12/2025 - 30/11/2029

Abstract

Dit project ontwikkelt een nieuw framework dat de klassieke regeltheorie en reinforcement learning (RL) met elkaar verbindt om stabiele trainging, exploratie en inferentie in sterk niet-lineaire, veiligheidskritische systemen te waarborgen. Door gebruik te maken van data-gedreven technieken om Control Lyapunov Functions (CLF's) direct te leren van gesloten-lusdata, lost de voorgestelde methode de uitdagingen op die gepaard gaan met traditionele, modelgebaseerde CLF-ontwerpen en de inherente instabiliteitsrisico's van standaard RL-algoritmen. Het framework integreert drie kerncomponenten: (1) het leren van de dynamica van het systeem om instabiele acties te voorspellen en te voorkomen; (2) het imiteren van een bewezen klassieke regelaar (bijv. een Sliding Mode Controller) om RL-policy te initialiseren; en (3) het toepassen van een actor-critic RL-schema waarbij de geleerde CLF's fungeren als stabiliteitscritici, die klassieke regelaar-interventies activeren indien nodig. Validatie op een benchmark met een Proton Exchange Membrane (PEM) brandstofcel en water-elektrolyse systeem toont aan dat het framework niet alleen de stabiliteit behoudt, maar ook de algehele regelprestatie verbetert. De verwachte resultaten omvatten verbeterde veiligheid, operationele efficiëntie en verminderde economische en milieueffecten in industriële chemische processen.

Onderzoeker(s)

Onderzoeksgroep(en)

Project type(s)

  • Onderzoeksproject