Séminaires Séminaires du GDR IA

Nous sommes heureux de vous annoncer le lancement des séminaires
mensuels du GDR IA, qui verront intervenir chaque mois un orateur sur
un sujet différent, proposés par les groupes de travail du GDR ou les
membres du comité scientifique.

Le but de ces exposés est de mettre en lumière, au sein d’un exposé
accessible à la plus grande partie de la communauté, les domaines
variés couverts par le GDR et ses activités. Si la langue des slides
et du discours sont laissés au choix de l’orateur, notre préconisation
par défaut sont des slides en anglais avec le libre choix de la langue
utilisée.

Prochain séminaire:

11/03/24 – 11h: Gauthier Picard (ONERA)

Titre : Approches décentralisées pour l’allocation de tâches multi-agents et multi-modes

Dans cette présentation, nous abordons des modèles et techniques pour l’allocation de tâches dans un cadre multi-agents, comme dans des collectifs de robots autonomes. Dans ce contexte, un ensemble d’agents doit se coordonner pour décider de l’affectation d’une ou plusieurs tâches à chaque agent, en fonction du contexte opérationnel. Ce contexte peut inclure la position courante des agents, le trajet à effectuer pour atteindre les tâches, ou encore la fenêtre de validité des tâches. Même dans sa formulation la plus simple, ce problème peut s’avérer difficile à résoudre de manière optimale.

Dans un contexte distribué, de tels problèmes peuvent être résolus par des approches par enchères combinatoires coopératives, ou bien par des algorithmes approchés basés sur la séquentialisation ou la parallélisation de la constitution des lots de tâches. Cependant, ces différentes approches, bien que distribuées, reposent sur une résolution centralisée du problème de détermination des gagnants (WDP), où un commissaire-priseur détermine les gagnants et les informe. Pour pallier cette limitation opérationnelle, qui impose un point de défaillance unique au système, des approches par consensus proposent de décentraliser le WDP.

Nous nous intéresserons particulièrement aux cas où les tâches à allouer peuvent nécessiter la collaboration de plusieurs agents pour leur complétion, et peuvent être effectuées de plusieurs manières différentes. Ce cadre est motivé par un problème d’allocation de tâches d’observation de la Terre par une constellation de satellites gérée par plusieurs acteurs ayant des exigences de privacité des plans, qui servira d’exemple applicatif.

Lien zoom:  https://utc-fr.zoom.us/j/84733460093

Liste des séminaires (passés et à venir, ordre anti-chronologique):

11/03/24 – 11h: Gauthier Picard (ONERA)

Titre : Approches décentralisées pour l’allocation de tâches multi-agents et multi-modes

Dans cette présentation, nous abordons des modèles et techniques pour l’allocation de tâches dans un cadre multi-agents, comme dans des collectifs de robots autonomes. Dans ce contexte, un ensemble d’agents doit se coordonner pour décider de l’affectation d’une ou plusieurs tâches à chaque agent, en fonction du contexte opérationnel. Ce contexte peut inclure la position courante des agents, le trajet à effectuer pour atteindre les tâches, ou encore la fenêtre de validité des tâches. Même dans sa formulation la plus simple, ce problème peut s’avérer difficile à résoudre de manière optimale.

Dans un contexte distribué, de tels problèmes peuvent être résolus par des approches par enchères combinatoires coopératives, ou bien par des algorithmes approchés basés sur la séquentialisation ou la parallélisation de la constitution des lots de tâches. Cependant, ces différentes approches, bien que distribuées, reposent sur une résolution centralisée du problème de détermination des gagnants (WDP), où un commissaire-priseur détermine les gagnants et les informe. Pour pallier cette limitation opérationnelle, qui impose un point de défaillance unique au système, des approches par consensus proposent de décentraliser le WDP.

Nous nous intéresserons particulièrement aux cas où les tâches à allouer peuvent nécessiter la collaboration de plusieurs agents pour leur complétion, et peuvent être effectuées de plusieurs manières différentes. Ce cadre est motivé par un problème d’allocation de tâches d’observation de la Terre par une constellation de satellites gérée par plusieurs acteurs ayant des exigences de privacité des plans, qui servira d’exemple applicatif.

13/02/24 – 11h: Catherine Pelachaud (CNRS – ISIR)

Titre: « Mécanismes d’adaptation durant une interaction humain-agent virtuel »

Dans cet exposé, je présenterai nos efforts pour construire un agent socialement interactif doté de la capacité de montrer une large gamme de comportements communicatifs et émotionnels. Au cours d’une interaction, les humains adaptent continuellement leurs comportements à différents niveaux : formalité du langage, imitation, synchronisation, etc. En tant que partenaire d’une interaction, l’ISA doit s’engager avec ses interlocuteurs humains. Cela nécessite de gérer les tours de parole mais aussi de s’adapter à leurs comportements multimodaux et à leurs stratégies conversationnelles.

Dans ce but, nous avons développé plusieurs mécanismes d’adaptation où le SIA peut adapter ses stratégies conversationnelles ou ses comportements multimodaux. Notre dernier modèle capture la synchronie intra-personnelle et l’adaptation inter-personnelle. Ces différents modèles pilotent les comportements de ces agents. Ils ont été évalués par des études perceptives où des participants humains interagissent avec eux en temps réel. Dans cet exposé, je présenterai ces différents mécanismes d’adaptation, l’architecture de la plateforme homme-agent dans laquelle ils sont implémentés et les études d’évaluation que nous avons menées.

29/01/24 – 11h: Henri Prade (CNRS – IRIT)

Titre: « Les proportions analogiques, un nouvel outil pour l’IA ? »

Résumé: L’exposé propose une introduction aux proportions analogiques et à leurs applications. Les proportions analogiques sont des énoncés de la forme « a est à b ce que c est à d”, où a, b, c, d peuvent référer à des mots, des phrases, des images, des structures, etc. On considère ici que a, b, c, d sont représentés par des vecteurs de valeurs d’attributs booléens, nominaux ou numériques.  Ces proportions mettent souvent en parallèle des comparaisons d’éléments pris par paire, même si elles peuvent aussi mettre en jeu d’autres formes de relations. Elles ont une longue histoire. Leur existence remonte à Aristote en occident, et ces proportions tenaient, par exemple, une grande place dans le cours de statique de Gaspard Monge. Elles ont une place de choix dans le raisonnement analogique. Mais ce n’est qu’assez récemment qu’on a cherché à les modéliser de manière logique, et qu’on a pu les plonger dans un ensemble plus vaste, celui  des proportions logiques.  Les arbres taxonomiques induisent naturellement des proportions analogiques. L’exposé discutera leur formalisation, leur utilisation dans l’inférence analogique, leur forte proximité avec les dépendances multivaluées dans les bases de données. Les proportions analogiques peuvent être appliquées à la classification, à la complétion de valeurs manquantes, à l’apprentissage de préférence, à la résolution de tests de QI, ou à l’explication. Enfin, on présentera brièvement une logique de paires ordonnées mettant en valeur les dispositions à la créativité des proportions analogiques.

15/12/23 – 11h: Hélène Fargier (CNRS – IRIT)

Titre: « Jeux, décision sous incertitude et fonctions de croyances »

Résumé: Les fonctions de croyance constituent une classe  de mesures  qui sont suffisamment expressives pour capturer à la fois  des connaissances probabilistes et des formes d’ignorance. Dans cet exposé, on parlera de résultat récents obtenus au sein du 3IA ANITI autour de problèmes de décision sous incertitude, et en particulier de problèmes de recherche d’équilibres de Nash,  considérés dans le cadre de la théorie des fonctions de croyance. On verra par exemple que, dans un contexte non séquentiel mais quelle que soit la règle de décision considérée (Choquet, TBM, Jaffray) on peut toujours ramener le problème à un problème de recherche d’équilibre dans un jeu « classique » (sans incertitude) et ce quel que soit le nombre de joueurs. Quelques résultats de complexité seront aussi présentés.

Dans un second temps,  on abordera la question des problèmes de décision sous incertitude dans un contexte dynamique –   on sait que les  modèles de décision basés sur les fonctions de croyance proposés dans la littérature sont limités  : soit ils abandonnent le principe de cohérence dynamique, soit ils limitent la combinaison de loteries, soit ils relaxent l’exigence d’une comparaison transitive et complète.  Nous montrons formellement que ces exigences sont effectivement incompatibles dès lors qu’une forme de compensation est recherchée, mais  qu’elles peuvent être satisfaites dans des cadres non compensatoires.

06/11/23 – 11h: Isabelle Bloch (Sorbonne Université)

Titre: « Morphologique et quelques problèmes d’IA »

Résumé:

La morphologie mathématique est une théorie non linéaire d’analyse de structures qui a été largement appliquée à l’analyse d’images. Ses fondements mathématiques proviennent de l’algèbre, de la théorie des treillis complets ou encore de la topologie. Nous présentons dans cet exposé des liens entre cette théorie et la logique. Dans le cadre de la logique propositionnelle, nous définissons des opérateurs morphologiques telles que la dilatation ou l’érosion de formules. Nous en déduisons des opérateurs concrets, dans une approche sémantique, pour répondre à plusieurs questions classiques en IA, telles que
la révision  la fusion des croyances, l’abduction. Ces travaux, réalisés avec Jérôme Lang, Ramón Pino Pérez et Carlos Uzcátegui, ont ensuite été étendus avec Marc Aiguier et Ramón Pino Pérez dans le cadre des topos élémentaires, c’est-à-dire une structure catégorielle généralisant la notion d’espace, et permettant de connecter dans un même cadre général la logique, la théorie des ensembles et la topologie.

Références :
Isabelle Bloch, Jérôme Lang, Ramón Pino Pérez, Carlos Uzcátegui. Morphologic for knowledge dynamics: revision, fusion and abduction,  Journal of Applied Non-Classical Logics, 33:3-4, 421-466, 2023
Marc Aiguier, Isabelle Bloch, Salim Nibouche and Ramón Pino Pérez. Morpho-Logic from a Topos Perspective – Application to Symbolic AI, International Journal of Approximate Reasoning, 2023

11/10/23 – 11h: Thierry Denoeux (UTC – IUF)

Titre: « Random fuzzy sets and belief functions: application to machine learning »

Résumé:  The theory of belief functions is a powerful formalism for uncertain reasoning, with many successful applications to knowledge representation, information fusion, and machine learning. Until now, however, most applications have been limited to problems (such as classification) in which the variables of interest take values in finite domains. Although belief functions can, in theory, be defined in infinite spaces, we lacked practical representations allowing us to manipulate and combine such belief functions. In this talk, I show that the theory of epistemic random fuzzy sets, an extension of Possibility and Dempster-Shafer theories, provides an appropriate framework for evidential reasoning in general spaces. In particular, I introduce Gaussian random fuzzy numbers and vectors, which generalize both Gaussian random variables and Gaussian possibility distributions. I then describe an application of this new formalism to nonlinear regression with uncertainty quantification.

13/4/23 – 11h: Sébastien Ferré  (IRISA)

Titre : « Tackling the Abstraction and Reasoning Corpus (ARC) with Object-centric Models and the MDL Principle »

Résumé : A few years ago, François Chollet introduced a measure of intelligence, and a form of IQ test for machines, called the Abstraction and Reasoning Corpus (ARC). His motivation was to foster AI research towards more general and less task-specific artificial intelligence.
He defines intelligence as skill acquisition efficiency rather than skill performance, where acquisition efficiency means learning with limited prior knowledge and few training examples. ARC is a set of tasks that consist in learning a transformation of small colored grids, from a few examples. Public challenges have shown the difficulty of ARC for machines compared to humans, despite its apparent simplicity.
In this talk, after presenting Chollet’s measure of intelligence and ARC, I will present an approach that gives encouraging results on ARC, and that can be applied to other kinds of tasks. Existing approaches use program synthesis where programs are essentially function compositions, i.e. expressions. In contrast, we use object-centric models that combine patterns and expressions, and have a non-deterministic semantics. We also use the Minimum Description Length (MDL) principle in order to guide the search for models.
This enables us to learn more complex models, in less time, and with less prior knowledge

9/3/23 – 11h: Khaled Belahcene (Centrale Supelec)

Titre : « Représentation du raisonnement pour la prise de décision et la production d’explications »

Résumé : Si les travaux en « explicabilité » abondent, ils font rarement le lien avec ceux menés en théorie de la décision, qui fondent les diverses procédures appliquées sur un certain nombre de modèles de rationalité.

Dans cet exposé, nous montrerons qu’il est possible de proposer des moteurs d’explication des préférences fondés sur l’articulation de principes décisionnels. En enrichissant la palette d’approches disponibles, ces moteurs nous permettront en retour de mieux cerner les problématiques associées à la production d’explications.

9/2/23 – 11h: Jérôme Lang

Titre : « De l’Intelligence Artificielle au Choix Social Computationnel »

Résumé : Le choix social computationnel est un domaine interdisciplinaire à la croisée de l’économie, de l’IA et plus généralement de l’informatique. Il consiste à concevoir, analyser et calculer des mécanismes de prise de décisions collectives, avec divers sous-domaines d’application tels que le vote, l’allocation équitable des ressources, le budget participatif, la sélection de groupes d’individus représentatifs, ou l’appariement avec préférences.

La rencontre de l’IA et du choix social n’a pas seulement permis de développer des algorithmes pour la prise de décision collective : elle a contribué à remodeler et à revitaliser le domaine, en identifiant de nouveaux paradigmes, de nouveaux problèmes et de nouveaux objets d’étude. Au cours de l’exposé, je donnerai quelques exemples montrant le rôle de diverses sous-communautés de l’IA dans l’étude de la prise de décision collective.

Les slides de l’exposé (avec les références bibliographiques correspondantes): https://www.lamsade.dauphine.fr/~lang/ijcai22-slides.pdf

L’article en lien avec cet exposé: https://www.lamsade.dauphine.fr/~lang/ijcai22-text.pdf

18/1/23 – 11h: Nicolas Sabouret

Titre : « Modèles logiques, IA et sciences humaines »

Résumé : L’analyse de l’erreur humaine pour anticiper et prévenir les accidents reste un territoire peu exploré par l’IA. Pour cause : si le diagnostic de systèmes a fait l’objet de nombreux travaux, l’utilisation de modèles logiques pour diagnostiquer des erreurs humaines se heurtent à une difficulté majeure : l’erreur humaine n’est pas logique.

Dans cet exposé, nous montrerons comment il est possible de modéliser, à l’aide de la logique, des phénomènes non-rationnels pour raisonner dessus à l’aide d’outils issus des méthodes formelles. Nous montrerons que cela nous a conduit à reconsidérer les problèmes classiques du décors, du diagnostic fondé sur la cohérence et de la
révision de croyance.

14/12/22 – 11h: Roula Nassif (reporté)

1/12/23 – 11h: Marie-Christine Rousset

Titre: « Reasoning-based detection and explanation of privacy risks in data exchange »

Abstract: Personal data are increasingly disseminated over the Web through mobile devices and smart environments, and are exploited for developing more and more sophisticated services and applications. All these advances come with serious risks for privacy breaches that may reveal private information wanted to remain undisclosed by data producers. It is therefore of utmost importance to help them to identify privacy risks raised by requests of service providers or of attackers. Taking into account the temporal aspect for privacy protection is important since many applications handle dynamic data (e.g., electrical consumption, time series, mobility data) for which temporal data are considered as sensitive and aggregates on time are important for data analytics.

In this talk, I will present a formal framework based on a query-based formalization of privacy and attacks, in which privacy risks are defined as the possibility of inferring an answer to a privacy query from answers to external requests. We solve the problem of detecting privacy risks as a reasoning problem on queries expressions. The distinguishing point of our approach is to be data-independent and to come with an explanation based on the query expressions only. This explanation is intended to help data producers understand the detected privacy breaches and guide their choice of the appropriate technique to correct it.

26/10/22 – 11h: Aurélien Bellet

Titre: « Introduction to Federated Learning »

Abstract: Federated learning (FL) is a machine learning setting where many clients (e.g. mobile devices or whole organizations) collaboratively train a model while keeping their data decentralized. FL embodies the principles of focused data collection and minimization, and can mitigate many of the systemic privacy risks and costs resulting from traditional, centralized machine learning and data science approaches. In this talk, I will introduce various settings which fall under the umbrella of FL, review a few standard algorithms and discuss some recent
work and open problems.

28/9/22 – 11h: Andreas Herzig

Titre: « Database repair and logic »

Abstract: Event-condition-action (ECA) rules equip a database with information about preferred ways to repair it when the integrity constraints are violated. They face problems of non-terminating executions and only procedural semantics had been given to them up to now. Declarative semantics however exist for a particular class of ECA rules lacking the event argument, called active integrity constraints (AICs). I will first provide a critical overview of these semantics, drawing on concepts that were developed in the belief revision literature, and then generalise one of the AIC semantics, well-founded repairs, to ECA rules. I will finally discuss how these ideas can be adapted to Description Logics.

6/7/22 – 11h : Serena Villata

Titre: « Argumentative analysis of political debates: challenges and perspectives »

Abstract: Political debates offer a rare opportunity for citizens to compare the candidates’ positions on the most controversial topics of a political campaign. Thus they represent a natural application scenario for argumentation. On the one hand, the ability of identifying argumentative components and predicting their relations in such a kind of texts opens the door to cutting-edge tasks like fallacy detection, fact-checking, and counter-argumentation generation. On the other hand, these tasks require not to stop at the extraction of the argument components from text, and require to enhance the Argument Mining pipeline with knowledge in order to address advanced argument-based reasoning on this data. In this talk, I will present our results in Argument Mining for the political domain, and I will highlight the future challenges in the domain toward the detection of fallacious argumentation.

4/5/22 – 11h : Nathanaël Fijalkow

Titre: Machine-learning guided program synthesis

Abstract: Writing software is tedious, error-prone, and accessible only to a small share of the population – yet coding grows increasingly important as the digital world plays larger and larger roles in peoples’ lives. Program synthesis seeks to make programming more reliable and accessible by developing methods for automatically constructing programs from specifications.

In this talk, I will discuss a very successful line of attack for program synthesis, combining two paradigms: symbolic algorithms for logical reasoning, and machine learning or statistical techniques for guiding the search towards a solution program. This way we get the best of
both worlds: the mathematical guarantees, verifiability, and explainability of symbolic methods, together with the empirical success of machine learning and statistical approaches.

Based on some recent work (to appear in AAAI’22, see below) we will explore an unexpected connection between program synthesis, airport screening, and DNA sequencing: they are all about finding a needle in a (probabilistic) haystack!

6/4/22 – 11h : Leila Amgoud (SEMINAIRE ANNULE)

23/03/22 – 11h : Hervé Isambert

Titre: Learning reliable causal networks from multivariate information in biological and clinical data.

Abstract: State-of-the-art high-throughput biology techniques (such as single cell transcriptomics and live cell imaging microscopy) produce massive amounts of biological and clinical data, which consist of either independent snapshots or time series of observational data with just a few control parameters and experimental conditions. Yet, this wealth of heterogeneous data remain largely under-explored due to the lack of unsupervised methods and tools to analyze them without preconceived hypothesis. I will present some scalable causal discovery methods developed by our group to analyze such information rich datasets. They combine constraint-based and information-theoretic frameworks to learn reliable and interpretable causal graphical models from large scale biological or clinical data. In principle, such causal discovery methods could be applied to a wide range of other domains of data science.

02/02/22 – 11h: Stéphane Canu

Titre: L’IA appliqué à la conduite : le deep learning dans les véhicules autonomes

De Tesla à Waymo en passant par Stellantis, Renault, Mobileye et Valéo,
la plupart des acteurs du monde de l’automobile revendiquent
l’intégration de l’intelligence artificielle dans leurs produits. Mais
de quelle IA parle-t-on ? A partir d’une vision historique, nous
retracerons les principales étapes de l’introduction de l’IA dans les
véhicules. Nous ferons ensuite un bilan de l’existant en précisant les
techniques utilisées et les performances obtenues, en insistant sur les
différences entre aide à la conduite et véhicule autonome. Nous finirons
par passer en revue les principaux challenges et questions ouvertes
liées à la conduite autonome en termes de perception, d’aide à la
décision et de mise en œuvre de cette IA embarquée.

Retrouvez les slides ici

19/01/22 – 11h: Meghyn Bienvenu

Titre: Ontology-Mediated Query Answering: Using Rules and Reasoning to Get More from Data

Ontology-mediated query answering (OMQA) is a promising approach to data access and integration that has been extensively studied by the knowledge representation & reasoning and database communities. Ontologies are used to enrich and unify the vocabulary of data sources, allowing users to formulate their queries in a more familiar vocabulary which abstracts from the specific way data is stored, and to specify domain knowledge, which can be exploited by reasoning algorithms to infer implicit information and return more complete query results. While the addition of an ontology brings significant benefits, it also renders the query answering task more computationally involved. This has led both to theoretical studies aimed at understanding the complexity of OMQA for a range of ontology and query languages, as well as the development of new algorithmic techniques. The aim of this talk will be to provide a gentle introduction to OMQA, while also highlighting some recent results and research directions.

Retrouvez les slides ici

15/12/21 – 11h: Meltem Ozturk

Titre: Axiomatic and Algorithmic elements of the Social Ranking Problem and its relation with ordinal power indices

In this talk, I will present some recent studies on social ranking from axiomatic and computational point of views and show it’s relation with power indices.

In many domains, a number of works have been devoted to ranking individuals/objects based on the performance of the groups formed by them. Besides game theory, arguably the field which has dealt with this question the most, we can think of networks (the influence of someone in a social network), belief merging/revision (the responsibility of a formula in the inconsistency of a belief base), multicriteria decision aiding (the impact and synergy of some criteria), machine learning (selecting best features), argumentation (influence of an argument in a debate), etc.

Power indices (such as Shapley or Banzhaf indices), introduced in cooperative game theory, deal with this problem in a cardinal way. But many real-life situations do not fit this framework, as in particular we may only have ordinal information about groups of agents. Social ranking proposes a more flexible theory of cooperative interaction situations considering only ordinal comparisons between groups.

In this talk, I will present different social ranking rules, show their differences based on their axiomatizations. I will also point out some computational results (such as manipulability of such rules). This ordinal approach being quite recent, I will conclude by some open questions.

  • La vidéo de cet exposé:

24/11/21 – 11h: Régis Sabbadin

Titre: Making new out of old in Nash equilibrium computation: Path-following
among polynomial equations systems

Non-cooperative game theory is particularly useful for modeling interactions between competitive agents. In AI, it is the grounding framework of (non-cooperative) multi-agent planning, for example. AI has also contributed new representation frameworks (graphical games, hypergraphical games, Bayesian Action Graph Games…) and new solution algorithms (Multi-agent RL,…) to game theory. In this introductory talk, I will present game components and basic concepts (non-dominated strategies, Nash equilibrium). Then, I will briefly list Nash equilibrium computation approaches and focus on the links between NE computation and polynomial systems solving. I will recast a few recent and (very) old NE computation algorithms in terms of polynomial systems solving. Finally, I will mention that similar polynomial systems representations also apply to NE computation problems in incomplete information and succinctly-expressed games.

13/10/21 – 14h : Didier Dubois

Titre: Unified View of Uncertainty Theories – The limited expressiveness of
single probability measures

The variability of physical phenomena and partial ignorance about them
motivated the development of probability theory in the two last
centuries. However, the mathematical framework of probability theory,
together with the Bayesian credo claiming the inevitability of unique
probability measures for representing agents’ beliefs, have blurred
the distinction between variability and ignorance. Modern theories of
uncertainty, by putting together probabilistic and set-valued
representations of information, provide a better account of the
various facets of uncertainty.

  • La vidéo de cet exposé:

07/07/21 – 15h : Dominik Peters

Titre: Proportional Participatory Budgeting

We study voting rules for participatory budgeting, where a group of
voters collectively decides which projects should be funded using a
common budget. Many city governments around the world now use
participatory budgeting to allow their residents to influence how the
city spends its budget. Most cities handle such elections using the
most intuitive voting rule: greedily filling a knapsack with projects
that received the highest number of votes. We argue that this is a bad
voting rule, because it can ignore the preferences of substantial
minorities. Instead, we advocate the use of voting rules that are
proportional: every voter should have roughly equal influence on the
final budget, and thus different interests should be represented in
proportion to the number of their supporters. We formalize the notion
of proportionality as an axiom and design a simple and attractive
voting rule that satisfies our formal axiom, and that can be evaluated
in polynomial time. We also prove that a large class of voting rules
based on optimization cannot achieve proportional outcomes: this is
surprising because in many other contexts, researchers have found
specific objective functions that lead to fair outcomes.

Based on joint work with Grzegorz Pierczyński and Piotr Skowron
(https://arxiv.org/abs/2008.13276).

  • La vidéo de cet exposé:

 

16/06/21 – 11h : Pierre Talbot

Titre: Interprétation abstraite de la programmation par contraintes

Résumé: Durant ce séminaire, nous nous intéressons à la fusion de deux domaines de recherche: la programmation par contraintes (PPC) et l’interprétation abstraite. La PPC est un paradigme déclaratif permettant de trouver les solutions d’un système de contraintes. La PPC s’applique à de nombreux domaines tels que l’ordonnancement, les tournées de véhicules ou encore en bioinformatique et composition musicale. L’interprétation abstraite est une théorie pour l’analyse statique de programmes par approximation de leurs sémantiques. Les idées véhiculées par l’interprétation abstraite se sont démontrées applicables en dehors de l’analyse de programmes, notamment pour la PPC. Au lieu d’approximer la sémantique d’un programme, nous pouvons approximer la sémantique d’une formule logique, représentant l’ensemble des solutions d’un problème de contraintes. Un des avantages d’utiliser une telle formalisation est de réutiliser des outils de l’interprétation abstraite pour la combinaison de solveur par contraintes, capturant différents langages de contraintes. Nous motiverons et présenterons plusieurs combinaisons génériques de solveurs par contraintes, afin de résoudre des problèmes d’ordonnancement. Finalement, nous aborderons un sujet de recherche en cours, explorant l’interprétation abstraite pour la parallélisation de la PPC sur GPU. Le séminaire ne requiert pas de prérequis en PPC ni interprétation abstraite.

26/05/21 – 11h : Anne Siegel

Titre: Modelling unconventional biological systems:
dynamical systems and/or reasoning?

Résumé: In the last years, data sciences have shown their interest
(and somehow their limitation) in life sciences to extract information
from multi-scale, incomplete, heterogeneous but somehow interdependent
data. As an important bottleneck, figuring out how data sciences
techniques can assist life sciences to provide explainable evidences
of the limitations of current knowledge in biology and therefore lead
to news discoveries.
An example of such limitations is the study of biological systems in
molecular and cellular biology. Such systems are highly difficult to
model with a single calibrated numerical model: state of the art
methods require a precise understanding of interactions occurring in
the considered species, an information which is not available for
complex organisms (for instance, eukaryotes) and hardly cultivable
bacteria such as those evidenced in microbiomes.
In this talk, we will introduce a strategy to assist biological
discovery by identifying features of large-scale unconventional
biological systems  at the molecular scale despite lacks of data. We
rely on the different reasoning modes (projection, union,
intersection) combinatorial optimization) of Answer Set Programming,
on its semantics of negation and on its combinatorial problem
optimization feature to search for new functionalities of biological
systems. In practice, we use this formalism to reason on
over-approximations of the biological system response with
steady-states of Boolean networks, in order to identify biological
candidates (enzymes, biological functions, or species) involved in
targeted biological features.
We will illustrate this approach on the emerging field of systems
ecology, which aims at understanding interactions between a consortium
of microbes and a host organism, more precisely by discussing the
putative role of host-bacterial interactions in an algal system.

  • La vidéo de cet exposé:

28/04/21 – 11h : Joao Marques-Silva

Titre: Formal Reasoning Methods in Explainable AI

Résumé: The forecasted applications of machine learning (ML) in safety
critical applications hinge on systems that are robust in their
operation and that can be trusted. This talk overviews recent efforts
on applying automated reasoning tools in explaining non-interpretable
(black-box) ML models. Moreover, the talk details the computation of
rigorous explanations of black-box models, and how these serve for
assessing the quality of widely used heuristic explanation approaches.
The talk also covers important properties of rigorous explanations,
namely duality properties between different kinds of explanation.
Finally, the talk briefly overviews ongoing work on mapping tractable
explainability.

  • La vidéo de cet exposé:

07/04/21 – 11h : Loïc Paulevé

Titre: Symbolic learning of ensembles of Boolean networks predictive for cell
fate decision

Résumé: In this talk, I’ll give a global overview of challenges related to the
learning of dynamical models of cellular differentiation processes.
I’ll present on-going work mixing formal methods for modelling dynamical
systems and model synthesis from constraints on expected emerging
behaviors. This will be illustrated in the scope of the synthesis and
analysis of ensembles of Boolean automata networks using Answer-Set
Programming from data relating to the structure of the network and
observations of the system.

  • La vidéo de cet exposé: