Vendredi 19 novembre 2021
9:20
Accueil
10:40
Pause café
12:55
Repas
16:10
Café de fin de journée
Résumés
Géométrie non linéaire et structure asymptotique des espaces de Banach.
Gilles Lancien Besançon.

La géométrie non linéaire des espaces de Banach s'intéresse aux propriétés linéaires des espaces de Banach qui sont stables par certains plongements métriques (lipschitziens, uniformes ou grossiers). Le théorème de Ribe assure que les propriétés locales d'un espace de Banach, c'est à dire celles de ses sous-espaces de dimension finie, sont stables par plongements bi-lipschitziens aux grandes distances. Le programme de Ribe, que nous illustrerons rapidement, consiste à caractériser de façon purement métrique ces propriétés locales.

Dans cet exposé, nous nous intéresserons surtout aux propriétés asymptotiques des espaces de Banach, qui peuvent être décrites de façon vague comme étant celles de leurs sous-espaces de codimension finie. Depuis le début de ce siècle, en particulier sous l'impulsion de Nigel Kalton, de nombreux travaux indiquent qu'elles sont aussi souvent stables par plongements non linéaires. Nous décrirons quelques résultats récents dans cette direction.

Modélisation spatiale des accidents de la route à Besançon avec les processus de Cox logGaussien.
Cécile Spychala Besançon.

Dans un objectif de prévention et/ou d'anticipation des accidents routiers, la modélisation statistique de la dépendance spatiale et des facteurs de risque potentiels représente un atout majeur. L'intérêt de cette étude se porte plus particulièrement sur la localisation géoréférencée des accidents. Nous avons croisé ces événements avec des co-variables caractérisant la zone géographique d'étude (sociodémographiques et infrastructures par exemple). Après une sélection de variables (méthodes de pénalisation, random forest, ...), la survenue des accidents a été modélisée par un processus de Cox log-Gaussien spatial. Les résultats de cette analyse permettent l'identification des principaux facteurs de risques d'accident et l'identification des zones critiques. Les données mises en application sont les accidents routiers s'étant produits entre 2017 et 2019 dans la CAGB (communauté urbaine de Besançon).

Chaînes de Markov à mémoire variable, marches aléatoires persistantes: une rencontre avec du semi-Markov.

On considère un marcheur sur une ligne et qui, à chaque pas, garde la même direction avec une probabilité qui dépend du temps déjà passé dans la direction dans laquelle il marche. Ces marches avec des mémoires de longueur variable peuvent être vues comme des généralisations des marches aléatoires renforcées de manière directionnelle (DRRWs) introduites par Mauldin et al. Dans cet exposé, on s'intéressera à des critères de récurrence/transience de ces marches. Ces conditions sont liées à des conditions nécessaires et suffisantes d'existence et d'unicité de mesure de probabilité stationnaire pour une chaîne de Markov particulière. On définira le modèle général des chaînes de Markov à mémoire variable, les marches persistantes puis nous introduirons une structure combinatoire clé pour déterminer des mesures de probabilités invariantes. Enfin, nous verrons comment ces marches et ces chaînes de Markov se rencontrent à travers le monde des chaînes semi-markoviennes.

Les travaux décrits dans cet exposé sont le fruit de plusieurs collaboration avec B. Chauvin, F. Paccaut et N. Pouyanne ou B. de Loynes, A. Le Ny et Y. Offret et A. Rousselle.

Scindements de Heegaard des variétés de dimension 3 et filtrations du groupe d'homéotopie.

On peut étudier les variétés compactes sans bords de dimension 3 via la notion de scindement de Heegaard : toute variété de ce type s'obtient comme le recollement de deux corps en anses (des boules auxquelles on a collé des anses) le long de leur bord. Le recollement est spécifiée par une transformation continue de la surface bordant le corps en anses. Ceci connecte l'étude tridimensionnelle des variétés à l'étude bidimensionnelle du Mapping Class Group : les transformations continues d'une surface à homomotopie près. Nous discuterons alors d'une question naturelle : si l'on suppose que notre homéomorphisme de recollement a des propriétés particulières, cela impose-t-il à la variété obtenue d'avoir une topologie particulière ?

Multiple normalized solutions of Schrödinger-Poisson-Slater equation
Thanh Trung Le Besançon.

In this talk, I will present some recent results concerning the existence and multiplicity of normalized solutions of the Schrödinger-Poisson-Slater equation in R^3. I will show that the existence of solutions depends on the sign of coefficients and the mass constraint both in the Sobolev subcritical case and in the Sobolev critical case. I will focus on the case where both a local minimizer and a local maximizer exist. This is a joint work with Professor Louis Jeanjean (LmB).

Hamiltonian monodromy via spectral Lax pairs

Hamiltonian monodromy is the simplest topological obstruction to the existence of global action-angle coordinates in a completely integrable system. For two degrees of freedom systems with a global circle action over the phase space, Hamiltonian monodromy can be described from two functions on the phase space, namely the rotation number $\Theta$ and the first return time T.

I will explain how Hamiltonian monodromy can be described in a neighborhood of a focus-focus point from a spectral Lax pair approach. More specifically, I will explain how to introduce a generic Riemann surface derived from the Lax pair of the Hamiltonian system. The properties of this surface, such as the motion of the branch points and the meromorphic forms over it, allow one to compute in a direct and explicit way the monodromy matrix.

Recurrent Neural Networks and Ordinary Differential Equations
Gérard Biau Sorbonne Université, Paris.

Deep learning has become a prominent method for many applications, for instance computer vision or neural language processing. Mathematical understanding of these methods is yet incomplete. A recent approach has been to view a neural network as a discretized version of an ordinary differential equation. I will start by providing an overview of this emerging field and discuss new results regarding Recurrent Neural Networks, a common type of neural networks for time series.

Travail joint avec Adeline Fermanian (Sorbonne Université), Pierre Marion (Sorbonne Université) et Jean-Philippe Vert (Google Research).