Lettre de l'IRIF du 20 décembre 2019

Edito

Dernière lettre avant 2020, mais que d'actualités et d'appels à projets de dernière minute des tutelles CNRS et Université de Paris…

En plus du succès de Raphaëlle Crubillé la semaine dernière au prix de thèse Gilles Kahn, nous avons une dernière nouvelle 2019 concernant la nomination de Claire Mathieu à l'Académie des Sciences ! Deux magnifiques succès féminins dont nous pouvons nous réjouir.

Passez tous de bonnes fêtes ! Nous nous retrouverons à la rentrée pour une Assemblée Générale le 7 janvier après la galette de l'UFR d'Informatique.

Annonces de la direction

Actualités scientifiques de l'IRIF

Notion de la semaine

Backpropagation (backward propagation of errors) is an algorithm for supervised learning of multilayer neural networks using gradient descent. One major problem in training those networks is in deciding how to learn good internal representations. Since internal nodes have no target output, any error function for that nodes will be dependent on the values of the parameters in the previous and following layers. Backpropagation simplifies the mathematics of gradient descent, while also facilitating its efficient calculation.

Appels d'offres, évènements des partenaires

Plus d’informations sont fournies dans les liens ou les pièces attachées.