Write to us
Rejoignez-nous le 18 avril ! Les billets sont disponibles maintenant.Rejoignez-nous le 18 avril ! Les billets sont disponibles maintenant.Rejoignez-nous le 18 avril ! Les billets sont disponibles maintenant.
WTM
Michell Payano
Conférencière
Chercheuse

Michell Payano

Mila

À propos
de la conférencière

Michell Payano a débuté sa carrière comme économiste dans le secteur public en République dominicaine, où elle a acquis une solide expérience en matière d'élaboration de politiques fondées sur les données. Consciente du potentiel transformateur de l'IA pour relever les défis sociétaux complexes, elle s'est orientée vers les technologies en poursuivant une maîtrise en informatique, avec une spécialisation en apprentissage automatique, à l'Université de Montréal, en collaboration avec Mila. Son parcours professionnel témoigne d'une vision interdisciplinaire, allant de l'analyse des politiques économiques à la recherche de pointe en vision par ordinateur. Elle mène actuellement des recherches sur l'apprentissage par renforcement multi-agents appliqué à l'élaboration de politiques.

Au-delà de son parcours professionnel et universitaire, Michell est une fervente défenseure de la démocratisation de l'accès aux technologies. Elle a été professeure associée dans son pays d'origine et, au Canada, elle a été mentor auprès de jeunes filles par l'intermédiaire de Technovation Montréal, contribuant ainsi à réduire l'écart entre les sexes dans le secteur technologique en inspirant et en formant la prochaine génération de femmes en IA.

En vedette

Atelier
Ajouter au calendrier

Ce que les modèles voient : Au cœur de la vision par ordinateur moderne

Salle : À déterminer
Durée : 60 min

Découvrez comment les modèles de vision modernes détectent les objets sans aucun entraînement préalable. Cet atelier pratique vous fera découvrir l'évolution de la détection d'objets traditionnelle vers les modèles « zéro-shot » comme Grounding DINO, capables de comprendre des descriptions en langage naturel pour identifier tout objet décrit. Après une brève introduction théorique, nous passerons à la pratique sur Google Colab : les participants expérimenteront la détection d'objets personnalisés à partir de simples descriptions textuelles (aucune donnée d'entraînement requise). À l'issue de l'atelier, ils maîtriseront les atouts et les limites de ces modèles et repartiront avec des compétences pratiques pour les appliquer à leurs projets de recherche, industriels ou créatifs.

#VisionOrdinateur#Mila#Recherche