• Resumen

  • Horizon-IA, c’est LE podcast francophone sur la vulgarisation de l’intelligence artificielle. Chaque semaine, Syntyche, Stéphanie et leurs invités lèvent le voile sur les "mystères de l'intelligence artificielle". Les applications intelligentes font de plus en plus partie de notre quotidien. Vous utilisez peut-être des assistants virtuels ou encore des traducteurs de texte. Si vous vous demandez comment ça marche ou encore quelles sont les données utilisées, ce podcast y répond. Au fil des saisons, les différents intervenants présenteront des innovations dans plusieurs domaines : de la santé à l’environnement en passant par l’éducation. Vous découvrirez également des applications moins connues qui ont pourtant une grande valeur ajoutée. Retrouvez ce podcast sur Apple Podcasts, (https://podcasts.apple.com/fr/podcast/horizon-ia/id1563035617)Google Podcasts (https://www.google.com/podcasts?feed=aHR0cHM6Ly9mZWVkLmF1c2hhLmNvL2JqYTg0ZjJSMk5XcA==) ou sur votre plateforme d’écoute habituelle. Pour participer au podcast, nous suggérer des intervenants ou nous poser des questions, vous pouvez utiliser notre formulaire de contact (https://www.horizon-ia.com/contact/?customize_changeset_uuid=c40bd997-85d2-4d78-ae49-a3553a806a4c&customize_messenger_channel=preview-0). Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
    Horizon-IA
    Más Menos
activate_primeday_promo_in_buybox_DT
Episodios
  • L'IA au service de la santé des femmes
    Apr 11 2024
    Quand on parle de discrimination des femmes, on pense aux discriminations professionnelles (salarial) ou à la répartition des tâches domestiques (la vaisselle, les enfants), mais on n’imagine pas que les problèmes de santé des femmes.Dans un documentaire d’Arte, appelé « la santé des femmes – de l’ignorance à la reconnaissance », on apprend qu’une femme sur trois meurt d’une maladie cardiovasculaire; 1ère cause de mortalité prématurée chez les femmes. On découvre également que dans l’évolution de la médecine, les femmes ont longtemps été considérées comme un modèle réduit des hommes.Pour pallier ce biais de représentation des symptômes des maladies chez les femmes, Claire Mounier VEHIER, lance en 2013 le parcours de soins coordonné « coeur artères femmes au CHU de Lille. Ce dernier propose un bilan pluridisciplinaire des facteurs de risque et intégration du statut hormonal, tout en veillant à l’éducation thérapeutique, nécessaire à la prévention.En attendant d’acquérir suffisamment de données, les bases des données utilisées pour entrainer des algorithmes d’IA SONT nécessairement biaisés. Dans cet épisode, nous allons évoquer les biais de représentation de la santé des femmes et comment utiliser les IA pour limiter l’impact de ces biais dans la médecine. Et pourquoi pas, comment utiliser l’IA pour identifier des biais cachés.________________________________________________________________________________________À propos de l'invitéOlivier Humbert est professeur associé en médecine nucléaire et biophysique. Ses travaux de recherche sont menés au sein du département d'imagerie du Centre Antoine Lacassagne et du laboratoire TIRO. Depuis octobre 2019, il est titulaire d’une chaire au sein du nouvel Institut 3IA Côte d’Azur, focalisant ses recherches sur l’IA appliquée en santé (imagerie clinique) et est à l’origine d’un Diplôme Universitaire d’IA en santé pour former les médecins aux enjeux de l’IA.________________________________________________________________________________________Notes de l'épisode Quelques articles sur le DU IA en SantéPlaquette de la formationArticle dans le magazine ActuIALien vers le reportage Arte intitulé La santé des femmes - De l'ignorance à la reconnaissanceQuelques article sur l'association Agir pour le coeur des femmesSite de l'associationArticle TV5 MondeRetrouvez nous sur Facebook, Twitter ou LinkedIn pour continuer la discussion.Si vous avez envie d’en savoir plus sur les applications intelligentes, abonnez vous à ce podcast sur Apple Podcasts, Google Podcasts ou sur votre plateforme d’écoute habituelle. Laissez-nous votre avis, c’est le meilleur moyen de nous soutenir et que d’autres personnes le découvrent plus facilement.N’hésitez pas à partager ce podcast avec votre entourage, on y gagne tous à avoir des clés de compréhension sur les applications intelligentes qui font de plus en partie de notre quotidien sans qu’on ne s’en rende toujours compte.Pour participer au podcast, nous suggérer des intervenants ou nous poser des questions, vous pouvez utiliser notre formulaire de contact.
    Más Menos
    34 m
  • (32) Pour des IA avec moins de biais du genre
    Mar 21 2024

    On constate qu’il y en a de plus en plus de femmes dans la littérature. Pourtant cela n’a pas toujours été le cas, notamment au XVIIIe siècle. Peut-être avez-vous entendu parler de Mme de Sévigné puisqu’un film retraçant sa vie est sorti en 2023.

    Mais l’écriture n’est pas qu’une affaire de littérature. C’est avant tout un outil de communication, notamment de recrutement. Les fiches de poste sont des outils nécessaires pour attirer différents profils. Le constat reste néanmoins dramatique pour le secteur du numérique. Sur 57 % des diplômés d’études supérieures sont des femmes, seules 25 % d’entre elles ont un diplôme dans le numérique et 13 % travaillent effectivement dans le secteur du numérique. Est-ce qu’une écriture plus inclusive, une formulation plus neutre pourrait changer les candidature ?

    __________________________________________________________________________________________


    À propos de l'invité

    Daphné MARNAT est co-fondatrice d’Unbias IA Anthropologue des innovations par formation, elles a développé une expertise pluridisciplinaire en sciences sociales et IA. Elle partage avec nous son regard sur le rôle de l’IA dans l’identification de biais de genre dans les textes.


    __________________________________________________________________________________________


    Notes de l’épisode

    • Pour en savoir plus sur la société « Unbias », c'est par ici.

    • Une Vidéo de Daphne sur le thème « L’IA est-elle sexiste » est disponible ici

    • Quelques études sur le sujet

      • Etude Bloomberg

      • Etude Unesco

      • Article 7sur7


    Retrouvez nous sur Facebook, Twitter ou LinkedIn pour continuer la discussion.

    Si vous avez envie d’en savoir plus sur les applications intelligentes, abonnez vous à ce podcast sur Apple Podcasts, Google Podcasts ou sur votre plateforme d’écoute habituelle. Laissez-nous votre avis, c’est le meilleur moyen de nous soutenir et que d’autres personnes le découvrent plus facilement.

    N’hésitez pas à partager ce podcast avec votre entourage, on y gagne tous à avoir des clés de compréhension sur les applications intelligentes qui font de plus en partie de notre quotidien sans qu’on ne s’en rende toujours compte.

    Pour participer au podcast, nou


    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

    Más Menos
    34 m
  • (31) Test de Bechdel : pour une meilleure représentation des genres
    Mar 7 2024

    En 2016, le site Polygraph a publié les résultats d’une étude portant sur l’évaluation du caractère potentiellement sexiste de 4000 films, sortis durant les 20 dernières années. Pour cela, ils ont utilisé le test de Bechdel, dont le nom vient de la déssinatrice Alison BECHDEL. Ce travail nécessite une quantité de travail considérable si elle doit être réalisée par les humains : heures de visionnage, prises de notes détaillées pour une évaluation la plus objective possible … Les résultats sont accessibles sur bechdeltest.com, plateforme de crowdsourcing. Aujourd’hui, plus de 10000 films ont été évalués.

    Pour faciliter ce travail, l’association Data For Good a proposé un projet en 2021 pour automatiser cette évaluation par l’IA. Cela pose différentes questions, comme la segmentation de vidéo, l’analyse de discours. Chloé DAUDIER nous explique les enjeux des tests des IA pré-entrainées et l’impact d’un tel projet sur l’avenir de la représentation des femmes dans les films.


    ________________________________________________________________________________________

    À propos de l'invité

    Chloé Daudier, est Ingénieure en Biologie Informatique et modélisation. Elle a fondé en Août 2020 l’exploratoire qui se veut être un incubateur de la culture Open-science. Aujourd’hui elle est CEO d’Equilys, société pour générer des solutions pour l’égalité femmes/hommes.


    ________________________________________________________________________________________

    Notes de l’épisode

    Pour en savoir un peu plus sur l’Exploratoire, n’hésitez pas à visiter leur site web. Vous y découvrirez les différents projets incubés.

    Quelques ressources sur BechdelIA

    • Présentation du test de Bechdel sur Wikipedia

    • Lien pour tester votre film favori

    • Page du projet BechdelAI

    • Projet BechdelAI sur youtube

    • Publications de Chloé sur LinkedIn sur l'implémentation du test Bechdel

      • Publication 1

      • Publication 2

      • Podcast DataGen

    Retrouvez nous sur Facebook, Twitter ou LinkedIn pour continuer la discussion.

    Si vous avez envie d’en savoir plus sur les applications intelligentes, abonnez vous à ce podcast sur Apple Podcasts, Google Podcasts ou sur votre plateforme d’écoute habituelle. Laissez-nous votre avis, c’est le meilleur moyen de nous soutenir et que d’autres personnes le découvrent plus facilement.

    N’hésitez pas à partager ce podcast avec votre entourage, on y gagne tous à avoir des clés de compréhension sur les applications intelligentes qui font de plus en partie de notre quotidien sans qu’on ne s’en rende toujours compte.

    Pour participer au podcast, nous suggérer des intervenants ou nous poser des questions, vous pouvez utiliser notre formulaire de contact.

    Más Menos
    33 m

Lo que los oyentes dicen sobre Horizon-IA

Calificaciones medias de los clientes

Reseñas - Selecciona las pestañas a continuación para cambiar el origen de las reseñas.