Analyse de données biologiques

Ib - Introduction à l’IA (LLM)

Prof. Patrick E. Meyer

Intelligence Artificielle (IA): BOOM

[Elbiss & Abu-Zidan, Int. J. of Emergency Medicine, 2025]

IA: aspects cliniques

Notre conclusion: La caractérisation des lésions […] (par du machine learning) est équivalente ou supérieure à celles des médecins qui ont montré une variabilité interobservateur significative dans leur évaluation.

  • L’IA ne remplacera pas les médecins, mais les médecins qui l’utilisent remplaceront ceux qui ne l’utilisent pas
    [Keith Horvath, MD, former NIH director]

Exemples Gynécologie [18e Journées Liégeoises]

  • Analyse des signaux (images-sons) (ML)
    • Interpretation des échographies (malformations)
    • Interpretation des rythmes cardiaques foetaux
  • Evaluation de risques sur base du langage (LLM)
    • Analyse des réseaux et forums pour “drug safety pregnancy risk”
    • Analyse du degré de risque d’une urgence (par ex: endométriose,…)
    • Analyse de l’état psy de la maman (pre & post-partum)

IA: aspects académiques

  • Comment l’IA impacte l’enseignement?

    • Diapositives (Excellent)
    • Exercices (Zone grise)
  • Comment l’IA impacte la recherche?

    • Ecriture/Traduction (Excellent)
    • Analyse de données (Zone grise)
    • Synthèse de la littérature (A éviter)

Qu’est-ce que l’IA?

L’intelligence artificielle (IA) est la capacité des machines à effectuer des tâches typiquement associées à l’intelligence humaine, comme l’apprentissage, le raisonnement, la résolution de problème, la perception ou la prise de décision. [Oxford Dict.]

  • La question de savoir si un ordinateur peut penser n’est pas plus intéressante que celle de savoir si un sous-marin peut nager. [E.W. Dijkstra]

Naissance de l’IA

  • 1936 Les bases théoriques de l’informatique

    • 1945 ENIAC (premier ordi électronique)
  • 1949 le test de l’imitation

    • 1966 ELIZA (grammaires de Chomsky) : 23%

Alan Turing (1912-54)

Test de Turing (en 2024)

  • ChatGPT4.5 : 73%

  • vs Humans : 67%

  • Le cas de la licorne builder.ai

  • Basé sur des réseaux de neurones artificiels (RN)

Réseaux de neurones artificiels (RN)

  • M. Minsky et D. Edmonds créent SNARC un RN hardware [1950]
  • F. Rosenblatt crée un RN software [1957]

Evolution des RN

  • Sum(wi*Xi)

    -> regression linéaire!?

  • Le problème XOR [Minsky et Papert 1969]

  • Les grammaires de Chomsky (inné vs acquis)

  • Solution: La couche cachée (inhibition du neurone AND)

La porte XOR

  • La couche cachée permet ici de retrouver une forme canonique (and-or-not) du XOR

  • Théorème de la couche cachée [Cybenko, 1989]

Apprentissage des RN

  • Réseaux de Hopfield (1982, PN-Phys-2024)

  • Rétropropagation [Werbos, 1974]

    puis G. Hinton (1986, PN-Phys-2024)

  • MAIS d’autres algos (SVM, RF, …) batteront ces RN

Les RN multicouches

  • Par ex: la première couche identifie des lignes
  • La deuxième couche identifie si portes ou fenêtres
  • La troisième couche identifie si maison ou pas
  • data (non-structurée) -> information (structurée)
  • 2010-2025: 2 périodes de grands succès

Premiers succès des multicouches

  • DanNet et AlexNet gagnent les compétitions (2011-15)

  • RN passent aux centaines de couches cachées (2015)

  • AlphaGO (2016) gagne contre le champion du monde

  • Alphafold (2018) gagne CASP (Hassabis, Jumper et Baker PN-Chimie-2024)

IA Generative

  • Transformers LLM (2017) Attention Is All You Need

  • ChatGPT3.5 (2022) centaines de milliards de synapses

  • ChatGPT4 (2023) et 4.5 (2025) trillions de synapses

  • Dall-E (2022) for image; Suno (2023) musique

  • Sora, Dream-machine, Cliptalk pour la video (2024)

Où en est-on aujourd’hui?

  • Problème du biais des datas (Garbage in - Garbage out)
  • [ChatGPT3.5]
  • Problème d’apprentissage et hallucinations (fabrication de références et mensonges)
  • Data -> Information (->?) Connaissance
  • Problème du biais de l’interlocuteur (ex. quelle religion?)

Problème du raisonnement

  • L’expérience du jeu d’échecs
  • L’expérience des tours de Hanoi [Apple 2025]
    • Pq l’IA crash après 10 movements?
  • L’expérience des olympiades de math
  • IA de conversation \(\neq\) IA générique
  • Le discernement (ex: fake news) est interconnecté au raisonnement

Avis des concepteurs?

  • MAIS souvenons-nous des débuts critiqués de Wikipedia
  • Y. Lecun (Dir. Sci. de Meta): Les LLM ont atteint leurs limites

  • E. Schmidt (Ex-CEO de Google): L’IA va écrire son propre code dans quelques mois

  • G. Hinton: Une part de lui-même regrette l’œuvre de sa vie

  • Nouvelle direction: SLM (Small) et LRM (Reasoning)

LLM: Forces

Tant qu’on est en capacité de juger/changer le résultat (prompt engineer)

  • Traduction
    • par ex. aide à la rédaction scientifique
  • Arts (textes, images, sons, chansons, videos)
    • par ex. pour alimenter les diapositives
  • Code informatique (-> Anthropic Claude)
    • analyse de données (demande de l’expertise)
    • de l’idée à la production en un temps record

Impacts informatiques

Impacts sur l’enseignement

  • Science-Po-Paris interdit ChatGPT avant de se raviser
  • Meta-analyse (sur 51 études) montre que pour la résolution de problème, ChatGPT peut être un partenaire qui améliore compréhension et raisonnement des étudiants

L’étude du MIT

  • Dissertation (sans ChatGPT vs avec ChatGPT)

  • activité neuronale (EEG et connectivité)

  • propagation des biais (propagande?)

Ambition

  • Ex: interro “préparatoire”

  • TPs présenciel vs TPs distantiel (autonomie?)

    • 25% vs 50% réussites en 1e sess

Conclusions

  • L’analyse de document unique: texte, image ou vidéo est bonne (texte->information)
  • La base de connaissance n’est pas encore fiable
  • La production de document est ultra rapide
    • Tant qu’on est en capacité soi-même de juger/changer le résultat (prompt engineer)
  • Apprends les règles comme un expert afin de pouvoir les briser comme un artiste -Pablo PICASSO
  • Apprends les règles comme un expert afin d’utiliser l’IA correctement