Info TechInfo Tech
  • Cybersécurité
    CybersécuritéShow More
    Sécurité de la messagerie à Versailles : comprendre les véritables enjeux
    6 mars 2026
    macbook
    Protéger efficacement son Mac face aux logiciels malveillants
    6 mars 2026
    Le meilleur navigateur pour profiter pleinement de votre tablette
    2 mars 2026
    Ce qu’il faut comprendre sur les infections virales
    1 mars 2026
    Activer Windows Defender : pourquoi cela ne fonctionne-t-il pas ?
    1 mars 2026
  • Digital
    DigitalShow More
    L’impact réel des métadonnées sur le classement d’un site web
    2 mars 2026
    La chaîne de valeur d’Apple expliquée simplement et concrètement
    2 mars 2026
    Vues YouTube : prix de 1000 vues, meilleures astuces et stratégies !
    1 mars 2026
    Créer une matrice Ansoff en quelques étapes simples et efficaces
    28 février 2026
    Les vraies raisons qui boostent le commerce en ligne
    24 février 2026
  • Digital
    DigitalShow More
    Les meilleurs endroits pour acheter un Vasco Mini 2
    1 mars 2026
    Accéder à un compte Snapchat sans mot de passe : démarches et solutions possibles
    1 mars 2026
    Le web3 expliqué simplement pour débutants et curieux
    24 février 2026
    5 astuces clés pour réussir votre prochaine campagne d’emailing
    22 février 2026
    Jeune femme en intérieur téléchargeant des photos sur Zupimage
    Zupimage en 2026 : ce qui change pour l’hébergement gratuit de vos photos
    19 février 2026
  • Hardware
    HardwareShow More
    Réparer un ventilateur GPU défectueux avec des solutions efficaces
    6 mars 2026
    Ingénieur homme en costume examinant un serveur quantique dans un laboratoire
    Ordinateur quantique prix : impact des avancées matérielles annoncées pour 2026
    5 mars 2026
    Comparaison Nintendo Switch : différences essentielles entre V1 et V2
    1 mars 2026
    Popping Cat Clicker : jeu addictif à découvrir
    1 mars 2026
    boitier wifi
    WiFi 6 vs. WiFi 6E vs. WiFi 5 : Lequel vous convient le mieux ?
    1 mars 2026
  • Informatique
    InformatiqueShow More
    Optimiser sa boîte mail pour gagner du temps chaque jour
    6 mars 2026
    Jeune homme configure sa box internet dans un salon lumineux
    Configuration de box Internet : que signifie une IP comme 192.168.0..222 ?
    3 mars 2026
    Installer Windows 7 facilement sur votre ordinateur pas à pas
    2 mars 2026
    Comment fonctionne un pc tout en un au quotidien
    1 mars 2026
    Qu’est-ce qu’un mégabit (Mb) ? Est-ce le même qu’un mégaoctet (Mo) ?
    1 mars 2026
  • News
    NewsShow More
    Envato Element
    Envato Element facilite le téléchargement de modèles et plugins professionnels
    6 mars 2026
    Quels sont les meilleurs smartphones pour la photographie en 2021 ?
    Les smartphones incontournables pour la photographie en 2021
    2 mars 2026
    logo du Bayern Munich
    Logo Bayern Munich : histoire de la marque et origine du symbole
    1 mars 2026
    Quelle est la différence entre PME et PMI ?
    Quelle est la différence entre PME et PMI ?
    1 mars 2026
    Ma Box RH : gérer vos ressources humaines en toute simplicité
    1 mars 2026
  • Outils numériques
    Outils numériquesShow More
    Retrouver l’icône Mail sur le bureau en quelques étapes simples
    28 février 2026
    L’essentiel à comprendre sur l’ADN et son fonctionnement
    22 février 2026
    Comment choisir la bonne formation excel
    Trouver la formation Excel idéale selon vos besoins et objectifs
    22 février 2026
    Préservez vos souvenirs en modernisant vos médias audiovisuels
    22 février 2026
    Optimisez votre utilisation du portail AC Dijon webmail
    17 février 2026
  • Référencement
    RéférencementShow More
    Pourquoi la recherche vocale ne tient pas toutes ses promesses
    6 mars 2026
    Homme concentré travaillant sur son ordinateur dans une cuisine
    Peut-on vraiment assurer un bon SEO sans expert à ses côtés ?
    4 mars 2026
    Les astuces pour repérer un vpn fiable en un clin d’œil
    1 mars 2026
    Les étapes clés pour devenir ADS dans la police nationale
    26 février 2026
    Pourquoi le SEO rend votre site incontournable sur le web
    22 février 2026
Info TechInfo Tech
  • Cybersécurité
  • Digital
  • Digital
  • Hardware
  • Informatique
  • News
  • Outils numériques
  • Référencement
Recherche
  • Cybersécurité
  • Digital
  • Digital
  • Hardware
  • Informatique
  • News
  • Outils numériques
  • Référencement
Référencement

Comment appelle-t-on les robots qui parcourent le web ?

3 mars 2026

Personne ne leur a jamais donné de prénom, mais ils sont partout. Ils se glissent sur les sites, aspirent des pages par milliers, indexent, classent, repèrent les changements, sans relâche. Ces robots invisibles, qu’on appelle crawlers, spiders, bots, sont la main d’œuvre silencieuse du web moderne. Voici comment ils fonctionnent, pourquoi ils sont devenus incontournables, et ce que cela implique pour chacun d’entre nous.

Table des matières
RésuméHypothèse 1 : traiter et comprendre l’anamnèse et les récits de patientsPerspectiveHypothèse 2 : interface utilisateur vocale et conversationnelleÀ retenirHypothèse 3 : vision par ordinateur et Deep LearningPerspectiveBilanPNL, la piste la plus prometteuseVitalis 2018 : état des lieuxEn route pour la prochaine étapePanorama de l’IAQu’entend-on par « intelligence artificielle » ?L’IA, un concept parapluie : le règne du « machine learning »Entraîner un réseau neuronal, ou comment imiter un cerveauLe Deep Learning, moteur du nouvel engouement pour l’IAApprentissage supervisé, non supervisé, par renforcement et par transfertL’apprentissage non supervisé : une utilité limitée pour les soins ?Des machines pleines de règles… ou d’intelligence ?À quel niveau une solution ML devient-elle « suffisante » ?Les super-pouvoirs de la machineLes limites actuelles : attention aux « problèmes de jouets »Ce que nous avons examinéHypothèse 1 : NLP pour l’anamnèse et les récits patientsComprendre ce qui est dit ou écritLe degré de gravité du cas patientClassificateurs AdaBoost et cascadeAnalyse sémantiqueNLP et Deep Learning : la piste à suivreHypothèse 2 : interfaces vocales et conversationnellesSoutien à domicile pour parlerDétecter l’alerte médicale dans la voix ?À retenirHypothèse 3 : vision par ordinateur en santéVision par ordinateur manuelleVision médicale : de la radiologie à la préventionDeep LearningVision par ordinateur : perspectivesQuestions éthiquesNormalité et diversitéRéutiliser les modèles existants : vigilance requiseLes limites de la techniqueLivrablesEnquêtes et ateliersEnquête sur l’IAAtelier d’idées : opportunités, risques, solutionsQuelles suites ?AnnexeGlossaireRessources complémentairesRapports et remerciementsSources citées

Résumé

Voici une synthèse des trois axes explorés, des tests réalisés et des pistes qui s’ouvrent pour la suite. La démarche : observer ce que proposent les éditeurs de solutions, mais aussi voir comment s’y prendre soi-même pour les tâches fondamentales. Dès maintenant, une chose est claire : ce n’est pas d’« intelligence artificielle » (IA) au sens strict dont il s’agit, mais d’« apprentissage automatique » (machine learning, ML). Les spécialistes le rappellent : le ML est une branche de l’IA, mais il faudra patienter encore longtemps avant de voir une IA généraliste digne de ce nom. L’enthousiasme suscité par l’IA n’est pas infondé ; cependant, l’apprentissage automatique reste nettement plus adapté pour décrire l’état réel des technologies disponibles aujourd’hui. Le terme d’« intelligence mécanique » fait parfois surface dans la littérature scientifique, et il aurait sans doute le mérite de clarifier le débat.

Vous pourriez aimer : Structure URL : quelle est la 4ème partie et comment l'optimiser ?

Hypothèse 1 : traiter et comprendre l’anamnèse et les récits de patients

Avant tout, il s’agit de différencier l’anamnèse, l’historique médical formalisé, collecté par un professionnel, du récit spontané du patient, qui s’exprime librement. L’anamnèse consiste en l’ensemble des informations recueillies lors de la consultation, pour poser le contexte et orienter la prise en charge. Le récit du patient, lui, peut s’étendre sur le temps, parfois sous forme de journal de santé, et il n’est pas toujours structuré.

Grâce au traitement automatique du langage naturel (NLP), il devient possible d’identifier les symptômes mentionnés, de lier les informations à des codes médicaux (via NER, la reconnaissance d’entités nommées), et d’appliquer des plans de soins adaptés. Lors de la phase préparatoire, le codage ICPC (Classification internationale des soins primaires) a servi de référence pour les tests, mais d’autres classifications existent (Snomed CT, CIM-10, KVÅ…).

Vous pourriez aimer : Erreur 404 : pourquoi ce code HTTP apparaît et comment le résoudre ?

Un obstacle : la langue. Amazon AWS ne propose pas de NLP en suédois, et la traduction automatique fait courir le risque de perdre des nuances cruciales. Il existe cependant des alternatives open source comme NLTK (Natural Language Toolkit), qui, combinées à des techniques de machine learning (dont le Deep Learning), ouvrent la voie à des solutions sur-mesure, même dans les langues moins répandues.

Perspective

L’un des freins majeurs, c’est la rareté des données médicales structurées et accessibles par machine. Si les diagnostics, protocoles ou recommandations étaient disponibles autrement qu’en PDF, et exploitables à la façon dont on navigue sur Wikipédia, l’automatisation pourrait aller beaucoup plus loin. On parle alors de « données liées ». Certaines institutions, comme le Social Board avec son API d’aide à la décision médicale, commencent à en prendre conscience.

Reste que résumer l’information médicale, comme le propose un mémoire récent à Chalmers, serait une avancée concrète, tant les dossiers de patients s’allongent et deviennent illisibles à l’échelle d’une carrière.

Hypothèse 2 : interface utilisateur vocale et conversationnelle

Se reposer exclusivement sur la voix pour l’interface, aujourd’hui, n’est pas réaliste en suédois. Les tests menés avec SiriKit (Apple) et Azure (Microsoft) montrent vite leurs limites : même en répétant une phrase connue, la reconnaissance peut échouer, surtout dans un environnement bruyant. Ces situations sont pourtant courantes dans la vie réelle.

Les enceintes connectées (Google Home, Alexa) n’offrent pas encore le suédois, mais certaines langues minoritaires pourraient être prises en charge plus tôt que la majorité. Pour les personnes ayant des difficultés à écrire ou à lire, soit environ 5 à 8 % de la population selon l’association suédoise de dyslexie, la commande vocale est un atout majeur. Et, soyons honnêtes, même sans handicap, il arrive à tout le monde de buter sur l’orthographe d’un terme technique. Les interfaces conversationnelles sont un levier d’accessibilité non négligeable.

À retenir

L’approche la plus pragmatique consiste à offrir la saisie aussi bien par clavier que par la voix, avec possibilité de corriger le texte avant envoi ou sauvegarde. La parole simplifie, mais il faut garder la main sur la validation.

Hypothèse 3 : vision par ordinateur et Deep Learning

Tester les services « prêts à l’emploi » des grands clouds pour la reconnaissance d’images médicales s’avère décevant. Azure et AWS peinent à décrire une radiographie autrement que par des généralités absurdes (« un vase blanc sur une table », « personne, assis, utilisant, femme, lit, table… »). Pas une trace explicite de seringue, alors que c’est l’élément central de l’image.

Perspective

Il reste la possibilité de développer ses propres modèles. Cela implique de caractériser la géométrie précise d’une lésion, par exemple, ou d’identifier des motifs spécifiques via des détecteurs de caractéristiques et des réseaux neuronaux convolutionnels. C’est une piste exigeante, mais nécessaire si l’on veut dépasser les limites des solutions génériques.

Bilan

Les principaux freins identifiés sont les suivants :

  • Le suédois, langue peu prioritaire, freine le développement et l’achat de services NLP adaptés. Certaines langues minoritaires pourraient paradoxalement être servies plus vite.
  • Les solutions grand public n’intègrent pas le contenu médical de façon pertinente.
  • L’offre de produits réellement utilisables en santé reste rare, l’incertitude sur la responsabilité et le modèle économique freinant l’engagement des fournisseurs.

Pour l’instant, la principale utilité des grands clouds (Amazon, Google, Microsoft) réside dans la location de puissance de calcul pour entraîner ses propres modèles ML. Les produits prêts à l’emploi, eux, ne répondent pas encore aux exigences du domaine médical.

PNL, la piste la plus prometteuse

Pour la suite, l’usage du NLP pour l’auto-soin, l’auto-triage et la génération de services d’information personnalisée semble le plus porteur. Le triage consiste à hiérarchiser les besoins médicaux à partir de l’anamnèse, des symptômes et de certains paramètres physiologiques. Associer l’anamnèse à des vocabulaires médicaux structurés (SNOMED-CT, CIM-10, CIPC…) permet d’augmenter la valeur des textes libres et d’affiner les réseaux neuronaux utilisés en back-office.

Pour l’instant, les outils ML disponibles pour l’imagerie médicale sont balbutiants, et le NLP en suédois demeure limité, excepté chez IBM sur certains volets. En clair : si l’on veut avancer, il faudra investir soi-même dans la technique, ou attendre qu’un tiers prenne le relais. Mais rester spectateur, c’est risquer de se retrouver à la traîne en santé digitale dès 2025. Mieux vaut miser sur une expertise locale, tant technique que sectorielle.

Vitalis 2018 : état des lieux

Le constat est sans appel : aucune des solutions d’IA présentées à la conférence Vitalis 2018 n’est passée à l’échelle de l’usage. Beaucoup reposent sur des arbres de décision manuels, sans exploiter de véritables technologies d’analyse contextuelle. Exemple frappant : une IA infirmière relie « champignon dans le bas-ventre » à « mycose des ongles », faute de compréhension des relations entre concepts médicaux. Un système plus robuste permettrait d’éviter ces confusions.

En route pour la prochaine étape

Des échanges avec un médecin du Sahlgrenska confirment la pertinence de poursuivre vers une évaluation à grande échelle, au plus près du secteur des soins. D’autres projets pilotes, notamment sur l’auto-triage, sont en préparation dans la région de Västra Götaland. L’objectif : créer un second avis automatisé, détecter les écarts inattendus entre diagnostic, anamnèse et résultats de laboratoire. La combinaison du NLP et du Deep Learning, compte tenu du volume de données disponibles, s’impose comme le chantier prioritaire.

Une chose est sûre : le cap est fixé. La prochaine étape implique de rassembler les forces en présence pour concrétiser ces pistes dans un projet commun, à la fois ambitieux et ancré dans la réalité des soins.

Panorama de l’IA

Dans cette réflexion, le terme d’IA désigne une intelligence spécialisée, et non une IA générale. Il s’agit d’un système performant sur une tâche précise, mais incapable de s’aventurer hors des chemins balisés. L’apprentissage automatique occupe le devant de la scène dans la plupart des usages recensés ici.

Le terme « IA » recouvre aujourd’hui un tel éventail d’applications qu’il devient difficile de s’y retrouver. Cette étude vise donc à distinguer le marketing de la réalité, en s’appuyant sur ce qui existe concrètement et sur les solutions réutilisables proposées par les fournisseurs.

La définition la plus classique de l’IA : « la capacité d’une machine à imiter un comportement intelligent humain », une idée qui remonte aux années 1950.

Qu’entend-on par « intelligence artificielle » ?

Le marketing promet monts et merveilles, mais le fossé entre discours et réalité reste large. Le test de Turing reste une référence : il s’agit de savoir si un humain peut distinguer la machine de l’humain lors d’un échange. Mais la notion même d’« intelligence » mérite d’être questionnée. Faut-il, comme en Business Intelligence, se contenter d’une capacité à traiter l’information ? Ou faut-il ajouter la conscience, la capacité d’adaptation, l’intuition ?

Une chose est sûre : si l’on s’en tient à la capacité d’acquérir et d’appliquer des connaissances, alors l’IA actuelle se limite à ce que les données permettent. Tout dépend de l’interprétation qu’on accorde à « appliquer » et « compétence ». L’intelligence humaine reste incomparable à la machine, mais la machine, elle, excelle dans des calculs inhumains.

L’IA, un concept parapluie : le règne du « machine learning »

Tout ce que l’on nomme IA aujourd’hui repose, en réalité, sur l’apprentissage automatique. Arthur Samuel le définissait dès 1959 comme « la science qui permet à l’ordinateur d’apprendre sans être explicitement programmé ». Aujourd’hui, il s’agit de faire apprendre à la machine à partir des données, dans l’espoir de la rendre apte à traiter des tâches de plus en plus complexes.

Mais l’apprentissage automatique, c’est aussi la porte ouverte aux dérives statistiques. Comme le rappelle Darrell Huff : « Si vous torturez les données assez longtemps, elles finissent par avouer n’importe quoi ». Autrement dit, un modèle ML n’est jamais neutre : la qualité des données, leur équilibre, leur préparation, conditionnent tout.

Entraîner un réseau neuronal, ou comment imiter un cerveau

Le réseau de neurones artificiel (ANN) s’inspire du cerveau, mais n’en est qu’une pâle copie. Chaque « neurone » excelle sur une tâche, et s’améliore avec l’entraînement. Illustration : la fameuse « cellule grand-mère », théorisée dans les années 1960, qui ne sert qu’à reconnaître une seule personne. La reconnaissance s’effectue alors par la combinaison de milliers de neurones spécialisés, chacun apportant sa contribution à la décision finale.

Le Deep Learning, moteur du nouvel engouement pour l’IA

Ce retour en force de l’IA s’explique par le Deep Learning : des réseaux de neurones profonds, constitués de multiples couches cachées, capables de traiter des volumes de données colossaux. Cette révolution est portée par la multiplication de la puissance de calcul (GPU, TPU…) et par la disponibilité de jeux de données massifs. Les architectures varient selon la tâche : reconnaissance d’images, analyse de texte, détection de signaux faibles… Mais plus le réseau est profond, plus il devient capable d’extraire des motifs subtils, à condition de disposer des ressources nécessaires.

Apprentissage supervisé, non supervisé, par renforcement et par transfert

Il existe plusieurs approches :

  • L’apprentissage supervisé : le modèle est entraîné à partir de données étiquetées (par exemple, une image et son diagnostic). C’est l’enseignant qui montre la bonne réponse.
  • L’apprentissage non supervisé : le modèle cherche lui-même des structures dans les données, sans indication préalable. Il regroupe, classe, détecte des motifs.
  • L’apprentissage par renforcement : le modèle apprend par essais-erreurs, encouragé par des récompenses ou pénalisé par des coûts (comme apprendre à faire du vélo : les succès et les chutes guident le progrès).
  • L’apprentissage par transfert : un modèle entraîné sur un domaine (identification de fleurs) est adapté à un autre (diagnostic médical), exploitant ses acquis pour accélérer l’apprentissage.

L’apprentissage non supervisé : une utilité limitée pour les soins ?

Dans les contextes médicaux, l’apprentissage supervisé est souvent préférable, car on dispose d’anamnèses associées à des diagnostics. L’apprentissage non supervisé, qui consiste à deviner la structure du jeu de données sans réponse connue, se heurte à la nécessité de valider la pertinence médicale des regroupements trouvés.

L’apprentissage par renforcement peut s’avérer utile pour des tâches bien délimitées, mais son application concrète en soins reste à explorer. En tout état de cause, il est important d’adapter la méthode à la nature des données et à la question posée.

Des machines pleines de règles… ou d’intelligence ?

Certains plaisantent : une IA n’est parfois qu’un programme avec un million de règles « if ». Jusqu’où cela suffit-il pour parler d’intelligence ? La frontière est ténue, et c’est l’adaptabilité qui fait la différence.

À quel niveau une solution ML devient-elle « suffisante » ?

Les systèmes d’apprentissage automatique peuvent dépasser les humains sur certains critères, mais la tolérance à l’erreur n’est pas la même : une machine qui se trompe peut briser la confiance, alors que l’humain bénéficie d’une indulgence historique. La robustesse des modèles s’évalue selon plusieurs indicateurs, précision, réduction de l’entropie, diversité… Un point crucial : l’aide à la détection des « régions d’intérêt » dans une image, qui permet d’orienter l’expert humain.

Les super-pouvoirs de la machine

Les machines ne connaissent ni fatigue ni hypoglycémie. Elles travaillent sans relâche, leur puissance de calcul augmente sans cesse, et il suffit aujourd’hui de louer quelques heures de GPU pour obtenir des résultats autrefois inaccessibles. Ce gain de temps et de ressources change la donne, notamment pour les expérimentations à grande échelle.

Les limites actuelles : attention aux « problèmes de jouets »

De nombreuses solutions prétendument révolutionnaires se révèlent, en pratique, adaptées à des « problèmes de jouets » : elles identifient des monuments célèbres, mais pas des anomalies médicales. La gestion des modèles ML, la stratégie de mise à jour, la réutilisation de modèles ouverts restent des défis. Github demeure la principale source de solutions prêtes à l’emploi, mais la qualité varie fortement.

Ce que nous avons examiné

Les travaux ont porté sur les solutions prêtes à l’emploi, qu’elles viennent d’acteurs du secteur des soins ou de géants technologiques. Certains produits sont commercialisés en marque blanche, mais la transparence technique fait souvent défaut : il faut alors tester manuellement chaque scénario d’usage. Pour aller plus loin, l’équipe s’est aussi formée via des cours spécialisés (Deep Learning, NLP, vision par ordinateur, GAN…), notamment sur Udemy et EDX (Berkeley).

Hypothèse 1 : NLP pour l’anamnèse et les récits patients

Le jeu de données analysé portait sur des anamnèses non structurées, associées à trois diagnostics médicaux (codés selon le CIPC). Deux approches ont été testées : l’analyse de sentiment (pour repérer les signaux positifs ou négatifs) et la correspondance stricte entre codes CIPC et mots du texte. L’analyse de sentiment capte des ressentis, mais peine à fournir des indications exploitables en médecine. Dans tous les cas, le langage est si varié que la modélisation reste complexe.

Des échanges avec des experts du Sahlgrenska University Hospital ont permis d’identifier quelques pistes (résumé automatique, navigation dans les textes), mais peu de solutions prêtes à l’emploi se sont montrées satisfaisantes. Une collaboration avec le bureau d’innovation de Chalmers et des chercheurs en biologie computationnelle a été initiée pour explorer la voie académique.

Un mémoire récent à Chalmers a montré que des modèles de séquences neuronales peuvent détecter des termes médicaux (médicaments, symptômes, parties du corps) dans des dossiers en suédois. Un point de départ solide pour de futurs développements.

Comprendre ce qui est dit ou écrit

À Vitalis 2018, plusieurs acteurs ont présenté des solutions d’interaction conversationnelle. Mais aucune ne s’est démarquée : certaines s’autoalimentent d’anamnèses générées par la machine elle-même, ce qui peut mener à un appauvrissement progressif du modèle (« surajustement »). La Région Skåne, par exemple, a développé un prototype de service de réservation de rendez-vous, mais il manque la dimension décisionnelle sur le niveau de soins à proposer. L’auto-triage, pourtant crucial, reste absent dès lors qu’on conduit l’utilisateur à réserver un créneau sans évaluer la gravité de sa situation.

Pour améliorer la pertinence, il faudrait que les données médicales soient structurées et lisibles par machine, permettant de poser les bonnes questions de suivi à l’utilisateur. Les protocoles de triage, analogues à des arbres de décision, sont une solution pour guider ce processus.

Le degré de gravité du cas patient

Des technologies d’analyse de sentiment permettent d’estimer l’émotivité d’un texte. Faute de données d’anamnèse en volume suffisant, un test a été mené sur des avis produits, opposant notes élevées et faibles. Le modèle ML entraîné sur ces textes est capable de prédire l’évaluation à partir d’un nouveau texte. Transposé au médical, cela permettrait de repérer les cas les plus urgents ou les plus bénins.

Classificateurs AdaBoost et cascade

Les algorithmes AdaBoost et les classificateurs en cascade compilent les signaux issus de multiples modèles pour fournir une estimation plus robuste. Sur la base de tests de classification binaire (détection de spam), AdaBoost se montre souvent plus performant, mais pas systématiquement. Plus le volume de données croît, plus l’incertitude diminue.

Analyse sémantique

L’analyse sémantique latente (LSA) calcule la proximité entre mots. Dans le secteur de la santé, cela peut servir à gérer les synonymes (médecin ↔ docteur) ou à classer les textes. Des solutions telles qu’Infermedica proposent un NLP sur mesure pour détecter symptômes et facteurs de risque dans les écrits des patients.

NLP et Deep Learning : la piste à suivre

Pour fiabiliser les conclusions, il faudra combiner grands volumes de données, Deep Learning et NLP. Mais le Deep Learning exige d’énormes jeux de données, plus que ceux accessibles dans cette étude. La suite logique : élargir le projet, collaborer avec des experts, définir une source de données appropriée.

Hypothèse 2 : interfaces vocales et conversationnelles

La reconnaissance vocale relève du ML, car il s’agit d’interpréter l’intention derrière la parole, voire d’analyser le rythme, l’intonation, la respiration. Mais les tests montrent que Siri ou Azure comprennent imparfaitement, surtout en présence d’accents ou dans des environnements bruyants.

Après plusieurs essais, la compréhension du suédois par les assistants reste aléatoire. Même en lisant à haute voix une réplique de film, la machine peut échouer à saisir le message. Ces limites sont problématiques pour un usage médical, où la précision est critique.

Soutien à domicile pour parler

L’usage de Google Home ou Alexa en suédois reste limité. Même en passant en anglais, la prononciation des termes médicaux suédois pose problème. Il devient possible de demander la fermeture d’une pharmacie la plus proche, mais pas d’obtenir une information sur un service spécifique.

Détecter l’alerte médicale dans la voix ?

Des chercheurs travaillent à détecter dans la voix des signes d’arrêt cardiaque imminent. Intégrer une telle fonction à un service de téléconsultation pourrait devenir un outil préventif, notamment dans des applications d’auto-triage. Des biomarqueurs vocaux (respiration, intonation) pourraient servir d’indicateurs précoces.

Une application concrète : guider l’utilisateur, après une blessure bénigne, sur les gestes à adopter avant d’envisager un rendez-vous médical. Un assistant conversationnel pourrait proposer ce type de support étape par étape.

À retenir

Il est probable qu’une solution conversationnelle efficace arrive d’abord dans une langue minoritaire, avant le suédois. Pour les personnes en difficulté avec la lecture ou l’écriture, la saisie vocale est un avantage clé. Reste la question de la confidentialité : envoyer toutes les conversations à un tiers pose d’importants enjeux juridiques.

Lire à voix haute des textes (plutôt que de les écrire) est plus simple : cela profite aux personnes à capacité de lecture réduite, mais aussi à celles qui préfèrent écouter. Un service qui transformerait, par exemple, des articles de santé en livre audio, pourrait intéresser un large public.

Hypothèse 3 : vision par ordinateur en santé

La vision par ordinateur consiste à doter la machine d’un « regard » sur les images ou vidéos. Pour limiter la charge de calcul, il est préférable d’utiliser des services existants. Voici, par exemple, la liste des fonctions standard proposées par Azure :

  1. Catégoriser les images selon leur contenu
  2. Déterminer le type et la qualité d’une image
  3. Détecter les visages et localiser leurs coordonnées
  4. Reconnaître des éléments spécifiques (célébrités, monuments…)
  5. Générer des descriptions textuelles
  6. Reconnaître le texte imprimé ou manuscrit dans une image
  7. Analyser les couleurs dominantes
  8. Signaler les contenus inappropriés
  9. Recadrer automatiquement l’image

En pratique, les résultats sont déconcertants. Amazon Rekognition a interprété l’image d’un conférencier comme un « thème militaire », sans rapport. Azure, confronté à des images médicales, multiplie les erreurs de classification.

Pourquoi ces ratés ? Les bases de données d’entraînement sont calibrées pour des usages génériques (paysages, objets courants), pas pour la médecine. Le risque est alors de voir la machine « halluciner » des moutons dans une pelouse ou des pizzas sur des photos d’événements publics, comme le montrent les exemples relayés par AiWierdness ou Picdescbot.

Pour l’instant, ces services ne sont pas adaptés à la santé. Il faudra entraîner ses propres modèles, sur des images médicales spécifiques, et disposer de suffisamment de puissance de calcul pour y parvenir.

Vision par ordinateur manuelle

Développer sa propre vision par ordinateur implique de réduire la dimension des données : détecter une région d’intérêt, isoler quelques pixels clés, utiliser des classificateurs faibles (nez, yeux, bouche) pour repérer un visage. Ce travail se fait souvent en niveaux de gris pour limiter le calcul, la couleur n’apportant que peu d’information utile à la machine.

La géométrie du visage, par exemple, peut être décrite ainsi :

  • Le nez : une zone lumineuse verticale encadrée de deux stries sombres
  • L’œil : un point sombre entre deux zones claires
  • Les sourcils : deux traits horizontaux orientés différemment du nez
  • La bouche : une strie noire encadrée de deux zones plus claires

Un modèle pré-entraîné peut suffire pour détecter ces formes sur une image réduite à 24×24 pixels. Mais la généralisation à d’autres objets médicaux (lésions, organes, anomalies) exige un travail d’ingénierie des fonctionnalités et des masses de données.

À terme, on peut imaginer un « App Store » de modèles prêts à l’emploi pour l’imagerie médicale. D’ici là, chaque nouvel usage demandera des efforts considérables.

Vision médicale : de la radiologie à la prévention

La radiologie a ouvert la voie, et des registres comme le BFR stockent des millions d’images exploitables. L’enjeu : croiser ces bases avec d’autres sources (Scapis, causes de décès…) pour enrichir les modèles ML. Mais le prétraitement reste chronophage : l’accès aux données, leur anonymisation, leur structuration sont autant de défis à relever avant d’entraîner un réseau de neurones.

Deep Learning

Le Deep Learning permet d’accroître la complexité des modèles, pour mieux saisir les subtilités des images médicales. Mais il exige des jeux de données volumineux, une puissance de calcul considérable, et une attention particulière à la variabilité des sources. La question n’est pas seulement de traiter l’image, mais aussi d’exploiter les métadonnées (date, lieu, contexte), qui peuvent enrichir l’analyse.

  • Période de l’année (via la date et le lieu)
  • Météo (via la lumière, l’exposition…)
  • Relations entre images (séries chronologiques, perspectives croisées…)

En combinant ces données, il devient possible de détecter des motifs, d’anticiper des risques, et de mettre au jour des connaissances cachées dans les dossiers patients.

Vision par ordinateur : perspectives

Le calcul intensif nécessaire au Deep Learning peut désormais être externalisé (Chalmers, Lindholmen, serveurs Nvidia HGX-2…). Cela ouvre la porte à des tests inédits, comme le transfert d’apprentissage sur des images thoraciques publiées par Stanford, ou la création d’applications mobiles de diagnostic préventif (détection de signes d’AVC sur un selfie, par exemple).

  • Détecter le besoin de se protéger du soleil
  • Repérer des signes d’AVC

Le défi : inventorier les modèles existants, puis valider leur pertinence pour chaque usage.

Questions éthiques

L’IA, c’est aussi la question de la diversité et de l’éthique. Les algorithmes sont façonnés par leurs créateurs, et majoritairement issus d’un univers blanc, masculin et occidental. Les erreurs sont rarement neutres : l’exemple de Siri répondant « On ne peut pas tout savoir » à une question de détresse, ou des applications photo qui interprètent mal les peaux foncées, soulignent l’importance de la représentativité dans la conception et l’entraînement des modèles.

Normalité et diversité

La diversité humaine défie la notion même de « normalité ». Les études sur les pilotes de chasse de l’US Air Force l’ont prouvé : concevoir pour l’individu moyen, c’est ne convenir à personne. Toute démarche d’apprentissage automatique doit donc s’appuyer sur la pluralité des cas, et non sur une moyenne abstraite.

Réutiliser les modèles existants : vigilance requise

La tentation de réutiliser des modèles open source ou d’en louer via le cloud est forte. Mais il faut vérifier :

  • La transparence du modèle (boîte noire ou non ?)
  • La compétence des équipes (développeurs, statisticiens, experts métier…)
  • La diversité du groupe qui supervise le modèle, pour éviter les biais systémiques

Un exemple parmi d’autres : tester un modèle de reconnaissance faciale sur des personnes barbus peut fausser les résultats pour les femmes ou les enfants. Des frameworks comme FairML commencent à proposer des outils pour détecter les biais dans les modèles ML.

Les limites de la technique

Un algorithme, ce n’est pas de la magie : c’est une suite d’instructions. Les erreurs peuvent avoir des conséquences massives, comme la privation de dépistage pour des milliers de femmes en Angleterre à cause d’un bug. La machine n’a pas d’empathie, ne contextualise pas les résultats, et peut, par ignorance, recommander des contenus dangereux ou offensants.

Donner la même importance à toutes les opinions, même les plus farfelues (comme les partisans de la Terre plate), peut conduire à des dérives, surtout si la machine ne hiérarchise pas la fiabilité des sources.

Livrables

Outre ce panorama, l’étude a produit plusieurs réalisations concrètes :

  1. Des articles détaillés sur le blog de développement de Västra Götalandsregionens
  2. Un prototype visuel d’application pour Apple Watch
  3. Un prototype open source d’auto-triage sur Apple Watch, disponible sur Github
  4. Un notebook Jupyter pour classer les anamnèses selon le code CIPC, et croiser avec les textes de 1177.se, code accessible sur Github
  5. Des exemples de code pour classifier des images via les services de vision par ordinateur Azure, fichiers Python sur Github

Enquêtes et ateliers

Pour compléter la démarche, deux actions ont été menées : une enquête interne (via Yammer et email), et un atelier d’idéation ouvert à divers profils (psychologues, médecins, chefs de projet, chercheurs, responsables innovation…)

Enquête sur l’IA

Les résultats montrent une population plutôt technophile, mais moins à l’aise sur le détail des méthodes IA. Sur la question du niveau de détail à maîtriser, la majorité estime qu’il faut un socle de compétences interne solide, sans dépendre entièrement des fournisseurs. La plupart des répondants ont de fortes attentes pour l’IA à moyen terme (3 à 5 ans), misant sur l’automatisation, l’aide à la décision, la réduction des tâches répétitives, et l’amélioration de la sécurité des patients.

Parmi les besoins exprimés : automatiser les tâches administratives, faciliter la traduction, améliorer la personnalisation des soins, ou encore permettre à chacun de poser des questions de santé en temps réel. Certains restent prudents, rappelant que la technologie doit rester au service des besoins réels, et non l’inverse.

Atelier d’idées : opportunités, risques, solutions

Les participants ont listé les apports envisageables de l’IA : second avis automatisé, auto-triage, saisie automatique dans les dossiers, égalité d’accès aux soins. Les risques évoqués : manque de transparence (boîte noire), déficit de confiance, ambiguïté sur la responsabilité, absence de stratégie claire.

Parmi les solutions avancées : renforcer la formation, recruter des architectes IA, créer un centre de connaissances, développer la transparence des modèles, et mieux exploiter les données existantes pour nourrir l’IA.

Quelles suites ?

Le projet va poursuivre l’exploration du ML sur plusieurs axes :

  1. Recherche sur les registres de santé et implication de chercheurs spécialisés
  2. Développement d’outils pour la réintégration et la priorisation en psychiatrie
  3. Transfert d’apprentissage pour la vision par ordinateur en radiologie
  4. Création de classes d’objets visuels médicaux à partir des données du BFR
  5. Combinaison Deep Learning et transfert pour le diagnostic via reconnaissance faciale, auto-soin et auto-triage
  6. Génération automatique de texte (NLG) pour rendre l’information médicale plus accessible
  7. Utilisation avancée du NLP pour analyser l’anamnèse et prioriser les soins
  8. Automatisation de compilations personnalisées à partir de sources comme 1177.se, avec lecture audio possible
  9. Évaluation de l’efficacité des vecteurs de mots en contexte médical
  10. Création ou mutualisation de modèles ML, détecteurs de fonctionnalités, et exploration des places de marché de modèles pré-entraînés

Des discussions sont en cours avec Chalmers et d’autres partenaires potentiels pour structurer les prochains projets et identifier les sources de financement nécessaires.

Annexe

Glossaire

  • Algorithme : instructions répétables permettant à une machine d’effectuer une tâche de façon systématique.
  • Amazon Echo (Alexa) : enceinte connectée permettant des interactions vocales.
  • Anamnèse : ensemble des informations médicales recueillies lors d’une consultation.
  • Apple Siri, SiriKit : plateforme Apple d’assistants vocaux.
  • API (Application Programming Interface) : interface technique pour accéder à un service distant.
  • Intelligence artificielle (IA) : comportements intelligents reproduits par des systèmes artificiels.
  • Adaptive Boosting (AdaBoost) : méthode ML combinant plusieurs modèles faibles pour améliorer la précision.
  • Apprentissage par lots : apprentissage réalisé par paquets successifs de données.
  • Arbres de décision : structures arborescentes pour guider la prise de décision.
  • Aide à la décision : systèmes visant à soutenir une prise de décision fondée sur les données.
  • Biais : déformation systématique dans les données ou les résultats.
  • BFR : registre d’images médicales de la région Västra Götaland.
  • Business Intelligence (BI) : exploitation des données pour piloter l’activité.
  • Classificateurs en cascade : combinaisons séquentielles de modèles pour améliorer la détection.
  • Vision par ordinateur (CV) : traitement automatisé d’images et vidéos.
  • Réseau neuronal convolutionnel (CNN) : architecture ML spécialisée dans l’analyse d’images.
  • Deep Learning (DL) : apprentissage automatique à couches multiples.
  • Entropie : mesure du désordre ou de la complexité dans une information.
  • Détection des fonctionnalités : identification de motifs ou d’éléments clés dans les données.
  • GAN (Generative Adversarial Networks) : réseaux neuronaux concurrents générant et évaluant de nouvelles données.
  • Github : plateforme de partage de code et de projets open source.
  • Google Home : enceinte connectée de Google.
  • GPU : processeur graphique optimisé pour le calcul parallèle.
  • Interface : moyen d’interagir avec un système (graphique, vocal, haptique…)
  • Couche cachée : niveau intermédiaire d’un réseau de neurones, non observable directement.
  • Hypothèse : proposition à tester dans le cadre d’un projet.
  • Entrée/couche d’entrée : données initiales injectées dans un modèle ML.
  • CIPC (Classification internationale des soins primaires) : système de codage des motifs de consultation en soins primaires.
  • CIM-10 : classification internationale des maladies.
  • Codeworks : systèmes de codification structurée.
  • Services cognitifs : services exploitant des processus d’analyse avancée.
  • Dossiers de qualité : bases de données médicales utilisées pour le suivi et l’évaluation.
  • KVÅ : classification des interventions médicales.
  • LSA (Analyse sémantique latente) : méthode d’analyse des relations entre mots ou concepts.
  • Linked Data : structuration des données pour faciliter leur exploitation automatique.
  • Intelligence machine : comportements intelligents produits par une machine.
  • Machine Learning (ML) : apprentissage automatique basé sur les données.
  • Lecture par machine : capacité d’un système à traiter et comprendre des informations.
  • Modèle ML : résultat de l’entraînement d’un algorithme sur des données.
  • Personas : profils types d’utilisateurs.
  • NER (Named Entity Recognition) : identification d’entités dans un texte.
  • NLG (Natural Language Generation) : génération automatique de texte à partir de données.
  • NLP (Natural Language Processing) : traitement automatique du langage naturel.
  • NLTK : bibliothèque Python pour le NLP.
  • NLU (Natural Language Understanding) : compréhension du langage naturel par la machine.
  • Réseau de neurones artificiel (ANN) : architecture ML inspirée du cerveau.
  • Neurone : unité de base des réseaux neuronaux.
  • Apprentissage en ligne : apprentissage continu opposé à l’apprentissage par lots.
  • Vecteurs de mots : représentation des mots en espaces vectoriels (Word2Vec…)
  • Sortie/couche de sortie : résultat final fourni par le modèle ML.
  • Overfitting/Underfitting : surajustement ou sous-ajustement d’un modèle ML.
  • Récit patient : expression libre de l’état de santé par le patient.
  • Personas : profils utilisateurs archétypaux.
  • Pourcentage, point de pourcentage : distinction entre variation relative et variation absolue en pourcentage.
  • ROI (region of interest) : zone d’intérêt dans une image.
  • RL (apprentissage par renforcement) : apprentissage par essais-erreurs guidé par une fonction de récompense.
  • Second avis : validation d’un diagnostic par un autre professionnel (potentiellement automatisée).
  • Analyse des sentiments : détection des émotions dans un texte.
  • Auto-renfort : boucle d’apprentissage sans données externes nouvelles.
  • Snomed-CT : système de codification médicale.
  • SL (apprentissage supervisé) : apprentissage à partir de données étiquetées.
  • Boîte noire : modèle dont le fonctionnement interne est peu transparent.
  • Synapses : connexions entre neurones.
  • Problèmes de jouets : problèmes simples, sans impact réel dans le monde professionnel.
  • TPU : processeur spécialisé Google pour le ML.
  • TL (apprentissage par transfert) : adaptation d’un modèle à un nouveau domaine.
  • Triage, auto-triage : priorisation des urgences médicales (manuelle ou automatisée).
  • Protocoles de triage : ensembles de questions et d’observations pour guider le triage.
  • Test de Turing : évaluation de la capacité d’une machine à simuler un humain.
  • UL (apprentissage non supervisé) : apprentissage sur données non étiquetées.
  • Données de validation/d’entraînement : séparation des jeux de données pour former et tester un modèle.
  • Classes d’objets visuels (COV) : catégories d’objets détectés en vision par ordinateur.
  • Vitalis : conférence annuelle sur la santé et la technologie à Göteborg.
  • Classificateurs faibles : modèles simples, peu performants individuellement, mais efficaces en ensemble.
  • WEARD : acronymes pour Western, Éduqué, Industrialisé, Riche, Démocratique, contexte des concepteurs d’algorithmes.

Ressources complémentaires

Pour approfondir, voici quelques références :

  • Articles sur les erreurs d’algorithmes en santé, la crise de la réplication, l’éthique de l’IA, Word2vec, la science des données…
  • Ouvrages : « Machine Learning Yearning » (Andrew Ng), « Data Science for Business », « Our Final Invention »…
  • Solutions techniques : Apache MXNet, fitchain.io, FairML, IBM Bluemix…
  • Clips vidéo et podcasts : visualisation de réseaux neuronaux, simulations 3D, discussions sur la reproductibilité…
  • Sources de données : SND, Open API for Insurance Medical Decision Support, Watson Data Kits, COV PASCAL, plateformes de calcul haute performance…

Rapports et remerciements

Les sous-rapports du projet sont disponibles sur le blog de développement, couvrant l’inventaire des services, le traitement du langage naturel, les démonstrateurs sur smartwatch, l’architecture d’information, la vision par ordinateur, les ateliers d’idéation…

Remerciements à : Agneta Grangård, Kerstin Hinz, Almira Thunström, Kristian Norling, Stuart Filshie, Martin Adiels.

Sources citées

  1. fr.wikipedia.org/wiki/Artificiell_Intelligence
  2. fr.wikipedia.org/wiki/Machine Learning
  3. fr.wikipedia.org/wiki/Histoire médicale
  4. fr.wikipedia.org/wiki/Natural-Language_processing
  5. fr.wikipedia.org/wiki/Named-Entity_Recognition
  6. fr.wikipedia.org/wiki/International_Classification_of_Primary_Care
  7. fr.wikipedia.org/wiki/snomed_ct
  8. fr.wikipedia.org/wiki/ICD-10
  9. www.socialstyrelsen sen.se/classiingochcoder/atgardskoderkva
  10. fr.wikipedia.org/wiki/Natural_language_toolkit
  11. fr.wikipedia.org/wiki/Deep_Learning
  12. fr.wikipedia.org/wiki/Linked_Data
  13. api.socialstyrelsen sen.se/fmb/documentation/psi/swagger-ui.html
  14. www.dyslexiforeningen.se/what-ar-dyslexi/
  15. fr.wikipedia.org/wiki/feature_detection_ (vision_ordinateur)
  16. a.wikipedia.org/wiki/Réseau Neural_Convolutional_Neural
  17. fr.wikipedia.org/wiki/Triage
  18. fr.wikipedia.org/wiki/Decision_Tree
  19. a.wikipedia.org/wiki/faible_ai
  20. computersweden.idg.se/2.2683/1.698148/it-copare-ai
  21. a.wikipedia.org/wiki/Turing_test
  22. fr.wikipedia.org/wiki/Business_Intelligence
  23. a.oxforddictionaries.com/définition/intelligence
  24. fr.wikipedia.org/wiki/how_to_lie_with_statistics
  25. a.wikipedia.org/wiki/Réseau neural_artificiel
  26. www.scientificamerican.com/article/une-face-une-neuron/
  27. fr.wikipedia.org/wiki/Supervised_Learning
  28. a.wikipedia.org/wiki/labeled_data
  29. fr.wikipedia.org/wiki/unsupervised_learning
  30. fr.wikipedia.org/wiki/Reinforcement_Learning
  31. fr.wikipedia.org/wiki/Transfer_Learning
  32. fr.wikipedia.org/wiki/Kullback,Leibler_Divergence
  33. a.wikipedia.org/wiki/Diversity_Index
  34. fr.wikipedia.org/wiki/online_machine_learning
  35. a.wikipedia.org/wiki/sentiment_analysis
  36. www.chalmers.se/fr/institutions/cse/calendarium/pages/thesis-defence-olof-mogren.aspx
  37. fr.wikipedia.org/wiki/adaboost
  38. a.wikipedia.org/wiki/Cascading_classificateurs
  39. a.wikipedia.org/wiki/latent_semantic_analysis
  40. a.wikipedia.org/wiki/latent_semantic_analysis #Applications
  41. developer.infermedica.com/docs/nlp
  42. www.gu.se/reuniversity/personal/ ? LanguageId=100000&disabledirect=true&returnurl=http://www.gu.se/English /ABOUT_The_University/STAFF/%3 FLanguageId= 100001% 26 UserID=XRAWAR&UserId=XRAWAR
  43. aiweirdness.com/post/171451900302/do-neural-nets-rêver-de-mouton électrique
  44. twitter.com/picdescbot
  45. fr.wikipedia.org/wiki/Boosting_ (apprentissage machine) #Boosting_algorithms
  46. fr.wikipedia.org/wiki/Feature_Engineering
  47. scapis.se
  48. techworld.idg.se/2.2524/1.703287/nvidia-hgx2
  49. well.blogs.nytimes.com/2016/03/14/hey-siri-can-i-rely-on-in-a-crisse-pas-toujours-a-study-finds/
  50. vgrblogg.se/utveckling/2016/09/09/jamlik-vard-i-algoritmernas-varld/
  51. RationalWiki.org/wiki/bizarre
  52. spectrum.ieee.org/riskfactor/computing/it/450000-femme-manque-cancer-cancer-dépistage du cancer du sein au Royaume-Uni en raison d’une défaillance de l’algorithme
  53. theflatearthsociety.org
  54. vgrblogg.se/utveckling/2018/03/21/prototyp-pa-app-pour-smartklocka/
  55. github.com/Vastra-Gotalandsregionen/Guide-santé-pour-montre Apple
  56. github.com/Marcusosterberg/Triage-at-Home/Blog/Master/Triage-at-Home.iPYNB
  57. github.com/marcusosterberg/triage à domicile
  58. fr.wikipedia.org/wiki/Generation_Natural_Language_Generation

Au-delà de la technique, il reste une question : qui façonnera le web et la santé de demain ? Les robots, eux, ne dorment jamais. Mais c’est à nous de décider quels chemins ils vont arpenter.

Derniers articles

Cybersécurité
Cybersécurité

Sécurité de la messagerie à Versailles : comprendre les véritables enjeux

À Versailles, ville au patrimoine historique riche, la question de la sécurité…

6 mars 2026
Informatique
Informatique

Optimiser sa boîte mail pour gagner du temps chaque jour

La boîte mail s'est imposée comme un passage obligé, aussi bien dans…

6 mars 2026
Référencement
Référencement

Pourquoi la recherche vocale ne tient pas toutes ses promesses

Impossible d'ignorer la déception qui accompagne parfois l'usage d'un assistant vocal. Les…

6 mars 2026

Article populaire

CybersécuritéInformatique

Quels sont les spoofing auxquels vous pouvez être confronté 

Le spoofing se produit généralement lorsqu’un cybercriminel se fait passer pour une…

2 décembre 2023

© 2025 | info-tech24.fr

  • Contact
  • Mentions Légales
  • Sitemap

Removed from reading list

Undo
Welcome Back!

Sign in to your account

Lost your password?