Parce que… c’est l’épisode 0x735!

Shameless plug

Description

Retour aux sources techniques

Dans cet épisode, l’animateur retrouve Frédéric Grelot, expert en intelligence artificielle, qu’il n’avait pas croisé depuis un moment. Frédéric a quitté son poste de dirigeant chez Glimps, une entreprise qu’il avait exportée au Canada, pour retrouver ses premières amours : la technique et la recherche. Il a rejoint l’AMIAD (Agence pour la maîtrise de l’IA de défense), rattachée au ministère des Armées français, créée en 2024. Un retour assumé, les « mains dans le cambouis », comme il le dit lui-même.

Le fil conducteur de cet échange tourne autour d’une idée provocatrice : peut-on faire de l’intelligence artificielle sans données ? Frédéric avertit d’emblée que la formule est volontairement accrocheuse, et que la réponse sera nuancée.

Une histoire de l’IA en quelques étapes clés

Pour comprendre où l’on va, Frédéric propose un retour sur les grandes ruptures qui ont façonné l’IA depuis une quarantaine d’années.

1989 – Les débuts des réseaux convolutifs. Le réseau LeNet-5, conçu pour lire des chiffres manuscrits sur des chèques, représente l’un des premiers exemples concrets de réseaux de neurones convolutifs. Ces réseaux fonctionnent en empilant des couches d’analyse : les premières détectent des formes simples (points, lignes, angles), les suivantes des structures plus complexes (roues, rétroviseurs, puis une voiture entière). Ce paradigme a dominé le domaine pendant environ vingt ans.

2012 – La double révolution. Deux événements simultanés ont provoqué une explosion du domaine. D’une part, Nvidia a démocratisé l’utilisation des GPU pour le calcul scientifique via son API CUDA, rendant accessibles des calculs matriciels massivement parallèles. D’autre part, le jeu de données ImageNet a été publié en accès libre — un million d’images réparties en 1 000 catégories — offrant à la communauté une base commune pour entraîner et évaluer des modèles. Ces deux facteurs combinés ont déclenché une effervescence considérable, notamment dans le domaine de la vision par ordinateur.

2017 – L’avènement des transformers. La publication du célèbre article Attention is all you need introduit une nouvelle architecture qui va s’imposer comme le standard de l’IA moderne. Contrairement aux approches séquentielles précédentes, le transformer analyse chaque mot d’une phrase en le mettant en relation avec tous les mots qui le précèdent, enrichissant progressivement le sens de chaque élément couche après couche. Cette capacité à saisir le contexte global d’une séquence est à la base de tous les grands modèles de langage actuels.

Son principal défaut : un coût de calcul quadratique par rapport à la longueur des séquences. Doubler la longueur d’un texte quadruple le volume de calcul. Les recherches de ces huit dernières années ont largement porté sur la résolution de ce problème, avec des résultats impressionnants — certains modèles open source atteignent aujourd’hui des fenêtres de contexte d’un à deux millions de tokens.

Novembre 2022 – ChatGPT et la démocratisation. La sortie de ChatGPT marque moins une rupture technologique qu’une rupture d’usage. En mettant dans les mains du grand public ce qui n’existait que dans des laboratoires, OpenAI a transformé une évolution technique en révolution sociale. Les questions d’hallucinations, de jailbreak et d’alignement des modèles ont alors émergé comme des enjeux majeurs.

Les modèles de fondation : l’IA qui apprend à vivre avant de se spécialiser

C’est ici que Frédéric introduit son concept central : les modèles de fondation. L’analogie qu’il utilise est parlante : un enfant qui grandit jusqu’à 20 ans — observant des formes, des visages, des papillons, faisant du cerf-volant — développe une compréhension générique du monde qui en fait un « excellent modèle de fondation ». Il sera ensuite capable d’apprendre un métier précis, comme la géométrie ou la rétroingénierie de code, en repartant de cette base solide plutôt que de zéro.

Un modèle de fondation est entraîné sur des quantités massives de données brutes, sans nécessairement annoter chaque exemple. Une fois cette phase généraliste accomplie, on n’a plus besoin que d’un tout petit volume de données spécialisées et annotées pour l’amener à un niveau d’excellence sur une tâche précise. Là où il fallait autrefois des millions d’exemples étiquetés, quelques centaines suffisent désormais.

Ce paradigme bouleverse les rapports de force autour de la donnée. Frédéric, qui conseillait autrefois à ses clients de « conserver précieusement toutes leurs données », leur dit aujourd’hui d’en garder un peu, de bonne qualité. Le reste n’est plus indispensable.

Vers l’inférence sans entraînement

La dernière évolution abordée est peut-être la plus spectaculaire : le zero-shot learning. Grâce à la richesse des modèles de fondation, il est aujourd’hui possible de montrer une seule image d’un objet inconnu — une voiture jamais vue pendant l’entraînement — et d’être immédiatement capable de la reconnaître dans d’autres photos. Aucun entraînement supplémentaire n’est nécessaire : le modèle comprend l’objet à partir d’un seul exemple.

C’est en ce sens que l’on peut parler d’IA « sans données » : non pas qu’il n’y en ait jamais eu, mais que l’utilisateur final n’a plus besoin d’en fournir pour bénéficier de capacités autrefois réservées aux experts disposant de vastes bases de données annotées.

Un domaine en perpétuelle ébullition

La conversation aborde également la dynamique concurrentielle entre modèles propriétaires américains et modèles open source, notamment chinois (DeepSeek) et français (Mistral). Les contraintes imposées aux acteurs chinois en matière de puissance de calcul ont paradoxalement stimulé l’innovation, à travers des techniques comme la distillation, le pruning ou l’optimisation des architectures d’attention.

L’épisode se conclut sur une note d’ouverture : les hallucinations reculent, les modèles apprennent à dire « je ne sais pas », et le champ continue d’évoluer à un rythme soutenu — autant de raisons de se retrouver pour un prochain épisode.

Collaborateurs

Crédits

Télécharger .m4a (70.7M) Télécharger .mp3 (62.1M)

Tag: ia


Tweet