Aller au contenu
Hypernews IA

1 milliard en amorçage : l'Europe a son nouveau géant de l'IA

LeCun pilote une IA souveraine mondiale · Google Gemini Omni génère de la vidéo · 12M tokens 50x moins cher · Anthropic signe avec SpaceX 220 000 GPU · Gemma 4 jusqu'à 3x plus rapide

1 milliard en amorçage : l'Europe a son nouveau géant de l'IA
Top 1

Ineffable Intelligence : un milliard en amorçage, un record européen qui force l'attention

Ineffable Intelligence : un milliard en amorçage, un record européen qui force l'attention

La startup britannique Ineffable Intelligence vient de boucler un tour de table d'1,1 milliard de dollars en phase d'amorçage, un nouveau record pour le continent. L'objectif de la startup : atteindre la superintelligence grâce à l'apprentissage par renforcement.

  • Ineffable Intelligence affiche une ambition explicite vers la superintelligence, se plaçant directement en compétition avec les laboratoires américains et les acteurs bien financés comme Anthropic ou xAI.
  • La startup veut attaquer le problème de la superintelligence par l'apprentissage par renforcement, un paradigme permettant aux IA d'apprendre d'elles-mêmes dans des environnements et donc, potentiellement, de dépasser la compétence humaine.
  • Le premier trimestre 2026 a vu naître 11 licornes en Europe, dont la startup AMI Labs (levée d'1,03 milliards, le précédent record), un rythme de création jamais atteint sur le continent, selon les données compilées autour de cette levée.
  • Ce tour illustre un changement de dynamique : les investisseurs acceptent désormais de mobiliser des tickets de type méga-round dès la phase d'amorçage, sans attendre de revenus ou de produit commercial établi.

Pourquoi c'est important

Un milliard en amorçage, c'est le signal que la compétition sur la superintelligence attire des capitaux à une échelle qui était réservée aux acteurs américains il y a encore dix-huit mois. Concrètement, cela va peser sur les recrutements : Ineffable Intelligence va aspirer des talents en ML, en infrastructure GPU et en recherche fondamentale à l'échelle européenne, renchérissant les profils déjà rares. Les acteurs établis, des scale-ups aux grands groupes tech qui construisent leurs propres capacités d'IA, vont devoir ajuster leurs grilles salariales et leurs arguments de marque employeur face à ce nouveau concurrent capitalisé. À surveiller dans les prochaines semaines : la composition de l'équipe fondatrice et les premiers recrutements annoncés, qui donneront une indication sur l'approche technique réelle derrière l'ambition affichée.

Lire la source

Top 2

Thinking Machines lève le voile : une IA qui parle (enfin) de façon fluide

Thinking Machines lève le voile : une IA qui parle (enfin) de façon fluide

Mira Murati présente TML-Interaction-Small, un modèle capable d'écouter, voir et répondre en même temps. L'architecture Mixture-of-Experts découpe les échanges en micro-tours de 200 millisecondes, ce qui rapproche l'interaction de la fluidité d'une vraie conversation.

  • Premier modèle public de Thinking Machines Lab, la startup fondée par Mira Murati après son départ d'OpenAI en octobre 2023, soit 14 mois de développement avant cette sortie.
  • Architecture full-duplex : le modèle traite simultanément l'audio entrant et la génération de réponse, sans attendre la fin d'un tour de parole, contrairement aux pipelines classiques écoute-puis-répond.
  • L'IA est capable de travailler tout en écoutant et parlant. Elle peut donc lancer des recherches webs ou générer des graphiques au fil de la conversation de façon fluide.
  • Le modèle est qualifié de 'Small', ce qui laisse entendre qu'une version plus grande est en préparation dans la roadmap de Thinking Machines.

Pourquoi c'est important

200 millisecondes par micro-tour, c'est le seuil en dessous duquel un humain ne perçoit plus de latence conversationnelle. En visant cette valeur, Thinking Machines s'attaque directement au principal défaut des assistants vocaux actuels : le silence gênant entre la fin d'une phrase et le début de la réponse. Concrètement, intégrer ce type de modèle dans un produit vocal ou un agent multimodal change la conception de l'UX : on ne gère plus un flux question-réponse, on gère un flux continu avec des points d'interruption possibles à tout moment. Google et OpenAI ont tous deux travaillé sur des capacités similaires (Gemini Live, GPT-4o en mode vocal), mais une startup indépendante qui publie une architecture documentée sur ce sujet crée une nouvelle référence technique à surveiller de près.

Lire la source

Top 3

Yann LeCun lance Tapestry : entraîner des IA géantes sans centraliser une seule donnée

Yann LeCun lance Tapestry : entraîner des IA géantes sans centraliser une seule donnée

Le Projet Tapestry, lancé le 7 avril 2026 sous la direction de Yann LeCun, propose une plateforme open-source d'entraînement fédéré capable de coordonner des modèles massifs à l'échelle mondiale. Les données restent chez leurs propriétaires, ce qui change structurellement l'équation de la souveraineté numérique.

  • Yann LeCun, lauréat du prix Turing et figure centrale de la recherche en deep learning, prend le rôle de conseiller scientifique en chef de l'AI Alliance pour piloter ce projet.
  • Le Projet Tapestry est officiellement lancé le 7 avril 2026 : il s'agit d'une infrastructure open-source conçue pour l'entraînement fédéré de grands modèles à l'échelle planétaire.
  • Le principe central est le non-partage des données sensibles : chaque institution ou nation conserve ses données localement, seuls les gradients ou paramètres agrégés circulent sur le réseau.
  • L'objectif déclaré est de garantir la souveraineté technologique des États et des institutions face à la concentration actuelle de la puissance d'entraînement chez un petit nombre d'acteurs privés américains et chinois.

Pourquoi c'est important

Un hôpital européen, une administration publique ou un opérateur télécom africain pourrait contribuer à l'entraînement d'un modèle de classe mondiale sans jamais exporter un seul enregistrement patient ou un seul log réseau. C'est précisément le verrou que Tapestry prétend faire sauter. Si la plateforme tient ses promesses techniques, les États qui bloquaient leur participation à l'IA faute de garanties juridiques sur leurs données auront un argument concret pour rejoindre des consortiums d'entraînement. L'AI Alliance regroupe déjà IBM, Meta et une cinquantaine d'universités : la crédibilité institutionnelle est là, reste à voir si l'infrastructure fédérée passe à l'échelle sans dégrader la qualité des modèles produits.

Lire la source

En bref

À lire aussi

D'autres éditions récentes de Hypernews IA.

Voir toutes les archives