1 milliard en amorçage : l'Europe a son nouveau géant de l'IA
LeCun pilote une IA souveraine mondiale · Google Gemini Omni génère de la vidéo · 12M tokens 50x moins cher · Anthropic signe avec SpaceX 220 000 GPU · Gemma 4 jusqu'à 3x plus rapide

Ineffable Intelligence : un milliard en amorçage, un record européen qui force l'attention

La startup britannique Ineffable Intelligence vient de boucler un tour de table d'1,1 milliard de dollars en phase d'amorçage, un nouveau record pour le continent. L'objectif de la startup : atteindre la superintelligence grâce à l'apprentissage par renforcement.
- Ineffable Intelligence affiche une ambition explicite vers la superintelligence, se plaçant directement en compétition avec les laboratoires américains et les acteurs bien financés comme Anthropic ou xAI.
- La startup veut attaquer le problème de la superintelligence par l'apprentissage par renforcement, un paradigme permettant aux IA d'apprendre d'elles-mêmes dans des environnements et donc, potentiellement, de dépasser la compétence humaine.
- Le premier trimestre 2026 a vu naître 11 licornes en Europe, dont la startup AMI Labs (levée d'1,03 milliards, le précédent record), un rythme de création jamais atteint sur le continent, selon les données compilées autour de cette levée.
- Ce tour illustre un changement de dynamique : les investisseurs acceptent désormais de mobiliser des tickets de type méga-round dès la phase d'amorçage, sans attendre de revenus ou de produit commercial établi.
Pourquoi c'est important
Un milliard en amorçage, c'est le signal que la compétition sur la superintelligence attire des capitaux à une échelle qui était réservée aux acteurs américains il y a encore dix-huit mois. Concrètement, cela va peser sur les recrutements : Ineffable Intelligence va aspirer des talents en ML, en infrastructure GPU et en recherche fondamentale à l'échelle européenne, renchérissant les profils déjà rares. Les acteurs établis, des scale-ups aux grands groupes tech qui construisent leurs propres capacités d'IA, vont devoir ajuster leurs grilles salariales et leurs arguments de marque employeur face à ce nouveau concurrent capitalisé. À surveiller dans les prochaines semaines : la composition de l'équipe fondatrice et les premiers recrutements annoncés, qui donneront une indication sur l'approche technique réelle derrière l'ambition affichée.
Thinking Machines lève le voile : une IA qui parle (enfin) de façon fluide

Mira Murati présente TML-Interaction-Small, un modèle capable d'écouter, voir et répondre en même temps. L'architecture Mixture-of-Experts découpe les échanges en micro-tours de 200 millisecondes, ce qui rapproche l'interaction de la fluidité d'une vraie conversation.
- Premier modèle public de Thinking Machines Lab, la startup fondée par Mira Murati après son départ d'OpenAI en octobre 2023, soit 14 mois de développement avant cette sortie.
- Architecture full-duplex : le modèle traite simultanément l'audio entrant et la génération de réponse, sans attendre la fin d'un tour de parole, contrairement aux pipelines classiques écoute-puis-répond.
- L'IA est capable de travailler tout en écoutant et parlant. Elle peut donc lancer des recherches webs ou générer des graphiques au fil de la conversation de façon fluide.
- Le modèle est qualifié de 'Small', ce qui laisse entendre qu'une version plus grande est en préparation dans la roadmap de Thinking Machines.
Pourquoi c'est important
200 millisecondes par micro-tour, c'est le seuil en dessous duquel un humain ne perçoit plus de latence conversationnelle. En visant cette valeur, Thinking Machines s'attaque directement au principal défaut des assistants vocaux actuels : le silence gênant entre la fin d'une phrase et le début de la réponse. Concrètement, intégrer ce type de modèle dans un produit vocal ou un agent multimodal change la conception de l'UX : on ne gère plus un flux question-réponse, on gère un flux continu avec des points d'interruption possibles à tout moment. Google et OpenAI ont tous deux travaillé sur des capacités similaires (Gemini Live, GPT-4o en mode vocal), mais une startup indépendante qui publie une architecture documentée sur ce sujet crée une nouvelle référence technique à surveiller de près.
Yann LeCun lance Tapestry : entraîner des IA géantes sans centraliser une seule donnée

Le Projet Tapestry, lancé le 7 avril 2026 sous la direction de Yann LeCun, propose une plateforme open-source d'entraînement fédéré capable de coordonner des modèles massifs à l'échelle mondiale. Les données restent chez leurs propriétaires, ce qui change structurellement l'équation de la souveraineté numérique.
- Yann LeCun, lauréat du prix Turing et figure centrale de la recherche en deep learning, prend le rôle de conseiller scientifique en chef de l'AI Alliance pour piloter ce projet.
- Le Projet Tapestry est officiellement lancé le 7 avril 2026 : il s'agit d'une infrastructure open-source conçue pour l'entraînement fédéré de grands modèles à l'échelle planétaire.
- Le principe central est le non-partage des données sensibles : chaque institution ou nation conserve ses données localement, seuls les gradients ou paramètres agrégés circulent sur le réseau.
- L'objectif déclaré est de garantir la souveraineté technologique des États et des institutions face à la concentration actuelle de la puissance d'entraînement chez un petit nombre d'acteurs privés américains et chinois.
Pourquoi c'est important
Un hôpital européen, une administration publique ou un opérateur télécom africain pourrait contribuer à l'entraînement d'un modèle de classe mondiale sans jamais exporter un seul enregistrement patient ou un seul log réseau. C'est précisément le verrou que Tapestry prétend faire sauter. Si la plateforme tient ses promesses techniques, les États qui bloquaient leur participation à l'IA faute de garanties juridiques sur leurs données auront un argument concret pour rejoindre des consortiums d'entraînement. L'AI Alliance regroupe déjà IBM, Meta et une cinquantaine d'universités : la crédibilité institutionnelle est là, reste à voir si l'infrastructure fédérée passe à l'échelle sans dégrader la qualité des modèles produits.
En bref
- 🎬Gemini Omni génération vidéo
Google prépare Omni, un modèle vidéo capable de générer du texte réaliste à l'écran.
- ⚡SubQ dépasse 12M tokens
Architecture quasi linéaire ex-Meta, 50x plus rapide que les modèles frontières actuels.
- 🚀Anthropic x SpaceX : Colossus 1
Claude accède à 220 000 GPU Nvidia via le data center SpaceX de Memphis.
- ⚡Gemma 4 accélérée MTP
Google réduit la latence d'inférence de Gemma 4 jusqu'à 3x via le décodage spéculatif multi-tokens.
- 🧬Génome DIY à domicile
Séquencer son propre génome chez soi coûte 1 100 € et prend 72 heures.
- 🚀SpaceX Terafab, 55 Mds$
SpaceX prévoit une usine de puces IA à Austin, pouvant atteindre 119 milliards d'investissement.
- 📰Anthropic bloque le marché secondaire avant son IPO
Actions vendues sans accord du conseil déclarées nulles et sans valeur légale.
À lire aussi
D'autres éditions récentes de Hypernews IA.

Le Pentagone branche l'IA sur ses secrets de guerre
Panthalassa lève 140M pour l'énergie des vagues · BMW sort 300M pour l'IA embarquée · Gemini débarque dans vos voitures · SoftBank prépare une IPO à 100Mds · Roze, la licorne robotique

GPT-5.5 est là, et l'IA bouscule tout
Musk vs Altman : le combat du siècle · Anthropic dépasse OpenAI · DeepSeek V4 est là · Mythos découvre 271 failles dans Firefox

La création visuelle change de monde avec ChatGPT Images 2.0 et Claude Design
Claude design · xAI déçoit · DeepSeek lève 300M · La Chine rattrape son retard · Une justice parallèle

Ce robot peut tout faire. Enfin, à 99%.
Le quantique et l'IA s'améliorent mutuellemet · IA et cyberattaques avec Mythos · Un cocktail Molotov pour Altman · La philosophie chez Google