Revue de presse IA – Semaine du 2 au 9 avril 2026

Cette semaine a été marquée par des annonces structurantes, notamment chez Anthropic, qui a choisi de ne pas publier son modèle le plus avancé pour des raisons de sécurité. Voici ce que les avocats et professions libérales doivent retenir de cette actualité dense.

Les annonces de la semaine en un coup d’œil

EntrepriseAnnonceDate
AnthropicClaude Mythos Preview + Project Glasswing7 avril 2026
AnthropicManaged Agents (service hébergé)8 avril 2026
AnthropicAccord compute Google + Broadcom6 avril 2026
xAIQuality mode sur Grok Imagine3 avril 2026
Google DeepMindLancement de Gemma 42 avril 2026
PerplexityBillion Dollar Build8 avril 2026

Les quatre annonces à retenir

1. Claude Mythos Preview et Project Glasswing (Anthropic)

Anthropic a présenté Claude Mythos Preview, un modèle nettement plus performant que Claude Opus 4.6 sur les tâches de codage, de raisonnement et, surtout, de détection et d'exploitation de vulnérabilités logicielles. L'entreprise a décidé de ne pas le rendre accessible au grand public.

La raison est explicite : ce modèle atteint un niveau de compétence en cybersécurité offensive qui dépasse celui des experts humains. Le diffuser sans précautions serait prendre un risque que l'entreprise juge inacceptable.

En parallèle, Anthropic lance Project Glasswing, un consortium de plus de 40 entreprises — dont Apple, Amazon et Microsoft — qui accèdent au modèle dans un cadre contrôlé, dans le but d'identifier et de corriger les failles dans les infrastructures logicielles critiques. L'idée : utiliser la puissance du modèle pour défendre les systèmes avant que des acteurs malveillants ne l'exploitent à leur tour.

C'est la première fois qu'un laboratoire d'IA assume publiquement qu'un modèle est trop dangereux pour une diffusion large, tout en le déployant dans un cadre défensif structuré.

Pour les avocats spécialisés en droit du numérique ou en cybersécurité, cette annonce illustre concrètement les tensions juridiques à venir : responsabilité des éditeurs d'IA, régimes de responsabilité en cas d'exploitation d'une vulnérabilité détectée par un modèle, encadrement des consortiums de sécurité. Ces questions seront au cœur des contentieux des prochaines années.

2. Managed Agents : Anthropic entre dans l’ère des agents persistants

Anthropic a annoncé le lancement de son service Managed Agents, une infrastructure hébergée permettant d'exécuter des agents autonomes sur des tâches longues et séquentielles, de manière fiable et à grande échelle.

Jusqu'ici, les agents IA se heurtaient à des problèmes d'architecture : interruptions, perte de contexte, difficulté à enchaîner des étapes complexes sur la durée. Ce service vise à résoudre ces limitations techniques.

Pour les cabinets d'avocats, cela ouvre des perspectives concrètes : des agents capables de conduire une revue documentaire sur plusieurs heures, d'effectuer une veille réglementaire continue, ou de préparer un dossier en enchaînant automatiquement plusieurs étapes de recherche et de synthèse. La question de la supervision humaine de ces agents — et de la responsabilité en cas d'erreur — devient dès lors un enjeu pratique immédiat.

3. Gemma 4 : Google accélère sur l’open-source

Google DeepMind a publié Gemma 4, une famille de modèles en open-weight (31B dense et 26B MoE) sous licence Apache 2.0. Les caractéristiques techniques sont solides : raisonnement avancé, appel de fonctions natif, capacités multimodales (vision et audio), fenêtre de contexte de 256 000 tokens.

Le modèle a enregistré plus de 10 millions de téléchargements en quelques jours, ce qui témoigne d'une adoption rapide dans la communauté des développeurs.

Pour les éditeurs de logiciels juridiques et les cabinets qui développent leurs propres outils, Gemma 4 représente une option sérieuse : un modèle puissant, déployable localement ou sur des infrastructures maîtrisées, sans dépendance à une API externe. Cela répond directement aux préoccupations de confidentialité des données clients, un point sensible pour toute profession soumise au secret professionnel.

4. L’accord compute Anthropic–Google–Broadcom

Anthropic a conclu un accord pluriannuel avec Google et Broadcom pour accéder à plusieurs gigawatts de TPU de nouvelle génération à partir de 2027. Le chiffre d'affaires annualisé de l'entreprise dépasse désormais 30 milliards de dollars, contre 9 milliards fin 2025.

Cet accord sécurise la capacité de calcul nécessaire pour entraîner et déployer les futurs modèles Claude à grande échelle. Il confirme également que la course aux infrastructures entre les grands laboratoires d'IA s'intensifie, avec des investissements qui se chiffrent en dizaines de milliards de dollars.

Les tendances à surveiller

Agents autonomes : une adoption qui s’accélère

Deux annonces convergent cette semaine sur le sujet des agents : Managed Agents chez Anthropic et le function-calling natif de Gemma 4 chez Google. Les agents autonomes, capables d'exécuter des tâches longues sans intervention humaine constante, passent du stade expérimental au stade opérationnel.

Pour les avocats, cela soulève des questions pratiques immédiates : comment encadrer contractuellement l'usage de ces agents dans une relation client ? Qui est responsable d'une erreur commise par un agent lors d'une revue de contrats ? Ces questions méritent d'être anticipées dès maintenant.

Cybersécurité : un nouveau terrain stratégique pour l’IA

L'annonce de Claude Mythos Preview place la cybersécurité au centre des préoccupations des laboratoires d'IA. Les modèles frontier atteignent un niveau où ils peuvent identifier des vulnérabilités logicielles plus efficacement que des experts humains. Cette capacité est à double tranchant : elle peut servir la défense comme l'attaque.

Pour les avocats en droit du numérique, les questions de responsabilité liées à ces capacités vont se multiplier. Le cadre juridique actuel — notamment le règlement européen sur l'IA — n'est pas encore calibré pour traiter des modèles délibérément retenus hors du marché pour des raisons de sécurité.

Open-source contre modèles contrôlés : deux logiques qui coexistent

La semaine illustre une divergence de stratégies entre les acteurs. Google mise sur la diffusion large avec Gemma 4, accessible à tous sous licence ouverte. Anthropic fait le choix inverse avec Mythos Preview, en restreignant l'accès pour des raisons de sécurité.

Ces deux approches répondent à des logiques différentes : démocratisation de l'accès d'un côté, contrôle des risques de l'autre. Pour les cabinets qui choisissent leurs outils IA, cette distinction a des implications concrètes en matière de gouvernance, de conformité et de gestion des risques.

Projection à six mois : ce qui se prépare

  • Un Claude Opus renforcé devrait être publié, intégrant les mécanismes de sécurité testés via Mythos Preview, probablement accompagné d'une offre agentique plus aboutie.
  • La multiplication des consortiums de cybersécurité sur le modèle de Project Glasswing, avec des questions de gouvernance et de responsabilité juridique à résoudre.
  • Une pression accrue sur tous les laboratoires pour justifier leurs décisions de publication — ou de non-publication — de modèles aux capacités sensibles.
  • L'essor des agents autonomes en production, avec Anthropic et Google en première ligne, sur des approches différentes (contrôlée versus ouverte).

La question centrale des prochains mois sera la suivante : comment les régulateurs — européens en particulier — vont-ils encadrer des modèles dont les capacités justifient qu'ils ne soient pas diffusés ? L'AI Act ne prévoit pas explicitement ce cas de figure. Des ajustements réglementaires sont probables.

Ce que les avocats doivent retenir

  • Les agents autonomes deviennent opérationnels. La question de leur encadrement contractuel et de la responsabilité en cas d'erreur n'est plus théorique.
  • La cybersécurité devient un domaine de spécialisation à part entière pour les avocats du numérique. Les capacités des modèles IA en matière de détection de vulnérabilités vont générer de nouveaux contentieux.
  • Le choix entre modèles open-source et modèles propriétaires a des implications directes sur la confidentialité des données clients et la conformité au RGPD.
  • Le cadre réglementaire de l'AI Act va être mis à l'épreuve par des situations que ses rédacteurs n'avaient pas anticipées — comme celle d'un modèle trop puissant pour être publié.

La prochaine revue de presse IA couvrira la semaine du 9 au 16 avril 2026. Si des annonces majeures interviennent entre-temps — notamment une publication de Claude Opus ou une évolution du cadre réglementaire européen —, une mise à jour sera publiée.