• Studer.IA
  • Posts
  • Newsletter IA #73 du 6 Mars 2026

Newsletter IA #73 du 6 Mars 2026

SOMMAIRE

  1. Anthropic refuse l'offre finale du Pentagone : le mémo qui secoue la Silicon Valley

  2. OpenAI signe avec le Département de la Guerre et ChatGPT en paye le prix

  3. "The End of OpenAI" : le récit qui s'emballe sur X

  4. Exode de ChatGPT vers Claude : Anthropic lance l'import de mémoire

  5. Sam Altman face au silence : une communication en demi-teinte

  6. OpenAI lève à nouveau des fonds : "Scaling AI for Everyone"

  7. Anthropic : 19 milliards de revenus en 14 mois

  8. Valorisation vs. cash burn : qui tient la distance ?

  9. Jack Dorsey licencie 4 000 personnes chez Block et l'assume publiquement

  10. En Europe, les entreprises qui adoptent l'IA recrutent davantage

  11. 📌 Actus en bref

  12. 📸 Image de la semaine

Hello 👋

Cette semaine, une question a traversé toute l'actualité IA : jusqu'où une entreprise peut-elle aller pour décrocher des contrats d'État ?

Anthropic a refusé les conditions du Pentagone. OpenAI a signé. Ce choix binaire a déclenché une onde de choc : mémo interne explosif, exode d'utilisateurs, guerre des récits sur X pendant qu'en coulisses, les deux entreprises continuaient leur course aux capitaux.

Bonne lecture.

🥷🏻 La guerre Anthropic / OpenAI

Anthropic refuse l’offre finale du Pentagone : le mémo qui secoue la Silicon Valley

Le résumé
Dario Amodei, PDG d'Anthropic, a publié vendredi un mémo interne de 1 600 mots qui constitue la prise de position la plus directe de l'entreprise depuis sa fondation. Après que le Pentagone a qualifié Anthropic de "risque pour la chaîne d'approvisionnement" et formulé une "offre finale" conditionnant un contrat fédéral à la suppression des garde-fous de Claude, la réponse a été nette : les menaces "ne changent pas notre position."

Les détails clés

  • Le mémo : Rendu public via The Information, le document accuse Sam Altman de "gaslighting" et pointe la donation de 25 millions de dollars de Greg Brockman à Donald Trump, en contraste avec le refus d'Anthropic de formuler des "éloges de style dictateur."

  • La charge contre OpenAI : Amodei qualifie l'accord Pentagon-OpenAI de "peut-être 20 % réel et 80 % de mise en scène sécuritaire", dénonçant une tentative de spin narratif contre Anthropic.

  • La nuance du mardi : Quelques jours après la publication, Amodei a pris soin de préciser qu'Anthropic et le Pentagone "ont bien plus en commun qu'ils n'ont de différences" : la porte n'est pas fermée, mais les conditions le sont.

Ce qu'il faut retenir 
Ce mémo marque la fin d'une retenue de cinq ans. Depuis son départ d'OpenAI en 2020, Amodei s'était abstenu de toute critique publique directe. La rupture est désormais consommée et elle se déroule devant l'opinion publique. Pour les entreprises et développeurs qui choisissent leur modèle IA, ce positionnement devient un signal différenciant fort, avec tout ce que cela implique en termes de risque de réputation et de choix stratégique.

OpenAI signe avec le Département de la Guerre et ChatGPT en paye le prix

Le résumé
Pendant qu'Anthropic refusait, OpenAI acceptait. L'entreprise a conclu un accord avec le Département de la Guerre américain dans des termes proches de ceux soumis à Anthropic. La réaction ne s'est pas fait attendre : sur les réseaux, des utilisateurs ont commencé à documenter publiquement leur départ de ChatGPT, invoquant des raisons éthiques. Un signal faible, mais symboliquement lourd.

Les détails clés

  • L'accord : OpenAI accepte de déployer ses modèles pour des applications militaires, une décision qui contraste avec les engagements de transparence éthique historiquement mis en avant par l'entreprise.

  • La réaction communautaire : Plusieurs fils de discussion sur X ont agrégé des témoignages d'utilisateurs migrant vers Claude, certains évoquant explicitement la comparaison entre les deux postures d'entreprise.

  • L'impact géopolitique : Dans un contexte de tensions États-Unis / Iran, des infrastructures AWS hébergeant Claude ont subi des attaques sur un data center aux Émirats arabes unis, causant des pannes significatives rappelant que la dépendance aux clouds centralisés reste une vulnérabilité concrète, indépendamment des choix éthiques des éditeurs.

Ce qu'il faut retenir
L'accord OpenAI-Pentagone n'est pas seulement un contrat commercial, c'est un marqueur identitaire. En acceptant des conditions qu'Anthropic a refusées, OpenAI a tracé une ligne de démarcation que ses utilisateurs les plus engagés n'ont pas manqué de noter. La question est de savoir si cet effet de réputation se traduit à terme dans les chiffres d'usage.

“The End of OpenAI” : Le récit qui s’emballe sur X

Le résumé
Au-delà du débat factuel, la semaine a vu émerger sur X un récit plus radical : certains analystes et observateurs ont commencé à parler ouvertement de "la fin d'OpenAI", non comme une prédiction immédiate, mais comme un scénario crédible pour la première fois. La combinaison de l'accord Pentagone, des critiques d'Amodei et des questions sur la gouvernance interne d'OpenAI a alimenté une conversation qui, il y a six mois, aurait semblé exagérée.

Les détails clés

  • Le changement de perception : OpenAI, longtemps perçue comme l'entreprise indéboulonnable du secteur, fait face à une érosion de confiance chez une partie de sa base d'utilisateurs et de la communauté tech.

  • La "victoire narrative" d'Anthropic : Dans le même temps, plusieurs voix influentes sur X ont qualifié la semaine de victoire d'Anthropic non pas commerciale, mais de positionnement. L'entreprise a réussi à incarner la cohérence là où OpenAI apparaît comme opportuniste.

  • Les limites de l'analyse X : Ces récits doivent être pris avec distance. Les dynamiques de réseau social amplifient les signaux négatifs, et OpenAI reste, en volume d'utilisateurs et de revenus, l'acteur dominant du marché grand public.

Ce qu'il faut retenir
La bataille pour la confiance se joue autant dans les perceptions que dans les produits. OpenAI dispose d'une avance structurelle considérable, mais le secteur IA évolue suffisamment vite pour que les renversements de situation ne soient plus théoriques. À surveiller dans les prochains trimestres.

Exode de ChatGPT vers Claude : Anthropic lance l’import de mémoire

Le résumé
Dans ce contexte tendu, Anthropic a lancé un outil dont le timing ne doit rien au hasard : claude.com/import-memory permet aux utilisateurs de ChatGPT d'importer directement leurs données de mémoire vers Claude. Un geste technique, mais aussi un geste commercial fort, qui facilite concrètement la migration pour les utilisateurs les plus fidèles à leur historique conversationnel.

[IMAGE placeholder]

Les détails clés

  • La fonctionnalité : L'import de mémoire permet de transférer les préférences, contextes et informations personnelles accumulés dans ChatGPT vers Claude en quelques étapes réduisant ainsi le principal frein à la migration, qui est la perte de personnalisation.

  • Le timing stratégique : Lancé dans la semaine de l'annonce de l'accord Pentagone-OpenAI, l'outil transforme le débat éthique en opportunité de conversion utilisateur concrète.

  • Un tutoriel disponible : Studeria a publié un guide complet pour accompagner cette migration, disponible en lien ci-dessous.

Ce qu'il faut retenir
Anthropic joue sur plusieurs tableaux simultanément positionnement éthique, communication de crise et acquisition utilisateur. L'import de mémoire est le chaînon qui transforme un débat abstrait sur les valeurs en action tangible pour l'utilisateur. La question est de savoir combien, parmi ceux qui expriment leur désaccord avec OpenAI sur X, passent réellement à l'acte.

Sam Altman face au silence : une communication en demi-teinte

Le résumé
Dans cette semaine d'une rare intensité pour le secteur, la réaction publique de Sam Altman a frappé par sa discrétion. Sur X, le PDG d'OpenAI a publié un message lapidaire au moment de l'annonce de l'accord Pentagone, sans assumer frontalement les termes du contrat ni répondre directement aux accusations formulées dans le mémo d'Amodei. Un silence partiel qui n'est pas passé inaperçu.

Les détails clés

  • Le post : Court, factuel, sans la verve habituelle d'Altman sur les réseaux. Aucune réponse directe aux termes "safety theater" utilisés par Amodei, ni mention des accusations de "gaslighting."

  • Le contraste avec Amodei : Pendant qu'Amodei publiait 1 600 mots de charge frontale, Altman choisissait la retenue stratégie délibérée ou inconfort réel, difficile à trancher.

  • La lecture possible : Dans un contexte où OpenAI négocie simultanément des contrats fédéraux, des partenariats Microsoft et une nouvelle levée de fonds, une guerre de mots publique avec Anthropic représente un risque sans bénéfice évident.

Ce qu'il faut retenir
Le silence d'Altman est peut-être la décision la plus rationnelle de la semaine du point de vue des affaires mais il laisse le terrain narratif entièrement à Amodei. Dans une industrie où la confiance est une ressource stratégique, l'absence de réponse est aussi une forme de communication. À suivre lors des prochaines prises de parole publiques du PDG d'OpenAI.

🏃La course aux capitaux

OpenAI lève à nouveau des fonds : “Scaling AI for Everyone”

Le résumé
OpenAI a annoncé un nouveau tour de financement cette semaine, présenté sous l'angle de la démocratisation de l'accès à l'IA. Derrière le slogan, une réalité plus prosaïque : l'entreprise doit régulièrement revenir sur les marchés pour financer une infrastructure dont les coûts ne cessent de croître, et maintenir une valorisation qui dépasse désormais les 300 milliards de dollars.

Les détails clés

  • Le discours officiel : L'annonce publiée sur le site d'OpenAI, intitulée "Scaling AI for Everyone", met en avant une réduction des coûts d'accès aux modèles pour les développeurs et les entreprises : un argument commercial autant qu'une promesse d'accessibilité.

  • La valorisation : Cette levée consolide une position de leader en termes de capitalisation privée, loin devant la plupart des entreprises tech cotées en bourse. Mais l'écart entre valorisation et revenus réels reste l'une des questions centrales que les analystes posent à chaque nouveau tour.

  • Le contexte de la semaine : Cette annonce intervient au moment même où l'accord avec le Pentagone et le mémo d'Amodei monopolisent l'attention. Certains observateurs y lisent également une opération de réassurance vis-à-vis des investisseurs dans une semaine particulièrement chargée pour la réputation d'OpenAI.

Ce qu'il faut retenir
OpenAI continue de lever des capitaux à un rythme que peu d'entreprises peuvent soutenir et c'est précisément ce rythme qui impose de signer des contrats stratégiques, y compris ceux qui soulèvent des questions éthiques. La dépendance aux investisseurs n'est pas qu'une contrainte financière, c'est aussi une contrainte narrative.

Anthropic : 19 milliards de revenus en 14 mois

Le résumé
Pendant que la polémique Pentagone occupait les esprits, une donnée financière circulait discrètement sur X et recontextualisait tout le reste. Anthropic affiche désormais 19 milliards de dollars de revenus annualisés en mars 2026, contre 1 milliard en janvier 2025. Une multiplication par 19 en 14 mois qui place l'entreprise dans une catégorie à part en termes de croissance commerciale réelle.

Les détails clés

  • La trajectoire : Les jalons publiés dans une analyse très commentée sur X sont saisissants : 1 milliard en janvier 2025, 3 milliards en mai, 5 milliards en août, 7 milliards en octobre, 8 à 10 milliards en décembre, 14 milliards en février 2026, et 19 milliards en mars. Une courbe qui dépasse les projections les plus optimistes formulées il y a un an.

  • Les moteurs de croissance : Cette accélération est portée principalement par l'adoption enterprise et les revenus API des clients qui intègrent Claude dans leurs produits et workflows professionnels, un segment structurellement plus stable que les abonnements grand public.

  • Le paradoxe de la semaine : La prise de position contre le Pentagone, qui aurait pu fragiliser la confiance des grands comptes, semble avoir eu l'effet inverse renforçant l'image d'Anthropic auprès des entreprises soucieuses de leur propre alignement éthique.

Ce qu'il faut retenir
Anthropic est en train de démontrer qu'on peut construire une croissance de revenus réels sans dominer le marché grand public. La question qui reste ouverte est celle de la rentabilité : à quel niveau de revenus l'entreprise couvre-t-elle son cash burn ? La réponse conditionnera si la prochaine levée sera un choix stratégique ou une nécessité structurelle.

Valorisation VS. Cash Burn : qui tient la distance ?

Le résumé
Une analyse comparative publiée sur X cette semaine a mis côte à côte OpenAI et Anthropic sous un angle rarement traité directement : le rapport entre valorisation affichée et consommation réelle de trésorerie. Le constat est instructif les deux entreprises brûlent des capitaux massivement, mais leurs profils de risque sont structurellement différents.

Les détails clés

  • OpenAI : l'écart qui interroge : Valorisée à plus de 300 milliards de dollars, l'entreprise affiche un ratio valorisation/revenus réels parmi les plus élevés du secteur. Le cash burn lié à l'entraînement des modèles, aux data centers et aux acquisitions de talents reste considérable ce qui oblige à lever régulièrement et à signer des contrats à forte valeur, quelles qu'en soient les implications.

  • Anthropic : la base qui se solidifie : Avec 19 milliards de revenus annualisés et une croissance qui ne ralentit pas, Anthropic réduit mécaniquement son ratio valorisation/revenus trimestre après trimestre. L'entreprise reste déficitaire, mais la trajectoire est celle d'une montée en puissance organique non d'un pari sur un futur encore hypothétique.

  • Ce que révèle la comparaison : L'analyse pointe que la pression structurelle d'OpenAI à signer des contrats institutionnels comme celui du Pentagone est en partie liée à ce déséquilibre. Plus l'écart entre valorisation et revenus réels est grand, plus les choix commerciaux se font sous contrainte.

Ce qu'il faut retenir
La course à la valorisation a longtemps masqué les fondamentaux économiques des grands acteurs de l'IA. Ce qui se dessine en 2026 est un retour progressif aux métriques de revenus réels et sur ce terrain, la semaine appartient clairement à Anthropic. Pour les décideurs qui choisissent leur stack IA, ce rééquilibrage mérite d'être intégré dans l'analyse.

🧑🏼‍🎓 IA et emploi : deux mondes, deux visions

Jack Dorsey licencie 4 000 personnes chez Block et l’assume publiquement

Le résumé
Jack Dorsey, fondateur de Block (ex-Square), a annoncé cette semaine le licenciement de 4 000 collaborateurs. Ce qui distingue cette annonce des vagues de réductions habituelles dans la tech : Dorsey ne l'a pas habillée en "restructuration stratégique". Il a été direct, l'IA permet de faire plus avec moins de personnes, et il en tire les conséquences opérationnelles sans détour.

Les détails clés

  • Le post sans filtre : Dans un message publié directement sur X, Dorsey assume la productivité augmentée par l'IA comme justification principale des suppressions de postes. Pas de storytelling RH, pas de "nous réorientons nos priorités" — une franchise rare dans les communications de ce type, et qui a immédiatement alimenté le débat.

  • L'ampleur du mouvement : 4 000 suppressions de postes représentent une réduction significative des effectifs de Block, entreprise qui opère dans les paiements, la crypto et les services financiers aux PME. Le signal dépasse largement le cadre de Block : il valide publiquement un modèle où l'IA se substitue à des fonctions jusqu'ici occupées par des humains.

  • Un précédent qui fait jurisprudence : Dorsey rejoint une liste de dirigeants tech qui tiennent ce discours en privé depuis des mois sans oser le formuler publiquement. En l'assumant ouvertement, il franchit un cap et normalise une logique que d'autres pourraient bientôt revendiquer à leur tour.

Ce qu'il faut retenir
L'annonce de Dorsey est un test de perception autant qu'une décision opérationnelle. La question qui se pose désormais est de savoir si ce discours restera l'apanage de quelques dirigeants radicaux de la tech américaine, ou s'il annonce une tendance de fond. La réponse dépendra en grande partie de ce qui se passe de l'autre côté de l'Atlantique.

En Europe, les entreprises qui adoptent l’IA recrutent davantage

Le résumé
À rebours du signal envoyé par Jack Dorsey, une étude publiée le 4 mars 2026 par la Banque Centrale Européenne apporte un éclairage radicalement différent. Dans le contexte européen, les entreprises qui ont intégré l'IA dans leurs processus ne réduisent pas leurs effectifs, elles les augmentent. Un résultat contre-intuitif qui mérite d'être lu avec attention, et avec nuance.

Les détails clés

  • Les conclusions de l'étude : Les données de la BCE montrent que les entreprises européennes adoptant l'IA affichent une croissance nette des effectifs supérieure à leurs concurrentes non-adoptantes. L'IA génère de nouveaux besoins en compétences : analyse, supervision, intégration qui compensent et dépassent les suppressions de postes opérationnelles.

  • Le rôle du cadre européen : L'Europe opère dans un contexte de droit du travail et de protection sociale structurellement différent des États-Unis. Les gains de productivité y sont plus souvent réinvestis dans la croissance que dans la réduction des coûts salariaux, ce qui explique en partie la divergence avec le modèle Dorsey.

  • Les limites à garder en tête : L'étude porte sur une période d'adoption précoce, où les entreprises pionnières sont souvent en phase de croissance organique. Il est possible que l'effet s'inverse à mesure que l'adoption se généralise et que les gains de productivité se banalisent dans l'ensemble des secteurs.

Ce qu'il faut retenir
La vraie question n'est pas "l'IA crée-t-elle ou détruit-elle des emplois ?" mais "qui décide de l'usage des gains de productivité ?" En Europe, le cadre contraint davantage les entreprises à réinvestir ces gains dans la croissance. Aux États-Unis, la liberté de restructuration est plus grande et certains dirigeants n'hésitent plus à s'en servir. Les deux modèles coexisteront durablement, mais leurs effets sociaux seront très différents. C'est précisément ce débat que les régulateurs européens devront anticiper avant qu'il ne se pose de façon plus brutale.

📌 Actus de la semaine

  • Google Nano Banana 2 : Google lance une nouvelle version de son modèle embarqué, conçu pour tourner directement sur les appareils sans connexion au cloud. Une tendance de fond vers l'IA on-device qui s'accélère.

  • Cour Suprême américaine : La plus haute juridiction des États-Unis a décliné d'examiner un litige sur les droits d'auteur liés aux contenus générés par IA, laissant sans réponse fédérale une question juridique de premier plan.

  • Alibaba Qwen : Alibaba annonce un modèle capable de fonctionner sur un iPhone 17, poursuivant la course aux modèles compacts et embarqués. La compétition sur les petits modèles devient aussi intense que sur les grands.

  • Gemini Flash-Lite : Google déploie Gemini 3.1 Flash-Lite, une version allégée et économique de son modèle, ciblant les usages à fort volume et à faible latence.

  • AWS et le conflit US-Iran : Des "objets non identifiés" ont frappé un data center d'AWS aux Émirats arabes unis, provoquant des pannes majeures sur Claude d'Anthropic et rappelant la vulnérabilité des infrastructures cloud en zones de tension géopolitique.

  • GPT-5.3 Instant : OpenAI sort discrètement GPT-5.3 Instant, un modèle positionné sur la rapidité et le coût, dans la lignée des offres Flash et Haiku de la concurrence.

  • OpenAI vs GitHub Copilot : Selon The Information, OpenAI développerait un outil concurrent de GitHub Copilot, ce qui mettrait en tension son partenariat historique avec Microsoft.

📸 Image de la semaine

Cette semaine, pas de vidéo mais un graphique qui vaut tous les discours. La courbe de croissance des revenus d'Anthropic publiée à partir de sources Bloomberg, The Information et Reuters montre une trajectoire passée de 1 milliard de dollars en janvier 2025 à 19 milliards en mars 2026, soit une multiplication par 19 en seulement 14 mois. Dans un secteur où les valorisations précèdent souvent les revenus de plusieurs années, Anthropic est en train de construire quelque chose de plus rare : une base économique réelle. À suivre de près, surtout dans le contexte de la semaine écoulée.

La Team Studeria

C’est tout pour cette semaine.

Studeria décrypte l’IA chaque semaine pour vous aider à comprendre ses usages, ses limites et ses opportunités.

Si cette newsletter vous a plu, partagez-la à 2 amis pour leur permettre de rester à jour sur l’IA !