Nouveautés IA en un clin d’oeil – 5 Février 2026

1. La course aux armements : Google, OpenAI, Anthropic…

Google mise tout sur l’IA… et affole Wall Street

OpenAI bascule franchement dans l’ère des agents

Anthropic : offensive image + nouveau modèle en approche

Marché des agents : explosion annoncée… et risques


2. Agentic AI & automatisation : du no‑code multi‑modèles aux agents de prod

Plateformes de workflows multi‑modèles

Signaux depuis X : events agents & data

  • Tealium promeut un webinaire « AI integration » centré sur la connexion IA / data layer pour améliorer personnalisation et attribution, preuve que la couche données devient un sujet clé dans les stacks IA marketing.
    https://x.com/tealium/status/2018853437061140660
  • Hubble AI annonce un event sur l’usage d’IA appliquée aux perpétuels CEX/DEX et prediction markets, signe de la convergence trading algo / agents IA sur marchés décentralisés.
    https://x.com/MeetHubble/status/2019227754089365641

Ecosystèmes d’agents et mémoire longue durée

  • La newsletter AINews (smol.ai) résume la montée d’outils comme LangChain DeepAgents avec Skills & Memory, décrits comme du « harness-level design » :
    – boucles d’agents persistantes,
    – mémoire filesystem / git,
    – « skillification » de la progression en artefacts réutilisables.
    https://news.smol.ai/issues/26-01-08-not-much
  • Le même digest présente MAGMA, une approche de mémoire multi‑graphes (sémantique, temporel, causal, entités) pour des raisonnements de long terme, avec des gains sur LoCoMo et LongMemEval, ce qui va directement dans le sens d’agents capables de suivre des projets sur des semaines.

3. Modèles, open source et benchmarks : la bataille des cerveaux artificiels

Offensive des modèles open‑weights

  • GLM‑4.7 (open weights) grimpe en tête de l’Artificial Analysis Intelligence Index v4.0, avec un score de 42 sur leurs critères de raisonnement, et de très bonnes perfs en coding, usages agents et raisonnement scientifique, dépassant la version précédente GLM‑4.6.
    https://news.smol.ai/issues/26-01-08-not-much
  • Alibaba lance Qwen3‑VL‑Embedding et Qwen3‑VL‑Reranker, modèles open‑source conçus pour le RAG multimodal (texte + image + vidéo), avec des scores SOTA annoncés sur MMEB‑V2 (77,9%) et MMTEB (67,88%). Le modèle est poussé sur Hugging Face, GitHub et ModelScope, avec une API Alibaba Cloud à venir.
  • Falcon‑H1R‑7B (TII, Émirats Arabes Unis) se positionne dans la niche des « small reasoning models » (<12B paramètres) avec une architecture hybride Transformer‑Mamba et de bonnes perfs sur Humanity’s Last Exam, τ²‑Bench Telecom et IFBench.
  • D’autres modèles cités dans ce flux :
    – tencent/HY‑MT1.5‑1.8B pour la traduction multilingue en edge,
    – LGAI‑EXAONE/K‑EXAONE‑236B‑A23B, un LLM massif orienté coréen,
    – Qwen/Qwen‑Image‑2512 pour le text‑to‑image haute fidélité,
    – Lightricks/LTX‑2, modèle audio‑vidéo joint pour génération synchronisée.

DeepSeek prépare un modèle code‑first

Benchmarks : au‑delà des « capabilities »

  • Artificial Analysis pousse l’idée que les benchmarks doivent dépasser les simples scores de capacité pour intégrer :
    – un Openness Index (poids, données, gouvernance),
    – des indices de réalisme agentique (tâches knowledge‑work avec outils, terminal, web).
  • Dans les communautés, on observe aussi une montée des protocoles d’évaluation open‑source (ex : un protocole en trois phases pour juger la qualité de données synthétiques générées par un modèle 4B, avec LLM‑as‑judge et agrégation statistique).

4. Régulation, géopolitique et gouvernance de l’IA

ONU et panels scientifiques indépendants

Europe : l’AI Act entre en phase concrète

  • Le calendrier d’implémentation de l’AI Act européen rappelle que le 2 février 2026, la Commission doit publier des lignes directrices sur la mise en œuvre pratique de l’article 6 (définition des systèmes à haut risque, plan de surveillance post‑marché).
    https://artificialintelligenceact.eu/implementation-timeline/
  • Le 2 août 2026, les obligations s’étendront à de nombreux systèmes IA déjà sur le marché, avec une exigence de bacs à sable réglementaires dans chaque État membre pour tester des systèmes dans un cadre contrôlé.

Chine : adoption massive de la générative

Souveraineté, sécurité et « sovereign cloud »


5. Cas d’usage : compliance, RH, santé, enseignement supérieur

Compliance & finance

Enseignement supérieur & formation

Santé & pratiques médicales

  • Une revue de littérature dans le Canadian Medical Education Journal discute l’intégration d’IA scribes en soins primaires, dans une perspective de formation à une pratique compatissante en environnement numérique – signe que la question de l’IA en santé est désormais traitée aussi sous l’angle éthique et pédagogique.
    https://journalhosting.ucalgary.ca/index.php/cmej/article/view/81831

Solutions sectorielles prêtes à l’emploi

  • Dans Azure Marketplace, plusieurs offres ciblent des verticaux précis :
    – Smart Claims pour la détection de fraude dans les sinistres médicaux,
    – AI Speech Analytics pour analyser les conversations en call centers,
    – solutions d’IA prédictive pour maintenance, supply chain, etc. – tout cela signale une maturation rapide de l’IA verticale clé en main.

6. Communautés & signaux faibles depuis X et Reddit

« L’IA a atteint l’intelligence humaine » : débat relancé

  • Un tweet viral de Mark Kretschmann relaie un commentaire dans Nature affirmant que l’IA a déjà atteint l’intelligence humaine, au sens de Turing, car les systèmes modernes matchent ou dépassent les humains sur la plupart des tâches cognitives mesurables. L’auteur appelle à délaisser le débat sur la « vraie conscience » pour se concentrer sur la préparation sociétale.
    https://x.com/mark_k/status/2019363584606671158

Reddit : normes sociales et économie de l’IA

  • Sur r/artificial, une discussion remonte que Reddit réalise des revenus record en grande partie grâce aux licences de données IA, tout en voyant le cours de son action chuter de 9%, illustrant les tensions entre modèle économique IA‑first et attentes des marchés.
    https://www.reddit.com/r/Burryology/comments/1g9i0l2/reddits_ceo_says_they_are_having_ai_data/
  • Sur r/learnmachinelearning, un post très visible s’ouvre par un edit du 5 février 2026 : l’auteur s’excuse d’avoir utilisé Gemini pour générer un guide de deep learning, la communauté rappelant la nécessité de transparence et de rigueur pour les contenus éducatifs générés par IA.
    https://www.reddit.com/r/learnmachinelearning/hot/
    https://www.reddit.com/r/learnmachinelearning/
  • Le digest smol.ai pointe aussi des threads très actifs sur :
    – « Les 2 plus gros problèmes de l’IA en 2026 » (remplissage des trous de contexte, friction entre langage humain flou et besoins d’inputs structurés),
    – le passage de la collection de « cool prompts » à la construction d’une standard library de prompts testables, réutilisables – approche clairement inspirée du génie logiciel.

7. Événements & conférences à surveiller (deadlines et rendez‑vous du jour)


8. Quelques chiffres‑clés du jour pour finir

  • Capex IA d’Alphabet : 175–185 Md$ prévus pour 2026, vs 91,4 Md$ en 2025.
  • Destruction de valeur software liée à l’IA : environ 1 000 Md$ de capitalisation partis en fumée sur le secteur logiciel, dans un contexte où l’IA rebat les cartes des marges et des business models.
  • Utilisateurs mensuels de l’app Gemini : plus de 750 millions, selon Alphabet.
  • Adoption de l’IA générative en Chine : 42,8% de la population en décembre 2025 (+25,2 points sur un an).
  • Nombre estimé d’agents IA susceptibles de « partir en vrille » faute de gouvernance : 1,5 million, selon CIO.

En synthèse

La journée du 5 février 2026 confirme trois lignes de force :

  1. Industrialisation de l’agentic AI : OpenAI, Microsoft, NAVER, Cisco & co poussent tous vers des architectures où des agents IA persistants manipulent des systèmes complexes, tandis que les rapports soulignent à la fois les gains potentiels et la dette de gouvernance.
  2. Arms race des infrastructures : les chiffres de capex d’Alphabet et la rhétorique de souveraineté cloud montrent que la bataille ne se joue plus seulement sur les modèles, mais sur les datacenters, l’énergie, la mémoire et les stacks complètes.
  3. Normalisation sociale et réglementaire : l’ONU, l’UE, les gouvernements nationaux, les universités et les communautés Reddit/X tentent de fixer des normes – éthiques, pédagogiques, économiques – dans un contexte où certains chercheurs déclarent déjà que « l’IA a atteint le niveau humain ».