<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
  <channel>
    <title>AI Safety Daily Digest</title>
    <link>https://ygauthie.github.io/ai-safety-radar-securite-ia/</link>
    <description>Daily AI safety research, policy, and development digest</description>
    <language>en</language>
    <lastBuildDate>Thu, 07 May 2026 10:22:42 GMT</lastBuildDate>
    <item>
      <title>AI Safety Daily Digest: Executive Summary — 2026-05-07</title>
      <link>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-daily.md</link>
      <guid>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-daily.md</guid>
      <pubDate>Thu, 07 May 2026 00:00:00 GMT</pubDate>
      <description><![CDATA[<h2>Top 3 Developments</h2>
<p><strong>CAISI Signs National Security Testing Agreements with Major AI Companies</strong>: The <a href="https://www.nist.gov/news-events/news/2026/05/caisi-signs-agreements-regarding-frontier-ai-national-security-testing">U.S. AI Safety Institute signed formal agreements</a> with Google DeepMind, Microsoft, and xAI to conduct national security-focused testing of frontier AI systems before deployment, as part of ongoing government oversight expansion that also includes <a href="https://www.lesswrong.com/posts/QX2ZCfkpWGqkyvStN/the-ai-ad-hoc-prior-restraint-era-begins">White House orders reportedly halting AI model access expansion</a> and consideration of requiring government permission for releasing highly capable AI models. This matters because it establishes comprehensive government oversight mechanisms for advanced AI capabilities that could fundamentally reshape how frontier AI development and deployment operates.</p>
<p><strong>Model Spec Midtraining Breakthrough Enables Fine-Grained Alignment Control</strong>: <a href="https://www.lesswrong.com/posts/R3Rrw8EscuRKxMFTz/model-spec-midtraining-improving-how-alignment-training">New research demonstrates</a> that training models on their intended behavior specifications between pre-training and fine-tuning allows precise control over how alignment generalizes, with identically fine-tuned models developing different values based on their midtraining specifications. This matters because it provides a concrete method for reducing agentic misalignment and controlling AI system values, addressing a fundamental challenge in AI alignment where current approaches often fail to generalize appropriately.</p>
<p><strong>AgentTrust Runtime Safety Framework Released for Production AI Agents</strong>: <a href="https://arxiv.org/abs/2605.04785v1">New research introduces</a> a critical safety framework for AI agents that execute real-world actions through tool calls, providing runtime monitoring and interception capabilities to prevent unsafe actions like accidental deletion, credential exposure, or data exfiltration through semantic understanding of agent intentions. This matters because it addresses a crucial gap in AI agent safety where existing defenses either operate post-hoc or fail to understand the semantic intent of agent actions in production environments.</p>
<h2>Section Summaries</h2>
<p><strong>Research Papers</strong>: Coverage includes eleven papers addressing critical safety challenges including <a href="https://arxiv.org/abs/2605.04785v1">AgentTrust runtime safety evaluation for AI agents</a>, <a href="https://arxiv.org/abs/2605.05166v1">first token confidence methods for hallucination detection</a>, <a href="https://arxiv.org/abs/2605.05025v1">attention divergence signals for detecting unreliable outputs</a>, <a href="https://arxiv.org/abs/2605.04134v1">dynamical system approaches to black-box hallucination detection</a>, <a href="https://arxiv.org/abs/2605.03907v1">activation steering methods that fail to replicate prompt-based control</a>, <a href="https://arxiv.org/abs/2605.03609v1">convergent-divergent routing for moral reasoning control</a>, <a href="https://arxiv.org/abs/2605.04019v1">automated red teaming frameworks reducing assessment time</a>, <a href="https://arxiv.org/abs/2605.03952v1">compositional vulnerability assessment in coding agents</a>, <a href="https://arxiv.org/abs/2605.03916v1">atomic fact-checking methods for clinical AI</a>, <a href="https://arxiv.org/abs/2605.03512v1">analysis of deskilling and addiction as overlooked AI risks</a>, and <a href="https://arxiv.org/abs/2605.04039v1">differential scaling laws for safety versus accuracy in clinical applications</a>.</p>
<p><strong>Blogs &amp; News</strong>: Major developments include <a href="https://www.lesswrong.com/posts/R3Rrw8EscuRKxMFTz/model-spec-midtraining-improving-how-alignment-training">model spec midtraining techniques for controlling alignment generalization</a>, <a href="https://www.lesswrong.com/posts/QX2ZCfkpWGqkyvStN/the-ai-ad-hoc-prior-restraint-era-begins">reports of White House orders halting AI model access expansion</a>, [analysis of automated AI research as recursive self-improvement](<a href="https://importai.substack.com/p/import-ai-455-automa">https://importai.substack.com/p/import-ai-455-automa</a></p>
]]></description>
    </item>
    <item>
      <title>AI Safety Daily Digest: Blogs &amp; News — 2026-05-07</title>
      <link>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-analysis.md</link>
      <guid>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-analysis.md</guid>
      <pubDate>Thu, 07 May 2026 00:00:00 GMT</pubDate>
      <description><![CDATA[<h2>Top Stories</h2>
<p><strong><a href="https://thezvi.substack.com/p/the-ai-ad-hoc-prior-restraint-era">Zvi Mowshowitz reports on White House ordering prior restraint of AI models</a></strong> - The White House has reportedly ordered Anthropic to halt expansion of access to their &quot;Mythos&quot; model and is considering a complete policy reversal toward requiring government permission before releasing highly capable AI models. This represents a dramatic shift from voluntary commitments to mandatory prior restraint that could fundamentally reshape how frontier AI development operates in the US.</p>
<p><strong><a href="https://www.alignmentforum.org/posts/eAQZaiC3PcBhS4HjM/linkpost-interpreting-language-model-parameters">New parameter decomposition breakthrough for AI interpretability</a></strong> - Researchers introduce Adversarial Parameter Decomposition (VPD), a significant improvement over previous techniques for understanding how language model parameters function, claiming the method is now ready for application to production-scale models. This technical advance could be crucial for understanding and controlling AI systems&#39; internal representations and decision-making processes.</p>
<p><strong><a href="https://cset.georgetown.edu/article/microsoft-google-and-xai-will-let-the-government-test-their-ai-models-before-launch/">Major AI labs agree to pre-release government testing</a></strong> - Microsoft, Google, and xAI have signed agreements allowing the U.S. government to evaluate unreleased AI models for cybersecurity and national security risks before public launch, with CAISI reportedly having already examined over 40 models including state-of-the-art systems. This formalization of pre-deployment testing could become the new standard for responsible AI development and represents a significant expansion of government oversight capabilities.</p>
<p><strong><a href="https://www.anthropic.com/news/higher-limits-spacex">Anthropic announces major compute expansion through SpaceX partnership</a></strong> - Anthropic has secured a substantial compute capacity deal with SpaceX, enabling increased usage limits for Claude Code and the Claude API as part of their scaling efforts. This partnership highlights the growing intersection between AI development and space-based infrastructure, potentially signaling new approaches to meeting the massive computational demands of frontier AI systems.</p>
<h2>Policy &amp; Governance</h2>
<p><strong><a href="https://digital-strategy.ec.europa.eu/en/news/eu-agrees-simplify-ai-rules-boost-innovation-and-ban-nudification-apps-protect-citizens">EU implements new AI regulations targeting deepfakes</a></strong> - The European Union has agreed to ban &quot;nudification&quot; applications while simultaneously simplifying AI rules to boost innovation, reflecting the ongoing balance between promoting AI development and protecting citizens from harmful applications. This dual approach of targeted prohibitions alongside regulatory streamlining could influence global approaches to AI governance.</p>
<p><strong><a href="https://cset.georgetown.edu/article/government-funded-research-seeds-entire-industries-what-would-be-lost-without-it/">CSET analysis highlights importance of government research funding</a></strong> - Georgetown CSET researchers argue in Barron&#39;s that proposed cuts to NIH funding could undermine the government research that has historically seeded entire technology industries, including the foundations of modern AI. This analysis comes at a critical time when AI capabilities increasingly depend on sustained basic research investments that may not survive purely market-driven funding models.</p>
]]></description>
    </item>
    <item>
      <title>AI Safety Daily Digest: Community &amp; Tools — 2026-05-07</title>
      <link>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-community.md</link>
      <guid>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-community.md</guid>
      <pubDate>Thu, 07 May 2026 00:00:00 GMT</pubDate>
      <description><![CDATA[<h2>Key Discussions</h2>
<p><strong><a href="https://github.com/anthropics/claude-cookbooks/pull/599">Anthropic Cookbook Multiagent Examples</a></strong> - This PR adds comprehensive Claude Managed Agents cookbooks demonstrating heterogeneous team coordination with specialized agents (web-search researcher, file-reading librarian, rules-based pricer) working together to assemble sales proposals. This matters because it provides concrete patterns for building reliable multi-agent systems with scoped toolsets and clear coordination protocols.</p>
<p><strong><a href="https://github.com/openai/openai-cookbook/pull/2659">OpenAI Cookbook Autonomous Kubernetes Debugging</a></strong> - New notebook showcasing an agentic workflow for platform engineering that uses structured outputs to safely parse live infrastructure errors and generate validated Kubernetes YAML fixes. This matters because it demonstrates how to build trustworthy autonomous systems for critical infrastructure tasks where safety and validation are paramount.</p>
<p><strong><a href="https://github.com/NVIDIA-NeMo/Guardrails/pull/1860">NeMo Guardrails Testing Surface</a></strong> - Promotes internal testing utilities (FakeLLMModel and TestChat) to a public nemoguardrails.testing subpackage, enabling downstream users to test their guardrails configurations without copying internal helpers. This matters because it makes AI safety testing more accessible and standardized across the community.</p>
<p><strong><a href="https://github.com/QWED-AI/qwed-verification/issues/175">QWED Verification Fail-Closed Enforcement Gaps</a></strong> - Tracking issue identifying multiple fail-open vulnerabilities in the QWED verification system, including reasoning verification passing without complete proof, unknown agent actions being approved, and audit logging using insecure defaults. This matters because it highlights critical gaps in AI safety verification systems that could allow unsafe behaviors to pass undetected.</p>
<h2>Notable GitHub Releases &amp; Tools</h2>
<p><strong><a href="https://github.com/sattyamjjain/agent-airlock/releases/tag/v0.7.3">Agent Airlock v0.7.3</a></strong> - Patch release updating Claude Agent SDK floor from 0.1.58 to 0.1.73, forwarding new duration_ms PostToolUse hook field into audit-record streams. This enables better monitoring and debugging of agent tool usage patterns.</p>
<p><strong><a href="https://github.com/a9lim/llmoji/releases/tag/v2.0.1">llmoji v2.0.1</a></strong> - Updates the emoji lexicon with a 9-cell PAD (Pleasure-Arousal-Dominance) grid alignment system, expanding from 48 to 50 words with mechanically derived emotional coordinate cells. This matters because it provides a structured psychological framework for emotion-aware AI systems.</p>
<p><strong><a href="https://github.com/HadiFrt20/vouch/releases/tag/v0.1.0">vouch v0.1.0</a></strong> - Initial alpha release of a Claude Code plugin for staged AI agent pipelines featuring adversary verification, atomic budgets, and tournament-gated prompt promotion across 7 slash commands. This matters because it provides a comprehensive framework for building verified and budget-controlled AI agent workflows.</p>
<p><strong><a href="https://github.com/comet-ml/opik/releases/tag/2.0.23">Opik 2.0.23</a></strong> - Latest release of the LLM evaluation and observability platform, adding environment support for tagging traces with lifecycle stages, improved UI components, and better provider model synchronization. This enables more sophisticated production monitoring and lifecycle management of AI systems.</p>
]]></description>
    </item>
    <item>
      <title>AI Safety Daily Digest: Research Papers — 2026-05-07</title>
      <link>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-research.md</link>
      <guid>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-research.md</guid>
      <pubDate>Thu, 07 May 2026 00:00:00 GMT</pubDate>
      <description><![CDATA[<h2>Key Papers</h2>
<p>Several significant developments in AI safety emerged this week, with a notable focus on hallucination detection methods and safety evaluation frameworks for AI agents.</p>
<p><strong><a href="https://arxiv.org/abs/2605.04785v1">AgentTrust: Runtime Safety Evaluation and Interception for AI Agent Tool Use</a></strong> introduces a critical safety framework for AI agents that execute real-world actions through tool calls. The system provides runtime monitoring and interception capabilities to prevent unsafe actions like accidental deletion, credential exposure, or data exfiltration. This addresses a crucial gap in AI agent safety where existing defenses either operate post-hoc or fail to understand the semantic intent of agent actions.</p>
<p><strong><a href="https://arxiv.org/abs/2605.05166v1">The First Token Knows: Single-Decode Confidence for Hallucination Detection</a></strong> presents an efficient approach to detect LLM hallucinations by analyzing the confidence of just the first generated token, rather than requiring multiple sampling rounds. The method shows that first-token entropy can serve as a reliable predictor of response quality across different model architectures. This could significantly reduce the computational overhead of hallucination detection in production systems.</p>
<p><strong><a href="https://arxiv.org/abs/2605.05025v1">Detecting Hallucinations in Large Language Models via Internal Attention Divergence Signals</a></strong> proposes using attention matrices to estimate uncertainty without external models or repeated sampling. By measuring Kullback-Leibler divergence between attention heads and uniform distributions, the method provides interpretable signals of model confidence. This white-box approach offers complementary insights to token-based methods and could help developers understand when and why models generate unreliable outputs.</p>
<p><strong><a href="https://arxiv.org/abs/2605.04134v1">Low-Cost Black-Box Detection of LLM Hallucinations via Dynamical System Prediction</a></strong> treats LLMs as dynamical systems, projecting responses into high-dimensional manifolds to characterize vector sequences as observable realizations. This novel perspective avoids expensive sampling-based consistency checks while maintaining model-agnostic applicability. The approach could provide a mathematically principled foundation for understanding LLM behavior patterns that lead to hallucinations.</p>
<p><strong><a href="https://arxiv.org/abs/2605.05103v1">Text Corpora as Concept Fields: Black-Box Hallucination and Novelty Measurement</a></strong> introduces the concept of &quot;Concept Fields&quot; - local drift fields estimated in sentence-embedding space to measure agreement between candidate sentences and corpus-derived expectations. The method provides corpus-attributable scores that trace back to specific training examples. This could help developers understand how models extrapolate beyond their training distribution and identify potential sources of hallucinated content.</p>
<p><strong><a href="https://arxiv.org/abs/2605.04797v1">Beyond Seeing Is Believing: On Crowdsourced Detection of Audiovisual Deepfakes</a></strong> examines human performance in detecting increasingly sophisticated audiovisual deepfakes through crowdsourcing experiments. The study measures consistency in distinguishing authentic from manipulated videos and accuracy in identifying manipulation types. As deepfake technology advances, understanding the limits of human detection becomes crucial for developing appropriate technical safeguards and policy responses.</p>
<p><strong><a href="https://arxiv.org/abs/2605.04698v1">Gray-Box Poisoning of Continuous Malware Ingestion Pipelines</a></strong> investigates poisoning attacks against continuous ML-based malware detection systems using functionality-preserving binary manipulations. The work demonstrates how adversaries with partial system knowledge can compromise detection pipelines through strategically crafted samples. This highlights vulnerabilities in production ML security systems that continuously ingest and learn from new data.</p>
<p>*Note: ArXiv does not publish new submissions on weeken</p>
]]></description>
    </item>
    <item>
      <title>AI Safety Daily Digest: Executive Summary — 2026-05-07</title>
      <link>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-daily.fr.md</link>
      <guid>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-daily.fr.md</guid>
      <pubDate>Thu, 07 May 2026 00:00:00 GMT</pubDate>
      <description><![CDATA[<h2>Top 3 des développements</h2>
<p><strong>CAISI signe des accords de test de sécurité nationale avec les principales entreprises d&#39;IA</strong> : L&#39;<a href="https://www.nist.gov/news-events/news/2026/05/caisi-signs-agreements-regarding-frontier-ai-national-security-testing">Institut américain de sécurité de l&#39;IA a signé des accords formels</a> avec Google DeepMind, Microsoft et xAI pour effectuer des tests axés sur la sécurité nationale des systèmes d&#39;IA de pointe avant le déploiement, dans le cadre de l&#39;expansion continue de la surveillance gouvernementale qui comprend également <a href="https://www.lesswrong.com/posts/QX2ZCfkpWGqkyvStN/the-ai-ad-hoc-prior-restraint-era-begins">des ordres de la Maison-Blanche qui auraient suspendu l&#39;expansion de l&#39;accès aux modèles d&#39;IA</a> et l&#39;examen d&#39;exiger une autorisation gouvernementale pour publier des modèles d&#39;IA très performants. Cela est important car cela établit des mécanismes de surveillance gouvernementale complets pour les capacités d&#39;IA avancées qui pourraient fondamentalement remodeler le fonctionnement du développement et du déploiement de l&#39;IA de pointe.</p>
<p><strong>Percée du midtraining de spécification de modèle permet un contrôle précis de l&#39;alignment</strong> : <a href="https://www.lesswrong.com/posts/R3Rrw8EscuRKxMFTz/model-spec-midtraining-improving-how-alignment-training">De nouvelles recherches démontrent</a> que l&#39;entraînement des modèles sur leurs spécifications de comportement prévues entre le pré-entraînement et le fine-tuning permet un contrôle précis de la généralisation de l&#39;alignment, avec des modèles fine-tunés de manière identique développant différentes valeurs basées sur leurs spécifications de midtraining. Cela est important car cela fournit une méthode concrète pour réduire le mauvais alignment agentique et contrôler les valeurs des systèmes d&#39;IA, abordant un défi fondamental dans l&#39;alignment de l&#39;IA où les approches actuelles échouent souvent à se généraliser de manière appropriée.</p>
<p><strong>Framework de sécurité runtime AgentTrust publié pour les agents IA de production</strong> : <a href="https://arxiv.org/abs/2605.04785v1">De nouvelles recherches introduisent</a> un framework de sécurité critique pour les agents IA qui exécutent des actions réelles par le biais d&#39;appels d&#39;outils, fournissant des capacités de surveillance et d&#39;interception runtime pour prévenir les actions dangereuses comme la suppression accidentelle, l&#39;exposition d&#39;identifiants ou l&#39;exfiltration de données grâce à la compréhension sémantique des intentions des agents. Cela est important car cela aborde une lacune cruciale dans la sécurité des agents IA où les défenses existantes opèrent soit post-hoc soit échouent à comprendre l&#39;intention sémantique des actions des agents dans les environnements de production.</p>
<h2>Résumés des sections</h2>
<p><strong>Articles de recherche</strong> : La couverture comprend onze articles abordant des défis de sécurité critiques incluant <a href="https://arxiv.org/abs/2605.04785v1">l&#39;évaluation de sécurité runtime AgentTrust pour les agents IA</a>, <a href="https://arxiv.org/abs/2605.05166v1">les méthodes de confiance du premier token pour la détection d&#39;hallucinations</a>, <a href="https://arxiv.org/abs/2605.05025v1">les signaux de divergence d&#39;attention pour détecter les sorties non fiables</a>, <a href="https://arxiv.org/abs/2605.04134v1">les approches de systèmes dynamiques pour la détection d&#39;hallucinations en boîte noire</a>, <a href="https://arxiv.org/abs/2605.03907v1">les méthodes de pilotage d&#39;activation qui échouent à répliquer le contrôle basé sur les prompts</a>, <a href="https://arxiv.org/abs/2605.03609v1">le routage convergent-divergent pour le contrôle du raisonnement moral</a>, <a href="https://arxiv.org/abs/2605.04019v1">les frameworks de red teaming automatisés réduisant le temps d&#39;évaluation</a>, <a href="https://arxiv.org/abs/2605.03952v1">l&#39;évaluation compositionnelle de vulnérabilités dans les agents de codage</a>, <a href="https://arxiv.org/abs/2605.03916v1">les méthodes de vérification de faits atomiques pour l&#39;IA clinique</a>, [l&#39;analyse de la déqualification et de la dépendance comme risques d&#39;IA négligés](<a href="https://arxiv.org/abs/2">https://arxiv.org/abs/2</a></p>
]]></description>
    </item>
    <item>
      <title>AI Safety Daily Digest: Blogs &amp; News — 2026-05-07</title>
      <link>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-analysis.fr.md</link>
      <guid>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-analysis.fr.md</guid>
      <pubDate>Thu, 07 May 2026 00:00:00 GMT</pubDate>
      <description><![CDATA[<h2>Principales nouvelles</h2>
<p><strong><a href="https://thezvi.substack.com/p/the-ai-ad-hoc-prior-restraint-era">Zvi Mowshowitz rapporte que la Maison-Blanche ordonne une restriction préalable des modèles d&#39;IA</a></strong> - La Maison-Blanche aurait ordonné à Anthropic d&#39;arrêter l&#39;expansion de l&#39;accès à son modèle &quot;Mythos&quot; et envisage un revirement complet de politique vers l&#39;exigence d&#39;une autorisation gouvernementale avant la publication de modèles d&#39;IA très performants. Ceci représente un changement radical des engagements volontaires vers une restriction préalable obligatoire qui pourrait fondamentalement remodeler le fonctionnement du développement d&#39;IA de pointe aux États-Unis.</p>
<p><strong><a href="https://www.alignmentforum.org/posts/eAQZaiC3PcBhS4HjM/linkpost-interpreting-language-model-parameters">Nouvelle percée en décomposition de paramètres pour l&#39;interprétabilité de l&#39;IA</a></strong> - Des chercheurs introduisent la Décomposition Adversariale de Paramètres (VPD), une amélioration significative par rapport aux techniques précédentes pour comprendre le fonctionnement des paramètres de modèles de langage, affirmant que la méthode est maintenant prête pour une application aux modèles à l&#39;échelle de production. Cette avancée technique pourrait être cruciale pour comprendre et contrôler les représentations internes et les processus de prise de décision des systèmes d&#39;IA.</p>
<p><strong><a href="https://cset.georgetown.edu/article/microsoft-google-and-xai-will-let-the-government-test-their-ai-models-before-launch/">Les principaux laboratoires d&#39;IA acceptent les tests gouvernementaux avant publication</a></strong> - Microsoft, Google et xAI ont signé des accords permettant au gouvernement américain d&#39;évaluer les modèles d&#39;IA non publiés pour les risques de cybersécurité et de sécurité nationale avant le lancement public, CAISI ayant déjà examiné plus de 40 modèles incluant des systèmes de pointe. Cette formalisation des tests pré-déploiement pourrait devenir la nouvelle norme pour le développement d&#39;IA responsable et représente une expansion significative des capacités de surveillance gouvernementale.</p>
<p><strong><a href="https://www.anthropic.com/news/higher-limits-spacex">Anthropic annonce une expansion majeure de calcul grâce à un partenariat avec SpaceX</a></strong> - Anthropic a sécurisé un accord substantiel de capacité de calcul avec SpaceX, permettant des limites d&#39;utilisation accrues pour Claude Code et l&#39;API Claude dans le cadre de leurs efforts de mise à l&#39;échelle. Ce partenariat souligne l&#39;intersection croissante entre le développement d&#39;IA et l&#39;infrastructure spatiale, signalant potentiellement de nouvelles approches pour répondre aux demandes computationnelles massives des systèmes d&#39;IA de pointe.</p>
<h2>Politique et gouvernance</h2>
<p><strong><a href="https://digital-strategy.ec.europa.eu/en/news/eu-agrees-simplify-ai-rules-boost-innovation-and-ban-nudification-apps-protect-citizens">L&#39;UE met en œuvre de nouvelles réglementations d&#39;IA ciblant les deepfakes</a></strong> - L&#39;Union européenne a accepté d&#39;interdire les applications de &quot;nudification&quot; tout en simplifiant simultanément les règles d&#39;IA pour stimuler l&#39;innovation, reflétant l&#39;équilibre continu entre promouvoir le développement d&#39;IA et protéger les citoyens d&#39;applications nuisibles. Cette double approche d&#39;interdictions ciblées parallèlement à la simplification réglementaire pourrait influencer les approches mondiales de gouvernance de l&#39;IA.</p>
<p><strong><a href="https://cset.georgetown.edu/article/government-funded-research-seeds-entire-industries-what-would-be-lost-without-it/">L&#39;analyse de CSET souligne l&#39;importance du financement gouvernemental de la recherche</a></strong> - Les chercheurs de Georgetown CSET soutiennent dans Barron&#39;s que les coupes proposées au financement NIH pourraient compromettre la recherche gouvernementale qui a historiquement ensemencé des industries technologiques entières, y compris les fondements de l&#39;IA moderne. Cette analyse arrive à un moment critique où les capacités d&#39;IA dépendent de plus en plus d&#39;investissements de recherche fondamentale soutenus qui pourraient ne pas survivre à des</p>
]]></description>
    </item>
    <item>
      <title>AI Safety Daily Digest: Community &amp; Tools — 2026-05-07</title>
      <link>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-community.fr.md</link>
      <guid>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-community.fr.md</guid>
      <pubDate>Thu, 07 May 2026 00:00:00 GMT</pubDate>
      <description><![CDATA[<h2>Discussions clés</h2>
<p><strong><a href="https://github.com/anthropics/claude-cookbooks/pull/599">Exemples multiagents du livre de recettes d&#39;Anthropic</a></strong> - Cette PR ajoute des livres de recettes complets pour les agents gérés Claude, démontrant la coordination d&#39;équipes hétérogènes avec des agents spécialisés (chercheur web, bibliothécaire lecteur de fichiers, tarificateur basé sur des règles) travaillant ensemble pour assembler des propositions commerciales. Ceci est important car cela fournit des modèles concrets pour construire des systèmes multiagents fiables avec des ensembles d&#39;outils délimités et des protocoles de coordination clairs.</p>
<p><strong><a href="https://github.com/openai/openai-cookbook/pull/2659">Débogage autonome de Kubernetes dans le livre de recettes d&#39;OpenAI</a></strong> - Nouveau carnet de notes présentant un flux de travail agentique pour l&#39;ingénierie de plateforme qui utilise des sorties structurées pour analyser en toute sécurité les erreurs d&#39;infrastructure en direct et générer des correctifs YAML Kubernetes validés. Ceci est important car cela démontre comment construire des systèmes autonomes fiables pour des tâches d&#39;infrastructure critiques où la sécurité et la validation sont primordiales.</p>
<p><strong><a href="https://github.com/NVIDIA-NeMo/Guardrails/pull/1860">Surface de test NeMo Guardrails</a></strong> - Promeut les utilitaires de test internes (FakeLLMModel et TestChat) vers un sous-package public nemoguardrails.testing, permettant aux utilisateurs en aval de tester leurs configurations de garde-fous sans copier les assistants internes. Ceci est important car cela rend les tests de sécurité IA plus accessibles et standardisés dans la communauté.</p>
<p><strong><a href="https://github.com/QWED-AI/qwed-verification/issues/175">Failles d&#39;application fail-closed de la vérification QWED</a></strong> - Ticket de suivi identifiant plusieurs vulnérabilités fail-open dans le système de vérification QWED, incluant la vérification de raisonnement qui passe sans preuve complète, les actions d&#39;agents inconnues qui sont approuvées, et l&#39;audit de logs utilisant des paramètres par défaut non sécurisés. Ceci est important car cela met en évidence des lacunes critiques dans les systèmes de vérification de la sécurité IA qui pourraient permettre à des comportements non sécurisés de passer inaperçus.</p>
<h2>Sorties et outils GitHub notables</h2>
<p><strong><a href="https://github.com/sattyamjjain/agent-airlock/releases/tag/v0.7.3">Agent Airlock v0.7.3</a></strong> - Version corrective mettant à jour le plancher du SDK Claude Agent de 0.1.58 à 0.1.73, transférant le nouveau champ duration_ms du hook PostToolUse dans les flux d&#39;enregistrements d&#39;audit. Ceci permet un meilleur monitoring et débogage des modèles d&#39;utilisation des outils d&#39;agents.</p>
<p><strong><a href="https://github.com/a9lim/llmoji/releases/tag/v2.0.1">llmoji v2.0.1</a></strong> - Met à jour le lexique d&#39;emojis avec un système d&#39;alignment grille PAD (Plaisir-Éveil-Dominance) à 9 cellules, s&#39;étendant de 48 à 50 mots avec des cellules de coordonnées émotionnelles dérivées mécaniquement. Ceci est important car cela fournit un cadre psychologique structuré pour les systèmes IA conscients des émotions.</p>
<p><strong><a href="https://github.com/HadiFrt20/vouch/releases/tag/v0.1.0">vouch v0.1.0</a></strong> - Version alpha initiale d&#39;un plugin Claude Code pour des pipelines d&#39;agents IA échelonnés offrant la vérification d&#39;adversaires, des budgets atomiques, et la promotion de prompts contrôlée par tournoi à travers 7 commandes slash. Ceci est important car cela fournit un cadre complet pour construire des flux de travail d&#39;agents IA vérifiés et contrôlés par budget.</p>
<p><strong><a href="https://github.com/comet-ml/opik/releases/tag/2.0.23">Opik 2.0.23</a></strong> - Dernière version de la plateforme d&#39;évaluation et d&#39;observabilité LLM, ajoutant le support d&#39;environnements pour étiqueter les traces avec des étapes de cycle de vie, des composants d&#39;interface utilisateur améliorés, et une meilleure synchronisation des modèles de fournisseurs. Ceci permet un monitoring de production plus sophistiqué et une gestion du cycle de vie des systèmes IA.</p>
]]></description>
    </item>
    <item>
      <title>AI Safety Daily Digest: Research Papers — 2026-05-07</title>
      <link>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-research.fr.md</link>
      <guid>https://ygauthie.github.io/ai-safety-radar-securite-ia/#2026-05-07/safety-research.fr.md</guid>
      <pubDate>Thu, 07 May 2026 00:00:00 GMT</pubDate>
      <description><![CDATA[<h2>Articles clés</h2>
<p>Plusieurs développements significatifs en sécurité de l&#39;IA ont émergé cette semaine, avec un focus notable sur les méthodes de détection d&#39;hallucinations et les cadres d&#39;évaluation de sécurité pour les agents IA.</p>
<p><strong><a href="https://arxiv.org/abs/2605.04785v1">AgentTrust: Runtime Safety Evaluation and Interception for AI Agent Tool Use</a></strong> présente un cadre de sécurité critique pour les agents IA qui exécutent des actions dans le monde réel via des appels d&#39;outils. Le système fournit des capacités de surveillance et d&#39;interception en temps réel pour prévenir les actions dangereuses comme la suppression accidentelle, l&#39;exposition d&#39;identifiants ou l&#39;exfiltration de données. Cela comble une lacune cruciale dans la sécurité des agents IA où les défenses existantes opèrent soit a posteriori, soit échouent à comprendre l&#39;intention sémantique des actions de l&#39;agent.</p>
<p><strong><a href="https://arxiv.org/abs/2605.05166v1">The First Token Knows: Single-Decode Confidence for Hallucination Detection</a></strong> présente une approche efficace pour détecter les hallucinations de LLM en analysant la confiance du premier token généré seulement, plutôt que de nécessiter plusieurs cycles d&#39;échantillonnage. La méthode montre que l&#39;entropie du premier token peut servir de prédicteur fiable de la qualité de réponse à travers différentes architectures de modèles. Cela pourrait considérablement réduire la surcharge computationnelle de la détection d&#39;hallucinations dans les systèmes de production.</p>
<p><strong><a href="https://arxiv.org/abs/2605.05025v1">Detecting Hallucinations in Large Language Models via Internal Attention Divergence Signals</a></strong> propose d&#39;utiliser les matrices d&#39;attention pour estimer l&#39;incertitude sans modèles externes ou échantillonnage répété. En mesurant la divergence de Kullback-Leibler entre les têtes d&#39;attention et les distributions uniformes, la méthode fournit des signaux interprétables de confiance du modèle. Cette approche en boîte blanche offre des perspectives complémentaires aux méthodes basées sur les tokens et pourrait aider les développeurs à comprendre quand et pourquoi les modèles génèrent des sorties peu fiables.</p>
<p><strong><a href="https://arxiv.org/abs/2605.04134v1">Low-Cost Black-Box Detection of LLM Hallucinations via Dynamical System Prediction</a></strong> traite les LLMs comme des systèmes dynamiques, projetant les réponses dans des variétés haute-dimensionnelles pour caractériser les séquences de vecteurs comme des réalisations observables. Cette perspective novatrice évite les vérifications de cohérence coûteuses basées sur l&#39;échantillonnage tout en maintenant une applicabilité agnostique au modèle. L&#39;approche pourrait fournir une base mathématiquement fondée pour comprendre les motifs de comportement des LLM qui mènent aux hallucinations.</p>
<p><strong><a href="https://arxiv.org/abs/2605.05103v1">Text Corpora as Concept Fields: Black-Box Hallucination and Novelty Measurement</a></strong> introduit le concept de &quot;Champs conceptuels&quot; - des champs de dérive locaux estimés dans l&#39;espace d&#39;embedding de phrases pour mesurer l&#39;accord entre les phrases candidates et les attentes dérivées du corpus. La méthode fournit des scores attribuables au corpus qui remontent à des exemples d&#39;entraînement spécifiques. Cela pourrait aider les développeurs à comprendre comment les modèles extrapolent au-delà de leur distribution d&#39;entraînement et à identifier les sources potentielles de contenu halluciné.</p>
<p><strong><a href="https://arxiv.org/abs/2605.04797v1">Beyond Seeing Is Believing: On Crowdsourced Detection of Audiovisual Deepfakes</a></strong> examine les performances humaines dans la détection de deepfakes audiovisuels de plus en plus sophistiqués via des expériences de crowdsourcing. L&#39;étude mesure la cohérence dans la distinction entre vidéos authentiques et manipulées et la précision dans l&#39;identification des types de manipulation. Alors que la technologie deepfake progresse, comprendre les limites de la détection humaine devient crucial pour développer des mesures de protection techniques et des réponses politiques approp</p>
]]></description>
    </item>
  </channel>
</rss>