Hippocratic Utility
Bien que l'auteur ne remette pas en cause la motivation éthique d'une fonction d'utilité qui privilégie la non-imposition de traitements nuisibles, il démontre que son champ d'application pratique reste limité.
15 articles
Bien que l'auteur ne remette pas en cause la motivation éthique d'une fonction d'utilité qui privilégie la non-imposition de traitements nuisibles, il démontre que son champ d'application pratique reste limité.
Ce papier propose un cadre unifié pour la détection d'anomalies basé sur les surprisales, qui réduit le problème complexe à l'estimation de la queue d'une distribution univariée et offre des garanties statistiques robustes même en cas de mauvaise spécification du modèle.
Cet article présente les Modèles Causaux Temporels Augmentés (ATSCM), une approche intégrant la découverte causale neuronale pour modéliser les régimes dynamiques des marchés de l'énergie et permettre des raisonnements contrefactuels sur les prix de l'électricité.
Cet article propose le modèle TNCM-VAE, une architecture combinant autoencodeurs variationnels et modèles causaux structurels pour générer des séries temporelles financières contrefactuelles respectant les dépendances causales, permettant ainsi des analyses de risque et des tests de stress plus fiables.
Bien que l'extension théorique des jeux normaux causaux aux interactions séquentielles (S-CMAS) soit élégante et prouvée PSPACE-complète, les simulations empiriques démontrent qu'elle n'apporte aucune amélioration du bien-être par rapport à l'équilibre de Stackelberg classique, révélant ainsi l'incompatibilité fondamentale entre les extensions de la théorie des jeux rationnelle et les avantages du raisonnement causal pour les agents IA.
Cet article propose une représentation formelle des analyses de données qui, en externalisant leur construction logique, permet d'évaluer la qualité du raisonnement de l'analyste, de visualiser les liens logiques et d'analyser la sensibilité des hypothèses sans avoir besoin des données brutes.
Cet article propose un cadre bayésien pour la programmation linéaire sous incertitude apprise, offrant des garanties de faisabilité a posteriori via des stratégies de robustification et d'échantillonnage, ainsi qu'une procédure de certification Monte Carlo pour améliorer la sécurité des décisions et leur interprétabilité dans des applications réelles.
Cet article propose un jeu dynamique bayésien hiérarchique pour la gestion concurrentielle des stocks et des prix en situation d'information incomplète, intégrant un apprentissage bayésien, une mise à jour stratégique des croyances et un critère de risque crédible pour établir un équilibre conservateur robuste face à l'incertitude.
Cet article démontre que les méthodes arborescentes, en particulier leurs variantes avec sélection de stabilité, constituent des outils complémentaires robustes pour la détection d'effets d'interaction dans les méta-régressions à effets aléatoires, surpassant les approches linéaires traditionnelles lorsque les interactions ne sont pas strictement linéaires.
Cet article démontre que le reweighting des arêtes basé sur la courbure de Ricci de Lin-Lu-Yau dans un modèle de blocs stochastiques équilibré permet d'améliorer la détection de communautés en amplifiant la connectivité intra-bloc, ce qui se traduit par un écart spectral accru et des garanties de non-clustering rigoureuses, tout en établissant une convergence uniforme des itérations vers une récursion déterministe sur un horizon fini.
Cet article examine la mise en place, le rôle et la valeur stratégique des groupes dédiés à la méthodologie statistique dans l'industrie pharmaceutique, en soulignant les facteurs organisationnels nécessaires pour maximiser leur impact sur l'efficacité, la rapidité et le taux de réussite du développement des médicaments.
Cet article propose un nouvel estimateur robuste de la corrélation polychorique, conçu pour résister aux erreurs de spécification du modèle (comme les réponses négligentes) sans hypothèses préalables sur leur nature, tout en conservant les propriétés statistiques et le coût computationnel de l'estimation par vraisemblance maximale.
Cet article remet en question l'interprétation binaire stricte de la couverture des intervalles de confiance en démontrant, par des arguments formels et informels, qu'une lecture purement comportementale est en tension avec la mécanique mathématique sous-jacente, et propose ainsi de reconsidérer la confiance comme une probabilité prédictive permettant des déclarations probabilistes post-données.
Cet article propose une interprétation décisionnelle des intervalles de confiance en les traitant comme des prévisions probabilistes optimales de couverture, démontrant que le niveau nominal 1-alpha constitue la meilleure prévision constante et que des raffinements conditionnels sont possibles sans recourir à des priors bayésiens.
Bien que le choix du contexte de données n'ait pas amélioré les notes aux devoirs, une étude menée auprès d'étudiants en statistiques a révélé qu'il augmentait leur engagement, leur motivation et leur sentiment d'autonomie, incitant les éducateurs à intégrer des contextes réels variés et pertinents pour les étudiants.