Quantification de l’Incertitude via Opérateur de Relaxation pour les grands modèles de raisonnement en contexte Boîte Noire

Published: 26 Apr 2026, Last Modified: 26 Apr 2026RJCIA2026 ShortEveryoneRevisionsCC BY 4.0
Keywords: Quantification de l’incertitude, Apprentissage par renforcement, Prompts antagonistes, Grands Modèles de Raisonnement
TL;DR: Nous avons introduit la notion d'opérateur de relaxation et démontré théoriquement et empiriquement que son application entraîne une amélioration de la calibration du modèle.
Abstract: Nous étudions la quantification de l’incertitude pour les grands modèles de raisonnement en mode boîte noire. Nous montrons que les méthodes existantes n’améliorent pas l’estimation de l’incertitude comparé à une méthode de référence naïve. Théoriquement, nous introduisons les opérateurs de relaxation pour élargir la distribution des réponses et améliorer la calibration sous réserve de conservation de précision. Empiriquement, nous utilisons des techniques de prompt antagoniste et démontrons qu'elles améliore l'estimation d'incertitude et se comportent comme des opérateurs de relaxation.
Email Sharing: We authorize the sharing of all author emails with Program Chairs.
Data Release: We authorize the release of our submission and author names to the public in the event of acceptance.
Submission Number: 22
Loading