En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Entrée intentionnellement modifiée pour tromper un modèle d’IA, révélant ses vulnérabilités. Ces exemples sont souvent utilisés pour tester la robustesse des systèmes d’IA.