Malgré leur démocratisation, les modèles d’IA restent des «boîtes noires», dont même les spécialistes ne parviennent pas à expliquer précisément le fonctionnement. Pour garantir la sécurité des systèmes et limiter leurs biais, le domaine dit de «l’interprétabilité» suscite beaucoup d’intérêt.
Malgré leur démocratisation, les modèles d’IA restent des «boîtes noires», dont même les spécialistes ne parviennent pas à expliquer précisément le fonctionnement. Pour garantir la sécurité des systèmes et limiter leurs biais, le domaine dit de «l’interprétabilité» suscite beaucoup d’intérêt.