Sectricity
Pentest IA
Testez l’IA et les fonctions LLM contre abus, fuites de données et prompt injection.
De quoi s’agit-il ?
L’IA introduit de nouvelles surfaces: prompts, outils, connecteurs, sources de données et output.
Nous testons abus et garde-fous pour déployer l’IA en sécurité.
Ce que vous obtenez
- Threat model IA
- Tests prompt injection et jailbreak
- Fuites de données et privacy
- Abus d’outils et permissions
- Remédiation et recommandations de garde-fous
Comment ça marche
- Étape 1Cadrage et scopeObjectifs, actifs et fenêtres de test.
- Étape 2Tests et validationDécouverte, preuve et impact.
- Étape 3Rapport et suiviPriorités, corrections et debrief avec l’équipe.
FAQ
À quelle vitesse pouvez-vous démarrer ?
Souvent sous 1 à 2 semaines. En cas d’urgence, nous cherchons un créneau plus rapide.
Recevons-nous un rapport ?
Oui, un rapport clair avec preuves, impact et recommandations.
Proposez-vous un retest ?
Oui, après remédiation nous pouvons revalider les corrections.
Le prochain coup commence ici.
Demander une proposition
Partagez votre scope et votre timing. Nous revenons vite avec un plan concret.