Sectricity
Sectricity

Pentest IA

Testez l’IA et les fonctions LLM contre abus, fuites de données et prompt injection.

De quoi s’agit-il ?

L’IA introduit de nouvelles surfaces: prompts, outils, connecteurs, sources de données et output.

Nous testons abus et garde-fous pour déployer l’IA en sécurité.

Ce que vous obtenez

  • Threat model IA
  • Tests prompt injection et jailbreak
  • Fuites de données et privacy
  • Abus d’outils et permissions
  • Remédiation et recommandations de garde-fous

Comment ça marche

  1. Étape 1
    Cadrage et scope
    Objectifs, actifs et fenêtres de test.
  2. Étape 2
    Tests et validation
    Découverte, preuve et impact.
  3. Étape 3
    Rapport et suivi
    Priorités, corrections et debrief avec l’équipe.

FAQ

À quelle vitesse pouvez-vous démarrer ?

Souvent sous 1 à 2 semaines. En cas d’urgence, nous cherchons un créneau plus rapide.

Recevons-nous un rapport ?

Oui, un rapport clair avec preuves, impact et recommandations.

Proposez-vous un retest ?

Oui, après remédiation nous pouvons revalider les corrections.

Le prochain coup commence ici.

Demander une proposition

Partagez votre scope et votre timing. Nous revenons vite avec un plan concret.

Contact