Sectricity
AI pentest
Test AI en LLM features op misbruik, data leakage en prompt-injection scenario’s.
Wat is het?
AI introduceert nieuwe attack surfaces: prompts, tools, connectors, data sources en output.
We testen misbruikscenario’s en guardrails, zodat je AI veilig kan inzetten.
Wat krijg je?
- Threat model voor AI feature
- Prompt injection en jailbreak tests
- Data leakage en privacy checks
- Tool misuse en permission review
- Remediatie en guardrail aanbevelingen
Hoe werkt het?
- Stap 1Afstemmen en scopeDoelen, assets en testvensters scherpstellen.
- Stap 2Testen en validerenKwetsbaarheden vinden, bewijzen en impact duiden.
- Stap 3Rapport en opvolgingPrioriteiten, fixes en een debrief met je team.
FAQ
Hoe snel kunnen jullie starten?
Meestal kunnen we binnen 1 tot 2 weken inplannen. Voor dringende cases zoeken we een snellere slot.
Krijgen we een rapport?
Ja, een helder rapport met bewijs, impact en concrete aanbevelingen.
Kunnen jullie hertesten?
Ja, na remediatie kunnen we hertesten om fixes te valideren.
Plan een vrijblijvend gesprek
Vraag een voorstel
Deel je scope en timing. Je krijgt snel een concreet plan en duidelijke next steps.