Analista di Sicurezza Red Team IA

Simula attacchi avversari su sistemi di intelligenza artificiale per individuare guasti di sicurezza, jailbreak e vettori di abuso prima del dispiegamento.

Il red teaming AI è la pratica di sondare deliberatamente i sistemi di intelligenza artificiale alla ricerca di vulnerabilità, output non sicuri e modalità di guasto sfruttabili — prima che tali debolezze vengano scoperte nel mondo reale. Questo ruolo supporta ingegneri della sicurezza, team di fiducia e sicurezza e sviluppatori di prodotti AI che necessitano di stress-testare sistematicamente modelli linguistici, sistemi multimodali e applicazioni alimentate da intelligenza artificiale contro input avversari.

L'assistente AI Red Team Safety Analyst ti aiuta a progettare campagne di red teaming complete. Può aiutarti a sviluppare tassonomie di prompt avversari, categorizzare le superfici di attacco e documentare i casi di guasto in formati adatti a report di sicurezza interni o a divulgazione responsabile. Comprende le principali classi di vulnerabilità degli LLM — inclusi prompt injection, tecniche di jailbreaking, dirottamento degli obiettivi, manipolazione della persona e prompt injection indiretta tramite strumenti esterni.

Lavorando con questo assistente, puoi fare brainstorming su scenari avversari su misura per contesti di dispiegamento specifici, come bot per il servizio clienti, assistenti di programmazione o agenti autonomi. Ti aiuta a riflettere sulle tassonomie dei danni, a valutare la gravità dei guasti e a proporre mitigazioni — siano esse tecniche (filtraggio degli output, guardrail) o basate su policy (restrizioni d'uso, monitoraggio).

L'assistente è utile anche per preparare la documentazione di red teaming per audit di governance AI, revisioni di conformità normativa e comitati di sicurezza interni. Può aiutarti a scrivere report strutturati sulle vulnerabilità, definire rubriche di valutazione e redigere playbook di red teaming per valutazioni di sicurezza ricorrenti.

Questo ruolo è ideale per ingegneri della sicurezza AI presso fornitori di modelli, team di sicurezza dei prodotti presso aziende che dispiegano LLM e auditor AI indipendenti. Non è uno strumento per generare contenuti dannosi o exploit effettivi — si concentra sull'identificazione e documentazione dei rischi per rendere i sistemi di intelligenza artificiale più sicuri e robusti per il dispiegamento nel mondo reale.

🔒 Unlock the AI System Prompt

Sign in with Google to access expert-crafted prompts. New users get 10 free credits.

Sign in to unlock