Aller au contenu

Fine-tuning

PDX génère des datasets d'entraînement pour fine-tuner des LLMs pour des tâches de cybersécurité — défensives (détection, alerte) et offensives (assistance pentest, reconstruction de TTPs).

Prérequis

Ressource Minimum Recommandé
GPU VRAM 8 Go 16 Go+
RAM 16 Go 32 Go
Disque 20 Go 50 Go
Framework Unsloth Unsloth

Modèles de base supportés

Modèle Taille Meilleur pour
Qwen 2.5 7B / 14B Itération rapide, bon multilingue
Llama 3.3 8B / 70B Focalisé anglais, raisonnement solide

Fine-tune rapide

python training/finetune_pdx.py \
  --dataset training_output/data_router/defensive/sft_detection_patterns.jsonl \
  --model qwen \
  --epochs 3 \
  --rank 16

Options

Flag Défaut Description
--dataset Chemin vers les données JSONL
--model qwen Modèle de base (qwen ou llama)
--epochs 3 Époques d'entraînement
--rank 16 Rang LoRA (plus haut = plus de capacité, plus de VRAM)
--resume false Reprendre depuis un checkpoint

Entraîner un modèle défensif

python -m pdx.training.data_router generate --defensive

python training/finetune_pdx.py \
  --dataset training_output/data_router/defensive/sft_detection_patterns.jsonl \
  --model qwen --epochs 5 --rank 16

Après l'entraînement, le modèle peut identifier les tactiques MITRE ATT&CK à partir de séquences de commandes SSH, scorer le niveau de menace et évaluer l'efficacité des personas.

Entraîner un modèle offensif

python -m pdx.training.data_router generate --offensive

python training/finetune_pdx.py \
  --dataset training_output/data_router/offensive/sft_attack_chains.jsonl \
  --model llama --epochs 5 --rank 32

Après l'entraînement, le modèle peut reconstruire des séquences de post-exploitation, suggérer les prochaines étapes d'un pentest et mapper les commandes vers les techniques MITRE ATT&CK.

Entraîner un modèle dual-perspective

python -m pdx.training.data_router generate --combined

python training/finetune_pdx.py \
  --dataset training_output/data_router/combined/react_dual_perspective.jsonl \
  --model qwen --epochs 5 --rank 32

Cela produit un modèle capable d'analyser la même séquence de commandes sous les perspectives offensive et défensive — la sortie la plus unique du pipeline PDX.

Gestion VRAM

Le script inclut des vérifications automatiques de sécurité VRAM. Si Ollama tourne, le script vous avertira — Ollama et le fine-tuning se disputent la VRAM.

Pour VRAM limitée (8 Go)

Utilisez --rank 8 et --model qwen (7B). Cela tient dans 6 Go de VRAM avec de la place pour le batch d'entraînement.