🎥 Résumé analytique
🎯 Promesse cognitive
- À la fin, on comprend comment relier un LLM local à des outils système via MCP pour exécuter des tâches automatisées contrôlées.
🧩 Carte du contenu (sommaire)
- Rappel du concept MCP et de son intérêt
- Installation d’Ollama et du modèle Llama 3.1 8B
- Configuration réseau et service systemd
- Création d’un serveur MCP en environnement virtuel Python
- Démo d’un scan nmap piloté par prompt
✅ Ce que la vidéo apporte en plus de la lecture de ce post
- Démonstration concrète des commandes terminal
- Visualisation des temps de latence CPU vs GPU
- Exemple réel de réponse JSON générée par le modèle
- Illustration d’un appel outil déclenché par le LLM
🕒 Niveau d’engagement recommandé
- visionnage_actif
- Nécessite de suivre les commandes shell
- Plusieurs étapes système sensibles (ports, services, venv)
- Intérêt surtout si vous voulez reproduire l’architecture
🧰 Pistes d’exploitation et points de vigilance
- 1 idée à tester : adapter le serveur MCP à des outils d’analyse défensive ou d’audit interne plutôt qu’à du pentest.
- 1 notion à creuser : orchestration LLM + outils via protocole standard (MCP comme couche d’abstraction).
- 1 limite / biais : démonstration simple, peu de profondeur sur la sécurité réelle ou la robustesse en production.
🔍 Déroulé détaillé et analyse critique
📄 Voir la synthèse détaillée
Déroulé structuré
-
Segment 1 — Introduction à MCP
- MCP présenté comme standard unifiant les connexions API LLM
- Alternative aux intégrations multiples spécifiques à chaque outil
- Positionnement comme “bundle” d’API standardisées
-
Segment 2 — Setup Ollama sur Kali Linux
- Installation via ligne de commande
- Pull du modèle Llama 3.1 8B
- Configuration variable d’environnement (LLAMA_HOST)
- Redémarrage service + test via curl sur port 11434
-
Segment 3 — Création du serveur MCP
- Environnement virtuel Python
- Installation du MCP Ollama
- Script MCP server.py généré par IA
- Définition :
- allowlist réseau (machines autorisées)
- whitelist commandes (nmap, ping, dig, whois)
- modèle Llama configuré
-
Segment 4 — Démonstration
- Prompt : lancer un scan nmap basique
- Déclenchement d’un tool call
- Exécution réelle du scan
- Résumé des ports ouverts par le modèle
Points notables
- Modèle 4.9 GB exécuté sur CPU, latence visible
- Contrôle d’accès intégré dans le script
- Exemple clair de “tool calling” local sans cloud
- MCP utilisé comme couche d’orchestration minimaliste
Limites & biais (factuels)
- Aucun traitement des risques légaux ou éthiques
- Script simplifié, non robuste pour usage réel
- Pas d’analyse sur la sécurisation du serveur MCP lui-même
- Dépend fortement d’un modèle aux capacités limitées sur CPU