Thème
Thème
L'ETML attend de chaque apprenti et de chaque enseignant un usage de l'IA compatible avec les exigences professionnelles actuelles en matière de sécurité, d'éthique et de protection des données.
L'usage de l'IA à l'ETML s'inscrit dans le respect de la LPD (Loi fédérale sur la protection des données, Suisse) et, selon les contextes, du RGPD européen. La transmission de données personnelles à un service IA tiers sans base légale est une violation de ces lois.
Tout code produit avec l'aide de l'IA doit être audité pour détecter les vulnérabilités suivantes avant soumission :
| Risque | À vérifier |
|---|---|
| Injection | SQL, XSS, commandes systèmes |
| Secrets exposés | Mots de passe, tokens, clés dans le code |
| Validation manquante | Entrées utilisateur non vérifiées |
| Contrôle d'accès | Ressources accessibles sans autorisation |
| Dépendances vulnérables | Paquets ou composants obsolètes |
| Erreurs de configuration | Ports ouverts, droits trop larges |
L'apprenti est responsable de la sécurité du code qu'il soumet, même s'il a été généré par une IA.
Les outils d'IA génèrent des contenus statistiquement plausibles, mais pas nécessairement exacts. Il faut systématiquement :
Il est interdit d'utiliser un outil d'IA pour :
L'ETML ne certifie pas les outils IA spécifiques. À titre indicatif, les usages pédagogiques à l'ETML se font généralement avec des outils accessibles sans compte professionnel ou avec les comptes fournis par l'école. Toujours vérifier les conditions d'utilisation avant d'envoyer des données.
Pour les projets nécessitant un traitement de données potentiellement sensibles, préférer des solutions qui peuvent être exécutées localement (modèles on-premise, Ollama, LM Studio, etc.).