Dans le monde de la formation : une réflexion sur l’utilisation de l’IA
Depuis que j’interviens dans le domaine de la formation, une tendance frappante s’est imposée : presque tous les apprenants, se tournent vers ChatGPT pour résoudre des problèmes IT, qu’ils soient simples ou complexes. Cette dépendance à l’intelligence artificielle s’accompagne souvent d’une confiance aveugle, particulièrement préoccupante. Beaucoup de jeunes professionnels ne cherchent même plus à comprendre les problématiques qu’ils rencontrent. Ils préfèrent se contenter de tester les solutions fournies par l’IA, sans analyse critique ni volonté d’approfondissement.
Par exemple, très peu prennent le temps de comprendre ce qu’est un modèle de langage comme GPT, son fonctionnement ou comment optimiser son utilisation au fil du temps. La démarche typique consiste à ouvrir ChatGPT, décrire vaguement le problème, puis copier-coller la réponse obtenue, parfois sans même lire attentivement son contenu. En tant que dirigeant, cela me pousse à m’interroger : où est la valeur ajoutée que l’IA est censée apporter ? Si l’IA devient un simple outil de facilitation, comment peut-elle réellement contribuer à une montée en compétences ou à une innovation durable ?
Face à cette question, j’ai décidé d’expérimenter avec un modèle d’IA local pour en faire un assistant dédié à la cybersécurité dans une petite entreprise. Après plusieurs jours de travail, j’ai constaté que même avec des prompts soigneusement élaborés et peaufinés, un nouveau type de problème émerge : celui des limites liées aux prompts eux-mêmes.
Prenons une analogie simple : imaginez que vous demandez à une IA spécialisée en cuisine de vous fournir une recette de sushi, mais qu’elle ne connaît que la cuisine française. Même si votre demande est claire et détaillée, l’IA produira une réponse incomplète ou incohérente, car elle manque des connaissances de base nécessaires pour répondre correctement.
Le double défi : éducation et optimisation
Cette expérience met en lumière deux défis majeurs dans l’utilisation de l’IA aujourd’hui :
- La superficialité dans l’apprentissage : Les apprenants ne développent pas la curiosité nécessaire pour comprendre les outils qu’ils utilisent. Or, comprendre comment fonctionne une IA comme GPT est essentiel pour en tirer pleinement parti et l’utiliser de manière critique.
- Les limites technologiques : Même les IA les plus sophistiquées rencontrent des restrictions, souvent liées à leur domaine d’entraînement ou à la précision des prompts. Cela souligne l’importance d’un travail collaboratif et itératif entre l’humain et la machine pour atteindre des résultats pertinents.
- Conséquences :
Détection incomplète :
Si une attaque provient d’une région ou d’un type de technologie non inclus dans les données d’entraînement, l’IA peut ne pas reconnaître cette menace comme dangereuse. Par exemple, elle pourrait ignorer une attaque provenant d’un nouveau type de logiciel malveillant simplement parce que ce type n’a jamais été présenté dans les données initiales.
Faux positifs :
À l’inverse, l’IA pourrait marquer des activités normales comme suspectes simplement parce qu’elles ressemblent à un modèle mal interprété. Par exemple, une connexion légitime d’un employé travaillant depuis un autre pays pourrait être bloquée à tort.
Introduction de vulnérabilités :
En s’appuyant uniquement sur les conclusions biaisées de l’IA, les administrateurs pourraient négliger des zones critiques ou prendre des décisions qui fragilisent la sécurité globale. Par exemple, ils pourraient ajuster les pare-feu pour autoriser des types de trafic que l’IA juge sûrs alors qu’ils ne le sont pas.
L’IA ne devrait pas être un substitut à la réflexion, mais un levier pour l’amplifier. Sans cet équilibre, nous risquons de voir l’IA devenir un outil banal, dépourvu de la valeur transformative qu’elle promet.