Skip to content

Kit Enseignants

Un programme progressif pour enseigner l'IA/ML avec des modèles locaux.

9 modules. De "Qu'est-ce qu'un token ?" à "J'ai contribué à de la vraie recherche en IA." Gratuit. Local. Visuel. Aucun coût cloud. Aucune clé API pour les étudiants.

Pourquoi LLMxRay pour l'enseignement ?

AvantageDétails
GratuitPas de clés API, pas de coûts cloud, pas d'abonnements étudiants. Zéro budget nécessaire.
LocalToutes les données restent sur la machine de l'étudiant. Aucun souci de confidentialité, aucune politique institutionnelle de données.
VisuelLes étudiants voient les tokens arriver en temps réel, observent la coloration de confiance, explorent les chaînes de raisonnement. Les concepts abstraits deviennent tangibles.
SûrAucun risque que les étudiants génèrent accidentellement des coûts cloud ou exposent des données sensibles.
MultiplateformeFonctionne sur Windows, macOS et Linux. Déploiement via npx llmxray, Docker ou git clone.
Prêt pour la rechercheChaque expérience est reproductible. Les étudiants contribuent de véritables résultats à la communauté open-source.

Intégration dans les cours

LLMxRay s'intègre naturellement dans :

  • Introduction à l'IA/ML — Comprendre comment les modèles de langage génèrent du texte
  • Traitement du langage naturel — Analyse de tokens, embeddings, similarité sémantique
  • Génie logiciel — Intégration d'API, tool calling, prompt engineering
  • Science des données — Méthodologie de benchmark, analyse statistique des sorties de modèles
  • Éthique de l'IA — Exploration des biais des modèles, détection des hallucinations, équité linguistique

Le programme

Le parcours : Observer → Mesurer → Questionner → Découvrir → Construire → Contribuer

Chaque module s'appuie sur le précédent. Les étudiants progressent de l'observation à l'expérimentation, puis à la recherche originale.

ModuleTitreDuréeDifficultéLe Moment Eureka
1Qu'est-ce qu'un token ?45 minDébutantL'IA ne pense pas en mots — elle pense en tokens
2Comment fonctionne la Température ?60 minDébutantLa température n'est pas un curseur linéaire — c'est une transition de phase
3L'IA peut-elle mentir ?90 minIntermédiaireUne confiance élevée ne signifie pas la vérité
4Que voit le modèle ?45 minIntermédiaireLes embeddings capturent le sujet, pas le sentiment
5Quand le modèle oublie-t-il ?60 minIntermédiaireLe contexte n'est pas de la mémoire — c'est une fenêtre glissante
6L'IA peut-elle utiliser des outils ?60 minIntermédiaireLe tool calling est du pattern matching, pas de la compréhension
7Comment comparer les modèles ?90 minAvancéAucun modèle n'est universellement le meilleur
8La vue d'ensemble120 minAvancéVous pouvez contribuer à de la vraie recherche en IA
9Ce que coûtent les mots60 minIntermédiaireLes tokeniseurs ont un biais linguistique — même sens, coût différent

Modules disponibles

Les 9 modules sont tous disponibles. Chaque module contient des exercices pratiques avec LLMxRay, un contexte conceptuel ancré dans la recherche publiée, et des options d'évaluation.


Ateliers rapides "Moment Eureka"

Exercices autonomes de 15 minutes pour n'importe quel cours — aucun engagement dans le programme requis :

AtelierLa surpriseDurée
L'atelier hallucinationLes modèles inventent de l'histoire avec assurance15 min
Le biais du tokenizerLa même phrase, 5x plus de tokens dans certaines langues (Module 9 couvre ce sujet en profondeur)15 min
Le test du perroquetLes modèles ne peuvent pas répéter un texte mot pour mot — ils génèrent, ils ne rappellent pas15 min
La fuite du prompt systèmeLes étudiants extraient un prompt système "secret"15 min
La galerie d'art de la températureLe même prompt à 8 températures affiché sous forme de galerie15 min
La révélation du raisonnementObservez DeepSeek-R1 raisonner étape par étape sur un problème de mathématiques15 min

Les guides détaillés de ces ateliers arrivent prochainement.


Configuration matérielle requise

Minimum (petits modèles uniquement)

  • RAM : 8 Go
  • Stockage : 10 Go libres
  • GPU : Non requis (l'inférence CPU fonctionne)
  • Modèles : Modèles de 1B à 3B paramètres (ex. llama3.2:1b)

Recommandé (pour tous les modules)

  • RAM : 16 Go
  • Stockage : 20 Go libres
  • GPU : 6+ Go de VRAM (inférence nettement plus rapide)
  • Modèles : Jusqu'à des modèles de 7B-8B paramètres

Installation en salle informatique

Option A — Installation par étudiant : Chaque machine exécute Ollama + LLMxRay de manière indépendante.

bash
# Sur chaque machine :
ollama pull llama3.2
npx llmxray

Option B — Serveur Ollama partagé : Une machine puissante exécute Ollama, les étudiants se connectent via les paramètres de LLMxRay.

bash
# Sur le serveur GPU :
OLLAMA_HOST=0.0.0.0 ollama serve

# Sur chaque machine étudiante :
npx llmxray --ollama-url http://gpu-server:11434

Option C — Déploiement Docker :

bash
docker compose -f docker-compose.example.yml up

Options d'évaluation

Chaque module propose plusieurs formats d'évaluation. Choisissez en fonction de votre cours :

FormatIdéal pourModule type
Réflexion écrite (300 mots)Individuel, tout niveau de coursModules 1, 4, 5
Tableau d'analyse de données + rapportCours de science des données, NLPModules 2, 3, 7
Diaporama / présentationTravail en groupe, séminairesModules 3, 7
Démo en direct + revue de codeGénie logicielModule 6
Rapport de recherche completAvancé / projet de fin d'étudesModule 8

Obtenir de l'aide


Vous utilisez LLMxRay dans votre cours ? Nous aimerions en entendre parler. Partagez votre expérience dans les GitHub Discussions.

Released under the Apache 2.0 License.