Le laboratoire d'apprentissage de l'intelligence artificielle de l'université du Nebraska à Omaha est passé d'expériences pilotes à des programmes évolutifs sur le campus, produisant des gains mesurables en termes de productivité, de pédagogie et de préparation à la recherche. Les premiers résultats de la première année montrent un gain de temps significatif et une adoption par les enseignants, le personnel et les étudiants, tandis que les priorités de la deuxième année mettent l'accent sur l'accès contrôlé aux outils avancés, les cadres éthiques et le développement professionnel ciblé. Cet aperçu technique synthétise les mesures, la conception du programme, les considérations opérationnelles et les intégrations stratégiques des fournisseurs qui peuvent guider les praticiens de l'enseignement supérieur et les gestionnaires de la technologie qui cherchent à mettre en œuvre ou à étendre l'IA sur le campus.
Résultats et mesures de la première année du laboratoire d'apprentissage de l'IA
La première année du AI Learning Lab a fourni des signaux empiriques solides sur l'adoption et l'impact. Une enquête menée à la fin du semestre auprès de plus de 200 répondants ont fait état d'un gain de temps substantiel et d'une amélioration de la productivité grâce à l'accès institutionnel à des outils génératifs tels que ChatGPT, dans le cadre de l'Open AI Challenge du laboratoire. Le passage de projets pilotes exploratoires à un déploiement fondé sur des données probantes illustre la manière dont les programmes au niveau du campus peuvent accélérer l'utilisation responsable tout en maintenant les contraintes de gouvernance.
Résultats quantitatifs et interprétation
Les indicateurs clés du premier cycle académique comprennent le gain de temps hebdomadaire et la fréquence d'utilisation. Les résultats de l'enquête indiquent que 95% des enseignants et du personnel ont déclaré avoir gagné du temps chaque semaine grâce à ChatGPT, avec 20% affirment avoir économisé cinq heures ou plus par semaine. L'amélioration de la productivité était presque universelle : 96% ont fait état d'une certaine amélioration, et 80% ont décrit des gains modérés ou significatifs. Les mesures de fréquence ont montré 55% utiliser l'IA quotidien et 86% l'utiliser plusieurs fois par semaine ou plus.
- Les gains de temps ont permis de réaffecter les efforts à des tâches académiques prioritaires.
- Les instructeurs ont fait état d'une réduction de la charge de travail et d'une amélioration de la qualité du contenu.
- Le personnel administratif a utilisé l'IA pour rationaliser les processus répétitifs et rédiger des communications.
Ces résultats s'alignent sur des tendances sectorielles plus larges documentées dans des rapports de fournisseurs et d'universitaires : les fournisseurs d'informatique dématérialisée tels que Microsoft Azure AI et AWS Machine Learning permettent des déploiements évolutifs, tandis que les fournisseurs de modèles tels que OpenAI et des suites de recherche de Google AI fournir les capacités génératives de base utilisées dans l'enseignement et l'administration.
Tableau : Résumé des mesures de la première année
Métrique | Valeur | Effet pratique |
---|---|---|
Répondants à l'enquête | 200+ | Échantillon représentatif de l'ensemble des campus |
Les enseignants et le personnel font état d'un gain de temps hebdomadaire | 95% | Plus de temps pour l'élaboration des programmes d'études |
Répondants utilisant l'IA quotidiennement | 55% | Intégration opérationnelle élevée |
Subventions pour l'IA achevées | 36 | Pilotes de programmes d'études inter-collèges |
Au-delà des chiffres, les initiatives du laboratoire, telles que les bourses d'enseignement alimentées par l'IA et le sommet de l'IA, ont généré des retombées qualitatives : amélioration de la pédagogie, nouvelles questions de recherche dans le domaine de l'apprentissage automatique et confiance accrue des institutions dans l'intégration de plateformes tierces telles que NVIDIA AI des ensembles d'outils pour les tâches à forte intensité de calcul et IBM Watson pour les pipelines NLP spécifiques à un domaine.
- Formation à grande échelle : plus de 1,300 les apprenants ont suivi la formation sur la cybersécurité de l'IA générative.
- Attestation d'aptitude : 124 ont obtenu un badge "AI Advantage" ; 189 a obtenu un badge AI Jumpstart.
- L'engagement communautaire : 36 lors du Sommet de l'IA qui a rassemblé plus de 200 participants.
Ces mesures établissent une base de référence pour la planification de l'année universitaire 2025-2026, au cours de laquelle le laboratoire donnera la priorité à l'accès contrôlé à ChatGPT EDU, aux programmes pilotes pour les étudiants et à la publication de ressources institutionnelles telles que des principes directeurs et des modèles de syllabus. L'idée de base : une mesure solide et une accréditation ciblée accélèrent l'adoption sûre tout en renforçant la capacité institutionnelle pour les flux de travail basés sur l'IA.
Intégrer l'IA dans l'enseignement : subventions, formation continue et conception de programmes d'études
L'intégration systématique dans les programmes d'études nécessite une combinaison de subventions pédagogiques, de développement professionnel encadré et d'artefacts politiques clairs au niveau des cours. La structure de subvention à plusieurs niveaux et les offres modulaires de développement professionnel du AI Learning Lab constituent un modèle reproductible pour d'autres institutions visant à rendre l'IA opérationnelle dans la salle de classe sans compromettre l'intégrité académique.
Concevoir un développement professionnel évolutif
Deux parcours principaux de formation continue sont disponibles : un micro-cours d'une semaine (AI Jumpstart) et un programme complet de six semaines (AI Advantage). Les deux sont structurés de manière à ce que le corps enseignant et le personnel progressent de la compréhension conceptuelle à la mise en œuvre pratique. Le cours AI Advantage, d'une durée de six semaines, est assorti d'une prime, ce qui permet d'aligner l'apprentissage professionnel sur les cadres de rémunération et d'augmenter le taux d'achèvement.
- AI Jumpstart (Démarrage de l'IA) : module d'une semaine, démarrage progressif accessible, exposition rapide aux outils génératifs.
- L'avantage de l'IA : programme de six semaines, travaux pratiques, allocation de $300 à la fin du programme.
- La microformation obligatoire en matière de cybersécurité garantit une hygiène de base des données avant l'accès aux outils.
Le développement professionnel met l'accent sur une pédagogie indépendante des fournisseurs tout en illustrant les flux de travail spécifiques aux outils avec des plateformes telles que OpenAI, Google AIet des environnements d'entreprise facilités par Microsoft Azure AI ou AWS Machine Learning. Les modules de cours couvrent l'ingénierie de l'invite, la refonte des rubriques pour les évaluations sensibles à l'IA, et les utilisations basées sur des projets où l'IA est explicite et encadrée.
Niveaux de subvention et mise en œuvre des cours
Le programme de subvention du laboratoire fonctionne sur trois niveaux pour soutenir l'adoption progressive :
- Niveau 1 : Intégration d'une seule affectation, frais de conception minimes.
- Niveau 2 : Adoption au niveau du module - 3-4 activités basées sur l'IA dans le cadre d'une unité d'enseignement.
- Niveau 3 : Refonte de l'ensemble du cours avec intégration de l'IA dans les évaluations et les boucles de retour d'information.
En collaboration avec les concepteurs pédagogiques, les bénéficiaires alignent l'utilisation de l'IA sur les résultats d'apprentissage et les politiques universitaires. Ce partenariat de conception atténue les risques tels que l'exposition inappropriée des données ou la dépendance excessive à l'égard des résultats génératifs, qui sont des préoccupations courantes documentées dans les examens opérationnels et les avis des fournisseurs (voir les documents sur les Sécurité de l'IA et risque de cybersécurité et implications des outils génératifs pour la protection de la vie privée).
Élément du programme | Durée typique | Résultat escompté |
---|---|---|
Démarrage de l'IA | 1 semaine (1 module) | Orientation rapide vers les outils génératifs |
L'avantage de l'IA | 6 semaines (6 modules) | Composants de cours et pédagogie de l'IA pouvant être mis en œuvre |
Bourses d'enseignement en IA (niveau 1-3) | 1 à 2 semestres | La refonte des cours à grande échelle |
D'autres artefacts pratiques sont disponibles dans le laboratoire. Livre d'indices AI pour les enseignants et le personnelCes ressources permettent de reproduire et d'auditer l'adoption de l'IA, en l'intégrant aux opérations technologiques universitaires et aux suites d'analyse de l'apprentissage, telles que celles évoquées dans les rapports. Ces ressources rendent l'adoption reproductible et vérifiable, et s'intègrent aux opérations technologiques universitaires et aux suites d'analyse de l'apprentissage, telles que celles présentées dans les rapports sur les thèmes suivants Analyses renforcées par l'IA et tableaux de bord de la productivité.
- Les enseignants peuvent demander jusqu'à 50 licences ChatGPT EDU par classe pour des projets pilotes d'une durée d'un semestre.
- Tous les utilisateurs doivent suivre un module de sensibilisation à la cybersécurité de l'IA générative avant d'avoir accès à l'outil.
- Les participants au projet pilote sont soumis à des contrôles mensuels et à l'obligation de rendre compte de l'utilisation de l'IA ou de se présenter au sommet de printemps.
Une intégration pédagogique efficace concilie l'innovation et la gouvernance : une formation continue bien conçue et des refontes financées par des subventions permettent d'améliorer de manière mesurable les résultats d'apprentissage tout en réduisant la charge de travail des enseignants. En pratique, il faut investir dans le soutien aux enseignants, créer des modèles réutilisables et exiger une formation à la cybersécurité avant le déploiement des outils, ce qui favorise à la fois l'adoption et l'intégrité académique.
Opportunités opérationnelles et de recherche avec des outils d'IA à l'UNO
Au-delà de l'utilisation en classe, le AI Learning Lab a identifié des voies opérationnelles et de recherche pour exploiter l'IA à des fins d'efficacité administrative, de services sur le campus et de recherche sponsorisée. Les fournisseurs et les plateformes offrent des atouts complémentaires : les modèles d'entreprise de OpenAI pour les flux de travail en langage naturel, C3 AI et DataRobot pour la gestion du cycle de vie des ML de l'entreprise, et NVIDIA AI pour l'apprentissage de modèles optimisés par ordinateur.
Automatisation administrative et services aux campus
Les équipes administratives ont mis en œuvre l'IA pour automatiser les communications de routine, résumer les notes de réunion et accélérer la rédaction des demandes de subvention. Les cas d'utilisation comprennent le triage automatisé du service d'assistance, les assistants de planification intelligents et les premières ébauches de documents relatifs aux ressources humaines et à la passation de marchés. Ces mises en œuvre s'appuient sur une combinaison de plateformes en nuage, à savoirMicrosoft Azure AI pour un déploiement sécurisé au sein de l'entreprise et AWS Machine Learning et des outils spécifiques à un domaine, fournis par des partenaires tels que Cognizant AI et Salesforce Einstein pour la gestion de la relation client et l'engagement des étudiants.
- Le triage automatisé réduit les délais de réponse et libère le personnel pour les cas les plus complexes.
- piloté par l'IA les informations sur les clients éclairent les stratégies de fidélisation lorsqu'elles sont intégrées aux systèmes de gestion de la relation client (CRM).
- L'automatisation des flux de travail minimise les tâches administratives répétitives et améliore la précision.
L'infrastructure de recherche a bénéficié d'allocations informatiques ciblées et de crédits fournisseurs. Les clusters haute performance alimentés par les GPU NVIDIA ont accéléré l'expérimentation de modèles, et les partenariats avec les fournisseurs d'entreprise ont permis des expériences reproductibles dans le domaine de l'apprentissage automatique appliqué. Les domaines de recherche comprennent la bio-informatique, l'informatique environnementale et l'IA éducative, chacun tirant parti de chaînes d'outils et d'approches de gouvernance différentes.
Intégration stratégique des fournisseurs et cartographie de l'écosystème
L'établissement d'une correspondance entre les capacités des fournisseurs et les besoins des campus permet de hiérarchiser les investissements. A titre d'exemple :
- OpenAI : les capacités de génération, agents conversationnelset des GPT personnalisés pour le soutien scolaire.
- Google AI : des modèles orientés vers la recherche et des capacités multimodales pour les laboratoires expérimentaux.
- IBM Watson : NLP spécifique à un domaine et intégration d'entreprise dans l'informatique médicale et juridique.
- DataRobot et C3 AI : MLOps et gouvernance des modèles pour l'opérationnalisation des systèmes prédictifs.
Des études de cas du laboratoire illustrent la manière dont les équipes interfonctionnelles combinent les outils des fournisseurs pour créer des solutions composites. Un exemple concerne une collaboration entre le laboratoire de bio-informatique et d'apprentissage automatique (BML) et le Light Game Lab : les chercheurs ont utilisé une combinaison d'outils d'apprentissage automatique et d'apprentissage automatique. NVIDIA AI Grappes de GPU, AWS Machine Learning les pipelines de données, et l'affinement des approches avec des OpenAI API pour accélérer le développement de modèles pour les ensembles de données multimodales. Parmi les enseignements tirés de l'expérience, citons la planification budgétaire des heures de GPU et des protocoles rigoureux de traitement des données, alignés sur la future politique du laboratoire en matière de gestion des données. Principes directeurs de l'utilisation de l'IA.
Ces approches opérationnelles sont étayées par des ressources et des analyses externes pertinentes : des documents sur les thèmes suivants intégration de l'intelligence d'entreprise, Les pièges du déploiement de l'IAet les pratiques recommandées en matière de cybersécurité, telles que celles décrites dans le document Tactiques de sécurité de l'IA et les perspectives en matière de cybersécurité et d'IA.
- L'opérationnalisation nécessite des cadres MLOps et des pipelines de données reproductibles.
- Le choix du fournisseur doit tenir compte de la résidence des données, des politiques de formation des modèles et de la conformité.
- La gouvernance interdisciplinaire réduit la dette technique et augmente la vitesse d'adoption.
Les réalisations prévues sur le campus pour l'année 2025-2026 comprennent la publication d'exemples de syllabus, un ensemble codifié de principes directeurs et un accès élargi à ChatGPT EDU pour le corps enseignant et le personnel. Perspective stratégique : l'alignement de l'infrastructure de recherche sur la gouvernance opérationnelle et les écosystèmes de fournisseurs débloque à la fois l'innovation et la confiance institutionnelle.
Initiatives en matière d'IA centrées sur les étudiants : ChatGPT EDU et le projet pilote ChatGPT x Students
La participation des étudiants à l'IA est traitée comme une expérience de recherche et de pédagogie, et non comme un simple déploiement d'outils. Le programme ChatGPT EDU du laboratoire et le prochain programme pilote ChatGPT x Students visent à renforcer les compétences des étudiants tout en recueillant un retour d'information structuré afin d'élaborer des politiques fondées sur des données probantes.
Admissibilité, engagements et accueil des étudiants
Les étudiants, qu'ils soient en licence ou en master, peuvent postuler à un projet pilote qui nécessite une recommandation de la part d'un professeur ou d'un membre du personnel, ainsi qu'un engagement d'exploration hebdomadaire. Les étudiants approuvés reçoivent un accès à ChatGPT EDU pendant le semestre de printemps et doivent suivre la formation à la cybersécurité de l'IA générative. Le projet pilote met l'accent sur une utilisation responsable : les étudiants acceptent de suivre les politiques d'IA au niveau du cours, de s'engager dans des vérifications mensuelles de l'utilisation et peuvent présenter les résultats au sommet de l'IA au printemps.
- L'accès des étudiants est subordonné au suivi d'une formation à la cybersécurité et à l'hygiène des données.
- Le parrainage par le corps enseignant sert de mécanisme de contrôle pour garantir l'alignement sur la pédagogie.
- Le non-respect des conditions de participation entraîne l'exclusion de l'environnement EDU.
Le projet pilote pour les étudiants est conçu pour répondre à des questions pratiques : L'IA peut-elle améliorer la compréhension de concepts complexes ? L'accès à des TPG personnalisés modifie-t-il les habitudes d'étude ? Quelles sont les garanties nécessaires pour préserver l'intégrité de l'évaluation ? Les premiers paramètres opérationnels incluent la possibilité pour les étudiants de créer des TPG personnalisés, d'utiliser les fonctionnalités du projet et d'intégrer l'IA dans les flux d'étude.
Exemples de cas d'utilisation par les étudiants et d'hypothèses de recherche
Les exemples de cas d'utilisation prévus pour l'étude sont les suivants :
- Décomposition des concepts : les étudiants utilisent l'IA pour décomposer les concepts difficiles en explications progressives.
- Échafaudage d'étude : générer des questions pratiques et des boucles de rétroaction itératives pour l'auto-évaluation.
- Accélération du projet : tirer parti de l'IA pour rédiger des analyses documentaires et générer des scripts de nettoyage des données sous supervision.
Chaque cas d'utilisation est associé à des hypothèses de recherche et à des mesures d'évaluation. Par exemple, une étude sur la décomposition des concepts mesurera la compréhension avant/après à l'aide de rubriques validées et comparera l'étude assistée par l'IA à des groupes de contrôle. Ces expériences structurées s'appuient sur l'analyse de l'apprentissage et peuvent intégrer la télémétrie du fournisseur avec une agrégation préservant la vie privée.
Parmi les autres ressources destinées aux étudiants, on peut citer un AI Prompt Book for Students et une page Canvas Commons personnalisable pour aider les enseignants à définir les attentes du cours. Des renvois à des documents externes offrent un contexte plus large aux enseignants et aux étudiants, y compris des guides pratiques sur l'IA dans l'éducation et des ressources sur la cybersécurité telles que L'IA dans l'éducation et les parcours de formation décrits à l'adresse suivante conseils en matière de protection de la vie privée pour les outils génératifs.
- Les projets pilotes pour les étudiants donneront la priorité au retour d'information itératif et à la transparence des rapports.
- Les résultats serviront de base à la politique institutionnelle et aux critères d'évaluation.
- Les résultats seront présentés au sommet de l'IA de l'ONU, ce qui favorisera le transfert de connaissances sur le campus.
La collecte de commentaires structurés de la part des étudiants tout en imposant des mécanismes de responsabilisation (recommandations, formation, contrôles mensuels) permet une exploration en toute sécurité et produit des preuves de haute qualité sur la valeur pédagogique de l'IA. Conclusion : les projets pilotes menés par des étudiants qui associent l'accès aux outils à une évaluation de niveau recherche permettent de formuler des recommandations politiques exploitables.
Sécurité, éthique et infrastructure : Garanties pour l'adoption de l'IA sur les campus
L'adoption robuste de l'IA nécessite des mesures de protection à plusieurs niveaux dans les domaines de l'infrastructure, de la formation et de la politique. L'approche du AI Learning Lab met l'accent sur une formation obligatoire à la cybersécurité, un accès restreint aux entreprises et un consortium central de l'IA pour développer des ressources institutionnelles telles que des principes directeurs et des modèles de syllabus afin de normaliser les pratiques éthiques.
Posture de sécurité et contrôles obligatoires
L'accès aux environnements d'entreprise tels que ChatGPT EDU est subordonné à la réalisation d'un court module de formation à la cybersécurité de l'IA générative. Cette formation précise quelles sont les données qu'il convient de saisir dans les outils grand public gratuits et payants par rapport aux déploiements en entreprise. Ces contrôles procéduraux sont essentiels, car une mauvaise configuration ou une saisie inappropriée des données peut entraîner une exposition des informations et des risques de non-conformité.
- Une formation de base à la cybersécurité est obligatoire avant d'obtenir l'accès aux outils de l'entreprise.
- Les licences d'entreprise (ChatGPT EDU) sont configurées de manière à empêcher l'apprentissage du modèle sur les données institutionnelles.
- Les contrôles d'accès et les journaux d'audit sont essentiels à la conformité et à la criminalistique.
La planification de l'infrastructure technique tient compte des caractéristiques des fournisseurs et des compromis en matière de risques. Pour les expériences à forte intensité de calcul, NVIDIA AI Les grappes de GPU avec un accès contrôlé au réseau sont préférables. Pour les modèles linguistiques d'entreprise, des partenariats avec des fournisseurs tels que OpenAI et les offres de services en nuage gérés de Microsoft Azure AI ou AWS Machine Learning de prendre en charge les déploiements sécurisés. Autres outils du fournisseurIBM Watson, DataRobot, C3 AI, Cognizant AI, et Salesforce Einstein-remplir des rôles de niche dans l'analyse spécifique à un domaine ou dans les interventions auprès des étudiants basées sur la gestion de la relation client (CRM).
Éthique, gouvernance et consortium de base de l'IA
Les mécanismes de gouvernance lancés par le AI Core Consortium comprennent des propositions de principes directeurs et de modèles de syllabus qui seront mis en œuvre au cours de l'année universitaire 2025-2026. Ces artefacts de gouvernance remplissent plusieurs fonctions : ils normalisent les attentes des étudiants, fournissent aux enseignants un langage pour les politiques de cours et créent un forum pour un retour d'information interdisciplinaire sur les utilisations acceptables de l'IA.
- Les principes directeurs établissent des valeurs et des limites opérationnelles pour le déploiement de l'IA.
- Des exemples d'énoncés de syllabus permettent de diffuser des messages cohérents d'un cours à l'autre.
- Les boucles de rétroaction du consortium garantissent que la politique évolue avec la pratique et les preuves.
Les contrôles opérationnels doivent s'accompagner d'une formation à l'éthique. Les cours de formation et de perfectionnement du laboratoire intègrent des modules sur l'atténuation des préjugés, les pratiques de citation pour le contenu généré par l'IA et l'ingénierie prompte et responsable. Des ressources et des lectures externes, telles que des rapports sur les hallucinations de l'IA et les risques d'adversité, sont intégrées dans le programme d'études et les manuels de jeu opérationnels (voir des ressources telles que analyse des hallucinations de l'IA et essais contradictoires dans le domaine de la cybersécurité).
Les équipes techniques doivent également planifier l'observabilité et la réponse aux incidents. Les pratiques recommandées comprennent le suivi des modèles et des données, les messages-guides et les modèles contrôlés par version, ainsi que l'enregistrement des résultats des modèles utilisés dans les décisions qui en découlent. Les outils pour le suivi des modèles et les MLOps, tels que ceux examinés dans le cadre de la recherche sur les LLM gestion des risques et Architecture d'observabilité de l'IA-sont essentiels pour maintenir la confiance et permettre une amélioration continue.
- Appliquer un contrôle d'accès basé sur les rôles pour l'approvisionnement en outils d'IA.
- Exiger des procédures documentées de traitement des données et des audits réguliers.
- Mettre en œuvre des plans d'intervention en cas d'incident adaptés aux risques spécifiques à l'IA.
L'adoption sécurisée et éthique de l'IA sur les campus dépend d'un triptyque : contrôles techniques, connaissance des programmes et gouvernance participative. L'idée décisive : l'intégration de ces mesures de protection dans les processus d'accueil et d'exploitation protège les données institutionnelles tout en permettant une innovation évolutive.