Les perspectives de l'IA révélées : Les règles en matière de santé mentale des jeunes en 2025
Résumé des principaux résultats du sommet politique 2025 de la fondation JED, axé sur la politique, la technologie, l'équité et le leadership des jeunes en matière de santé mentale dans les écoles et les communautés.
Perspectives de l'IA sur la politique et la responsabilité en matière de santé mentale des jeunes
Les responsables politiques ont présenté l'IA comme un risque et une opportunité. Les intervenants ont mis en garde contre la conception d'algorithmes qui entraînent une utilisation compulsive et nuisent à l'attention. Les élus ont appelé à l'adoption de normes réglementaires et à la responsabilisation des entreprises afin de réduire les dommages causés par les plateformes numériques.
- Actions immédiates : établir des garde-fous éthiques, exiger la transparence, faire respecter les normes de sécurité.
- Changement des systèmes : intégrer la santé comportementale dans la planification à l'échelle de l'État, financer la prévention, développer les applications de réponse aux crises.
- La voix des jeunes : inclure les étudiants dans l'élaboration des politiques et l'évaluation des programmes.
| Action | But | Exemple ou source |
|---|---|---|
| Normes réglementaires | Réduire l'exploitation de la conception et protéger l'attention | Résumé du sommet par le JED |
| Des garde-fous éthiques pour l'IA | Garantir la sécurité, le respect de la vie privée et l'atténuation des préjugés | Revue récente sur les risques liés à l'IA |
| Planification comportementale de l'État | Prévention de l'échelle et réponse aux crises | L'application SAFE de l'Utah et les plans de l'État, mentionnés lors du sommet |
Exemple de cas. Le lycée de Riverdale a mis en place une politique d'examen des outils d'IA avant leur utilisation en classe. Le district a limité les fonctionnalités qui favorisent le défilement sans fin. Au bout de trois mois, les enseignants ont constaté que les élèves étaient plus concentrés.
L'intelligence artificielle : des recommandations d'experts pour les politiques
Les chercheurs appellent à une action politique rapide pour éviter de répéter les erreurs du passé avec les médias sociaux. Les études ont mis en évidence les liens entre les plateformes non réglementées et la détresse des jeunes. Les décideurs politiques doivent aligner le financement, la surveillance et la contribution des jeunes pour construire des systèmes durables.
- Financer des évaluations indépendantes des produits d'IA utilisés dans les écoles et les cliniques.
- Exiger des évaluations d'impact avant le déploiement dans les milieux de la jeunesse.
- Soutenir les espaces communautaires tels que les bibliothèques et les parcs pour le bien-être non clinique.
| Recommandation | Raison d'être | Source |
|---|---|---|
| Analyses d'impact | Révéler rapidement les effets néfastes involontaires | Note d'orientation sur l'IA dans le domaine de la santé mentale des jeunes |
| Conseils consultatifs de la jeunesse | Améliorer la pertinence et la confiance | Exemples de panels de jeunes au sommet |
| Exigences de transparence | Permettre la responsabilisation et la recherche | Article de journal sur les voies d'accès aux politiques |
Aperçu général. Une politique qui ne tient pas compte de l'avis des jeunes risque de passer à côté de préjudices concrets et de rater des occasions de prévention.
Perspectives de l'IA sur la technologie, l'accès et la pratique clinique
La technologie offre un accès modulable mais crée également de nouvelles exigences éthiques. Les outils numériques ont alimenté les discussions dans tous les panels, des algorithmes de détection précoce aux thérapeutes virtuels. Les cliniciens et les écoles doivent évaluer les produits en termes de sécurité et d'équité.
- Évaluer l'efficacité, le respect de la vie privée et la partialité avant l'adoption.
- Préférer les modèles hybrides où les humains dirigent les soins et l'IA soutient le flux de travail.
- Former le personnel à la culture numérique et à l'utilisation responsable des outils.
| Type d'outil | Utilisation typique | Considération |
|---|---|---|
| Applications autoguidées | Suivi des symptômes et exercices de TCC | Valider les allégations cliniques et la confidentialité, par exemple Calm et Sanvello |
| Plateformes de téléthérapie | Séances de thérapie à distance | Vérifier l'autorisation d'exercer, la qualité, par exemple BetterHelp et Talkspace. |
| Chatbots d'IA | Soutien immédiat et triage | Contrôler la sécurité, par exemple Woebot et Ginger |
| Plates-formes de soins intégrés | Outils d'aide à l'emploi et d'orientation | Correspondance avec les services locaux, par exemple Spring Health et Headspace. |
Note d'information. Une étude exploratoire a mis en évidence les avantages et les lacunes des interventions basées sur l'IA, et a appelé à de meilleurs essais et à des mesures d'équité. Les équipes cliniques devraient s'appuyer sur des données probantes examinées par des pairs avant d'étendre les outils.
- Examiner les preuves systématiques provenant de sources telles que l'examen de la portée et les essais récents.
- Piloter les outils dans des environnements restreints avec une collecte de données solide.
- S'associer à des chercheurs pour mesurer les résultats dans le monde réel.
| Métrique | Pourquoi c'est important | Référence |
|---|---|---|
| Qualité de l'engagement | Distinguer l'usage utile de l'usage compulsif | MDPI scoping review |
| Résultats en matière d'équité | Prévenir l'aggravation des disparités | Article de Springer sur l'équité |
| Signaux de sécurité | Détecter les effets néfastes à un stade précoce | Rapport sur les frontières de la psychiatrie |
Exemple pratique. Une clinique régionale a mis en place un protocole dans lequel le triage fait appel à une IA pour l'évaluation des symptômes, tandis que des cliniciens agréés s'occupent des plans de soins. Cette répartition a permis de réduire les temps d'attente et d'améliorer les taux de suivi.
Aperçu principal. Pour améliorer l'accès aux soins et garantir la sécurité des utilisateurs, la technologie doit soutenir les soins prodigués par des personnes, et non remplacer le jugement humain.
Perspectives de l'IA sur la prévention, l'équité et la voix des jeunes
Les panels ont mis l'accent sur la prévention et l'innovation. Les intervenants ont plaidé en faveur d'investissements dans les conseillers scolaires, les programmes communautaires et l'apprentissage précoce de la santé mentale. L'équité exige un financement pour les régions mal desservies et des approches culturellement adaptées.
- Investir dans la formation des conseillers et dans des programmes communautaires tels que Let's Learn.
- Utiliser les données pour cibler la prévention dans les communautés rurales et à haut risque.
- Centrer les jeunes en tant que co-créateurs d'outils et de politiques.
| Programme | Se concentrer | Impact ou note |
|---|---|---|
| L'initiative "Let's Learn" dans les salles de classe | Connaissance de la santé mentale | Les programmes d'études pilotes menés par les élèves ont été récompensés lors du sommet |
| Application de crise SAFE | Réponse immédiate à la crise | Exemple au niveau de l'État pour l'intensification de la réaction rapide |
| Investissements dans les bibliothèques et les parcs | Centres de bien-être non cliniques | L'accessibilité des lieux améliore la recherche d'aide |
Lien vers la recherche. Des chercheurs d'Oxford ont proposé des stratégies pour étudier les effets de l'IA sur les jeunes, préconisant des modèles longitudinaux et un contrôle éthique. Les notes d'orientation recommandent des cadres cohérents pour la sécurité et l'évaluation.
- Mener des études à long terme pour détecter les effets néfastes et bénéfiques à retardement.
- Concevoir des interventions en tenant compte de l'avis des jeunes, de la planification à l'évaluation.
- Mesurer les déterminants sociaux en même temps que les paramètres cliniques.
| Besoin d'étude | Résultats attendus | Référence |
|---|---|---|
| Cohortes longitudinales | Suivre l'exposition à l'IA et les trajectoires de santé mentale | Stratégies de recherche d'Oxford |
| Analyse politique | Identifier les lacunes réglementaires | Résumé des problèmes politiques |
| Essais de mise en œuvre | Démontrer l'efficacité dans le monde réel | Intégration de l'IA dans l'examen de la protection de la jeunesse |
Exemple de programme. Un district rural s'est associé à une université pour tester le dépistage de l'IA et la présence de conseillers sur place. Le dépistage a permis d'identifier les élèves à risque, tandis que les conseillers ont assuré un suivi rapide. L'assiduité s'est améliorée en l'espace d'un semestre.
Aperçu principal. La prévention et l'équité nécessitent à la fois un financement et un partenariat avec les jeunes pour garantir que les outils atteignent ceux qui en ont le plus besoin.
Notre avis sur l'intelligence artificielle et la santé mentale des jeunes
Les conclusions du sommet sur l'IA montrent qu'il est urgent d'agir et qu'il faut aller de l'avant. Les politiques, les pratiques et le leadership des jeunes doivent s'aligner pour éviter de répéter les erreurs commises dans le passé avec les médias sociaux. Les preuves et la transparence doivent guider l'utilisation des produits dans les écoles et les cliniques.
- Exiger des fournisseurs de technologies des données transparentes sur la sécurité.
- Investir dans la formation de la main-d'œuvre et les aides communautaires.
- Inclure les étudiants dans la conception et l'évaluation dès le premier jour.
| Priorité | Action | Effet attendu |
|---|---|---|
| Règlement | Renforcer la transparence de la conception et les tests de sécurité | Réduire les caractéristiques d'exploitation et protéger l'attention |
| Recherche | Financer des études longitudinales et de mise en œuvre | Produire des données fiables pour les politiques |
| Leadership des jeunes | Créer des conseils consultatifs et des bourses de co-conception | Augmenter l'adoption et l'adaptation culturelle |
Des ressources pratiques et des données probantes sont disponibles pour les planificateurs et les praticiens. Lisez les articles de synthèse sur les interventions basées sur l'IA, les mémos politiques et les points forts du sommet pour préparer des stratégies locales. Parmi les applications et plateformes abordées lors du sommet, citons Headspace, BetterHelp, Calm, Talkspace, Mindstrong, Woebot, Ginger, Sanvello, Cups, Spring Health.
- Points forts et recommandations du sommet : Présentation de la fondation JED
- Examens et essais de données probantes : MDPI scoping review
- Perspectives cliniques et de mise en œuvre : Article de Springer sur la mise en œuvre
- Enseignements historiques et orientations futures : Analyse de la revue sur les voies politiques
- Tendances et couverture médiatique des outils d'IA : Tendances et couverture de l'IA
| Type de ressource | Utilisation | Lien |
|---|---|---|
| Note d'information | Planification politique et plaidoyer | Note de politique générale |
| Article de recherche | Base factuelle pour les outils | Revue ScienceDirect |
| Guide de mise en œuvre | Conception de programmes dans les écoles et les cliniques | Intégrer l'examen de l'IA |
Dernier point de vue. L'intelligence artificielle offre des outils d'accès et de prévention, mais la politique et le leadership des jeunes détermineront si la technologie guérit ou nuit. Les parties prenantes doivent agir maintenant pour garantir des systèmes sûrs et équitables pour les jeunes.


