Les directives de la FDA mettent en évidence plusieurs éléments essentiels :
1. Un cadre de crédibilité basé sur le risque
Les modèles d’IA doivent être évalués en fonction de leur utilisation prévue, ou contexte d'utilisation (COU), avec différents niveaux de surveillance et de rigueur en fonction de l’impact potentiel sur la sécurité des patients ou la fiabilité de l’étude.
Les facteurs clés incluent :
- Critères de performance
- Stratégies d’atténuation des risques
- Exigences en matière de documentation sur mesure
2. Champ d’application de l’IA
Le guide se concentre sur le rôle de l’IA dans non clinique, clinique, post-commercialisation et fabrication phases, en particulier pour les décisions réglementaires liées à la sécurité, à l’efficacité et à la qualité des médicaments.
Sont exclus de ces orientations :
- L'IA dans la découverte de médicaments
- Applications améliorant l'efficacité opérationnelle sans impact direct sur les patients ou les études
3. Engagement précoce avec la FDA
La FDA encourage fortement les sponsors à s'engager tôt, en particulier pour les applications à haut risque comme pharmacovigilance post-commercialisation. Une documentation claire et un alignement avec les attentes de l’agence sont essentiels au bon déroulement du processus d’évaluation.
4. Encourager l’innovation en matière de pharmacovigilance
Pour favoriser l’innovation, la FDA a également lancé le Programme de la réunion sur les technologies émergentes de sécurité des médicaments (EDSTM), une plateforme de discussion sur les nouvelles technologies et leurs applications potentielles en pharmacovigilance.
La FDA appelle les chefs de file de l'industrie, les chercheurs et les autres parties prenantes à fournir des commentaires sur le projet de lignes directrices d'ici 7 avril 2025.