OpenAI nous donne un aperçu des nouvelles fonctions de sécurité pour ChatGPT qui réagit de manière plus utile lors de conversations sensibles.
OpenAI déploiera de nouvelles fonctionnalités dans ChatGPT au cours du prochain mois, notamment le contrôle parental et l’activation automatique de modèles de raisonnement lors de conversations sensibles. L’entreprise collabore avec des experts médicaux du monde entier à cette fin.
Soutien en cas de détresse mentale
OpenAI souhaite rendre ChatGPT plus utile dans les situations où les utilisateurs sont confrontés à un stress mental ou émotionnel. C’est pourquoi le système passera bientôt automatiquement à des modèles de raisonnement, tels que la pensée GPT-5, lorsqu’il détectera des signes de « détresse aiguë ». Ces modèles sont conçus pour prendre plus de temps pour le contexte et le raisonnement. Cela devrait conduire à des réponses plus fiables lors de conversations sensibles.
lire aussi
GPT-5 adopte une personnalité plus chaleureuse et moins de restrictions
Les modèles ont été entraînés avec une méthode appelée « ajustement délibératif ». Cette technique doit garantir qu’ils gèrent mieux les consignes de sécurité et qu’ils sont moins sensibles aux entrées inappropriées. OpenAI activera progressivement les conversations avec ces modèles et les évaluera attentivement.
Contrôle parental
En outre, une attention particulière sera accordée aux jeunes. Selon OpenAI, les adolescents font partie des premiers « natifs de l’IA » et utilisent souvent l’IA de manière indépendante. C’est pourquoi l’entreprise introduira prochainement le contrôle parental dans ChatGPT. Les parents peuvent lier le compte de leur adolescent au leur, ajuster les paramètres de base tels que la désactivation de la mémoire et de l’historique des conversations, et recevoir des notifications si leur enfant se trouve dans un moment de crise.
Experts médicaux
Pour étayer ces nouvelles fonctions, OpenAI collabore avec un Conseil d’experts sur le bien-être et l’IA. Ce conseil donne des avis sur le développement de la jeunesse, la santé mentale et l’interaction homme-machine. De plus, l’entreprise reçoit le soutien d’un réseau mondial de plus de 250 médecins de 60 pays. Parmi eux, des psychiatres, des pédiatres et des médecins généralistes qui fournissent des informations sur la manière dont les modèles doivent réagir dans le contexte de la santé mentale.
Au cours des 120 prochains jours, OpenAI souhaite partager d’autres étapes dans le cadre de cette initiative. Le déploiement de fonctions de contrôle parental et l’utilisation de modèles de raisonnement dans les situations de crise marquent la première phase de ce plan.
