Microsoft élargit sa famille Phi avec un nouveau modèle, Phi-4. Ce petit modèle de langage est censé être adapté aux problèmes mathématiques et compte 14 milliards de paramètres.
Le dernier modèle de langage de la famille Phi est connu : Phi-4. Ce petit modèle de langage excelle dans les tâches de raisonnement complexes telles que les problèmes mathématiques, selon un billet de blog de Microsoft. Le modèle est entraîné sur des « ensembles de données synthétiques de haute qualité » et ses performances seraient même supérieures à celles de modèles tels que Llama, GPT-4o ou Gemini Pro 1.5. Phi-4 est disponible sur Azure AI Foundry.
Raisonnement mathématique
Le nouveau modèle de langage Phi-4 de Microsoft succède à Phi-3-mini, qui ne comportait que 3,8 milliards de paramètres. Pour Phi-4, Microsoft a augmenté le nombre de paramètres à 14 milliards. Le modèle est censé exceller principalement dans la résolution de problèmes mathématiques et obtenir de meilleurs résultats que d’autres modèles linguistiques, notamment Llama, GPT-4o et même Gemini Pro 1.5 ou Claude 3.5 Sonnet.
« Phi-4 surpasse des modèles comparables et plus grands dans le raisonnement mathématique grâce à des avancées dans les processus, y compris l’utilisation d’ensembles de données synthétiques de haute qualité, la curation de données organiques de haute qualité et les innovations post-entraînement. Phi-4 continue de repousser les limites de la taille par rapport à la qualité », a déclaré Microsoft. L’entreprise ne révèle pas plus de détails que le fait qu’il a été formé sur des « ensembles de données synthétiques de haute qualité ». Le modèle est disponible sur Azure AI Foundry.
lire aussi