Bien que les dirigeants d’entreprises du monde entier souhaitent adopter l’IA pour innover rapidement, les pratiques de sécurité robustes accusent un retard. Un fossé se creuse entre le RSSI et le reste de la direction.
Un écart se crée entre le rôle et la responsabilité du RSSI d’une part, et l’ambition en matière d’IA du reste de la direction de l’entreprise d’autre part. C’est ce qui ressort d’une étude menée par NTT Data auprès de 2 300 profils de capteurs, incluant 1 500 gestionnaires de niveau C dans 34 pays.
L’étude indique que 95 pour cent des personnes interrogées considèrent l’IA générative comme un moteur d’innovation. Les entreprises agissent en conséquence : 99 pour cent prévoient des investissements supplémentaires dans l’IA. La sécurité n’est théoriquement pas négligée : 94 pour cent investissent également davantage dans la sécurité.
Large fossé
Dans la pratique, cependant, la sécurité est à la traîne. À peine 24 pour cent des RSSI « interrogés pensent que leur organisation a élaboré un cadre robuste qui équilibre correctement les risqu » es et les avantages.
38 pour cent d’entre eux estiment que la stratégie GenAI est effectivement bien alignée sur la stratégie de sécurité. Les PDG ont une vision plus optimiste : 51 pour cent pensent que cet équilibre est bien établi.
La discordance entre la vision optimiste du PDG et du reste des gestionnaires de niveau C d’une part, et la vision du RSSI d’autre part, est importante. Par exemple, 69 pour cent des RSSI indiquent que leur équipe ne possède pas actuellement les compétences suffisantes pour mener à bien les défis de GenAI. De plus, seulement 20 pour cent des PDG pensent que les directives internes concernant la politique et la responsabilité sont peu claires, contre 54 pour cent des RSSI.
lire aussi
Le PDG enthousiaste à l’égard de l’IA et de la sécurité, le RSSI beaucoup moins
Il n’est donc pas surprenant que 45 pour cent des RSSI aient finalement un sentiment négatif à l’égard de GenAI. Ils se sentent sous pression, menacés et dépassés. Parmi les personnes interrogées occupant d’autres rôles, seuls dix-neuf pour cent partagent ces sentiments négatifs.
Sécurité intégrée
Il semble que l’enthousiasme généralisé pour l’IA conduise à répéter des erreurs connues. Une mise en œuvre rapide entraîne une sécurité moins adéquate. Pourtant, même avec l’IA, la sécurité doit faire partie de la conception et de la mise en œuvre dès le début. Une étude antérieure de l’ISACA avait déjà montré que ce n’était que trop rarement le cas. La moitié des équipes de sécurité n’ont aucun mot à dire dans le développement des applications.
Un cadre élaboré, tenant compte de la législation pertinente, est également indispensable pour un déploiement structurellement sûr de l’IA. Selon le rapport, il reste encore beaucoup à faire dans ce domaine, et certainement plus que ne le pense le PDG.