RESPONSIBLE AI

Une enquête menée par Fico et Corinium s’intéresse à l’IA responsable dans les entreprises

FICO-et-Corinium.jpg

La société FICO connue pour le “Credit score/FICO Score”, un indicateur utilisé pour prévoir les problèmes de crédits, a publié un rapport intitulé “L’état de l’IA responsable”. Ce document constitue les résultats d’une enquête menée avec l’aide de la société de veille commerciale Corinium autour de l’IA responsable. Les deux organismes ont essayé de comprendre les aspects qui permettent à une entreprise d’adopter une IA plus responsable, éthique, transparente et sécurisée. 

Une enquête sur l’intelligence artificielle responsable

Dans le cadre d’une initiative menée par Corinium et FICO, une étude a été réalisée sur des entreprises exploitant l’intelligence artificielle au quotidien. L’objectif était de mieux saisir comment les entreprises utilisent l’IA et si les enjeux d’éthique, de responsabilité, et de respect des intérêts de la clientèle sont assimilés par ces groupes. Les deux organismes ont questionné plusieurs chiefs Analytics, chiefs AI et chiefs Data Officers pour mieux comprendre les stratégies d’IA mises en place dans ces structures.

Selon l’enquête, la plupart des entreprises interrogées déploient l’IA avec un risque élevé. Certains chiffres disponibles dans le rapport, tendent à affirmer ces propos :

  • 73 % des organismes questionnés ont eu du mal à obtenir le soutien de leur direction pour donner la priorité à une IA éthique et responsable
  • 65 % d’entre elles ne savent pas comment sont prises certaines décisions autour de la stratégie mise en place par leur entreprise.

De plus, une institution sur cinq prend les devants pour surveiller l’ensemble des modèles développés afin qu’ils respectent une certaine éthique. Un chiffre à mettre en corrélation avec ces deux données :

  • 39 % des membres du conseil d’administration d’une entreprise ainsi que 33 % des équipes de direction ont un savoir incomplet sur les enjeux éthiques de l’IA.

L’importance de la notion de “responsabilité”

Les conclusions du rapport préconisent d’accorder plus d’importance à la gouvernance et à la formation sur l’IA responsable auprès des décideurs, membres de conseils d’administration et membres d’équipes de direction. L’étude met en évidence un autre point : le manque de responsabilité à l’égard de l’IA responsable.

Une donnée va en ce sens :

  • 43 % des personnes interrogées déclarent n’avoir aucune responsabilité sur des domaines qui vont au-delà de la conformité réglementaire en matière d’IA éthique.

Pour Scott Zoldi, chief analytics officer pour FICO, ce chiffre est un signal d’alerte :

“À mon avis, cela témoigne de la nécessité d’une réglementation plus poussée en matière d’éthique. Si les concepteurs de l’IA ne considèrent généralement pas leur responsabilité comme étant plus poussés que celle que la réglementation existante impose, c’est qu’il y a un problème, sans évoquer les cas où elle n’est pas appliquée.”

La solution préconisée dans le rapport consiste à appliquer une gouvernance de modèle d’IA immuable. Ces cadres doivent permettre une surveillance accrue des modèles d’IA afin de s’assurer que les décisions prises en matière d’IA soient responsables, transparentes et justes. FICO et Corinium précisent également que les pouvoirs qu’ont les décideurs doivent servir pour établir des normes dans les entreprises en matière d’IA et promouvoir une surveillance active des systèmes d’IA.

L’avenir de l’IA responsable serait entre les mains des dirigeants d’entreprises

L’étude révèle que 80 % des cadres mis en place par les décideurs autour de l’IA ne sont pas ceux qui permettraient une utilisation responsable de l’IA. Toutefois, neuf entreprises sur dix savent que les processus inefficaces de surveillance des modèles d’IA sont un obstacle à son adoption. Deux entreprises sur trois pensent que l’IA responsable et l’éthique de l’IA seront deux éléments centraux dans le cadre de leur stratégie d’adoption de l’IA d’ici deux ans.

Des chiffres qui semblent en contradictions, car les entreprises affirment prendre de mauvaises décisions, tout en assurant que ces mauvaises décisions ne sont pas bénéfiques pour mettre en place une IA responsable. Tout réside une nouvelle fois, selon l’enquête, dans une meilleure compréhension des enjeux d’éthique liés à l’IA par les décideurs et dirigeants d’entreprises.






Read more on Actu IA

You may also like

Leave a reply

Your email address will not be published. Required fields are marked *