-

Fiddler Labs développe l’explicabilité du modèle d’IA

Votre demande de prêt en ligne vient d’être refusée sans explication. Bienvenue dans la boîte noire de l’IA.

Les entreprises de tous horizons se tournent vers l’IA pour des décisions informatisées fondées sur les données. Pourtant, les consommateurs qui utilisent des applications avec l’IA sont laissés dans l’ignorance du fonctionnement des décisions automatisées. Et de nombreuses personnes travaillant au sein des entreprises ne savent pas comment expliquer le fonctionnement interne de l’IA aux clients.

Fiddler Labs veut changer cela.

La startup basée à San Francisco propose une plate-forme d’IA explicable qui permet aux entreprises d’expliquer, de surveiller et d’analyser leurs produits d’IA.

L’IA explicable est un domaine d’intérêt croissant pour les entreprises, car ceux qui ne font pas partie de l’ingénierie ont souvent besoin de comprendre le fonctionnement de leurs modèles d’IA.

À l’aide de l’IA explicable, les banques peuvent fournir aux clients les raisons du rejet d’un prêt, sur la base de points de données alimentés par des modèles, tels que des cartes de crédit maximales ou des ratios dette / revenu élevés. En interne, les spécialistes du marketing peuvent élaborer des stratégies sur les clients et les produits en en sachant davantage sur les points de données qui les animent.

«Cela comble le fossé entre les spécialistes des données expérimentés qui construisent les modèles et les équipes commerciales qui utilisent ces modèles pour prendre des décisions», a déclaré Anusha Sethuraman, responsable du marketing produit chez Fiddler Labs.

Fiddler Labs est membre de NVIDIA Inception, un programme qui permet aux entreprises travaillant dans l’IA et la science des données avec des outils fondamentaux, une expertise et un soutien marketing, et les aide à se lancer plus rapidement sur le marché.

Qu’est-ce que l’IA explicable?

L’IA explicable est un ensemble d’outils et de techniques qui aident à explorer les mathématiques à l’intérieur d’un modèle d’IA. Il peut mapper les entrées de données et leurs valeurs pondérées qui ont été utilisées pour arriver à la sortie de données du modèle.

Tout cela, essentiellement, permet à un profane d’étudier l’usine de saucisses au travail à l’intérieur d’un processus autrement opaque. Le résultat est que l’IA explicable peut aider à comprendre comment et pourquoi une décision particulière a été prise par un modèle.

«La mise en production de l’IA est souvent difficile. L’explicabilité est l’une des choses qui, à notre avis, peut résoudre cet obstacle », a déclaré Sethuraman.

Avec un ensemble de modèles souvent utilisés, créer ce n’est pas une tâche facile.

Mais le PDG et co-fondateur de Fiddler Labs, Krishna Gade, est à la hauteur de la tâche. Auparavant, il dirigeait l’équipe de Facebook qui a construit le «Pourquoi est-ce que je vois ce message? pour aider les consommateurs et les équipes internes à comprendre le fonctionnement de son IA dans le fil d’actualité Facebook.

Lui et Amit Paka – un camarade de classe de l’Université du Minnesota – ont uni leurs forces et ont quitté leur emploi pour démarrer Fiddler Labs. Paka, directeur des produits de la société, était motivé par son expérience chez Samsung avec les applications de recommandation d’achat et par le manque de compréhension du fonctionnement de ces modèles de recommandation d’IA.

Explicabilité de la transparence

Fondé en 2018, Fiddler Labs offre une explicabilité pour une plus grande transparence dans les entreprises. Il aide les entreprises à prendre des décisions commerciales mieux informées grâce à une combinaison de données, d’intelligence artificielle explicable et de surveillance humaine, selon Sethuraman.

La technologie de Fiddler est utilisée par Hired, un site de jumelage de talents et d’emplois basé sur l’IA. Fiddler fournit des rapports en temps réel sur le fonctionnement des modèles d’IA de Hired. Il peut générer des explications sur les évaluations des candidats et fournir des commentaires de suivi des biais, permettant à Hired d’évaluer son IA.

L’IA explicable doit être rapidement disponible pour les applications fintech grand public. Cela permet aux représentants du service client d’expliquer les décisions financières automatisées – comme les refus de prêt et les taux de robot – et de renforcer la confiance avec la transparence du processus.

Les algorithmes utilisés pour les explications nécessitent un traitement lourd. Sethuraman a déclaré que Fiddler Labs puise dans les GPU cloud NVIDIA pour rendre cela possible, affirmant que les processeurs ne sont pas à la hauteur de la tâche.

«Vous ne pouvez pas attendre 30 secondes pour les explications – vous voulez des explications en quelques millisecondes sur beaucoup de choses différentes selon les cas d’utilisation», a déclaré Sethuraman.

Visitez NVIDIA page de l’industrie des services financiers pour apprendre plus.

Crédit d’image: Emily Morter, via la communauté de photos Unsplash.

Html code here! Replace this with any non empty raw html code and that's it.

Partager cet article

Actualités