L'intelligence artificielle semble aujourd'hui une force incontournable et déjà bien implantée. Selon McKinsey , 79% de la population active mondiale a déjà été exposée au moins une fois à l'IA générative, et Hostinger relève que plus de 40 % des entreprises observent un impact positif suite à l'automatisation de leurs activités grâce à l'IA.
Toutefois, derrière cette montée fulgurante de l'IA se cache une zone d'ombre : les modèles sont de véritables boîtes noires, avec des fonctionnements qui ne sont connus que de leurs créateurs.
Pas de confiance dans l'opacité
La rationalité et l'explicabilité des résultats font partie des inquiétudes majeures entourant l'utilisation de l'intelligence artificielle. Le modèle utilisé est-il pertinent ? Les données utilisées pour entraîner l'IA sont-elles réellement représentatives ? Quels sont les potentiels biais ?
Il est difficile d'accorder sa confiance lorsque les mécanismes d'un modèle d'IA restent secrets, surtout à l'heure de la transparence. Si une IA propose un diagnostic médical spécifique, comment les professionnels de santé peuvent-ils évaluer sa pertinence sans comprendre la logique sous-jacente du modèle ?
Sont également à considérer les couches de filtrage utilisées par les entreprises pour réguler les réponses de l'IA. Ces surcouches reflètent en effet les choix et orientations de l'entreprise et peuvent générer un certain nombre de biais culturels et politiques.
Enfin, la sécurité reste une question essentielle. Comment sont utilisées les informations injectées par les utilisateurs des logiciels d'IA ? Les données permettant l'entraînement des modèles sont-elles protégées contre le risque de fuite ou d'utilisation malveillante ?
La solution Web3
Face à cet enjeu de confiance et aux écueils de centralisation des modèles d'IA, une solution émerge : s'appuyer sur l'approche Web3 pour construire ces modèles de manière transparente, décentralisée et distribuée.
Ceci peut être rendu possible par l'utilisation de deux technologies. La blockchain d'une part, pour assurer la propriété, la provenance et la gouvernance des données. Le calcul confidentiel d'autre part, qui protège la confidentialité des données et des modèles.
Une solution Web3 associant ces deux ruptures technologiques, comme celle que propose iExec, est idéale pour transformer la manière dont l'IA est conçue et utilisée.
Lorsque les modèles d'IA sont transparents, chaque aspect de leur fonctionnement – des données utilisées pour l'entraînement aux algorithmes qui sous-tendent leurs décisions – est accessible et examinable par tous.
Avec une décentralisation des pouvoirs, les utilisateurs, les chercheurs et même le public peuvent avoir leur mot à dire sur la manière dont les données sont utilisées et les modèles sont construits, empêchant ainsi de laisser la décision aux mains d'un nombre restreint d'acteurs.
Enfin, un système distribué permet de renforcer la sécurité et l'immutabilité des données et des modèles. Au lieu d'avoir un seul point de vulnérabilité, un système distribué offre de multiples couches de protection, préservant les données et les modèles de modifications ou d'altérations frauduleuses.
Ce système à la fois robuste face aux tentatives de corruption, et assez distribué pour être accessible par tous, tout en ayant une logique compréhensible et transparente , est profondément aligné avec les intérêts de ses utilisateurs : donner les meilleurs résultats en toute connaissance des biais potentiels ainsi qu'assurer la confidentialité des échanges.
L'IA soutenue par le Web3 pourrait ainsi représenter une avancée majeure, ouvrant la voie à une intelligence artificielle à la fois transparente, éthique et alignée sur les intérêts de la société.