L’IA responsable, utopie ou réalité ? 

Alicia D'huvé

|

Au sein de la communauté Social Declik qui rassemble des freelances engagé·es les discussions autour de l’intelligence artificielle reviennent régulièrement ? 

Quel est l’impact environnemental de l’IA ? 

Une IA éthique est-elle envisageable ? 

Comment faire de l’IA un allié dans son métier et non une concurrente ? 

On avait besoin et envie d’un éclairage sur cette vaste question. Bonne nouvelle, dans le collectif, deux freelances s’intéressent à ces questions depuis des années et nous ont proposé de nous apporter quelques éléments théoriques, leur point de vue, puis d’en débattre. 

Tu peux retrouver ici une synthèse de cette masterclass qui animé la communauté pendant 90 minutes. 

Pour info, cet article n’a pas été rédigé par un Bot !

IA responsable

Un mot sur les intervenants

Amaury de Foresta est entrepreneur & Coach, expert en stratégies d’impact et sur les questions éthiques des nouvelles technologies. Installé au à Montréal au Canada depuis plusieurs années, il a rejoint la communauté il y a un an environ.  Au quotidien, il aide les entreprises à intégrer l’impact dans leurs stratégies d’affaires, en particulier l’IA responsable. Il fait également du coaching et accompagne des jeunes startups à impact dans leur développement. Il a obtenu une certification auprès de l’Institut de l’Intelligence Artificielle de Montréal.

Jean – Sebastien Klein possède un parcours diversifié dans le domaine de la tech. Ayant débuté en tant que développeur pendant plusieurs années, il a ensuite travaillé en agence digitale avant de devenir indépendant. Dès 1995, lorsqu’il a découvert internet pour la première fois, il s’est émerveillé devant le potentiel de partager toute la connaissance du monde. Aujourd’hui, Jean Sebastien accompagne les entreprises de manière transversale dans leur stratégie digitale, en y intégrant une vision responsable. En outre, il est membre de l’association les E-novateurs, qu’il soutient activement dans leur développement.

État de l’art de l’IA en 2024

Actuellement, l’IA est partout et impacte tous les secteurs : médical, militaire, communication, pharmacie… On a des applications qui sont omniprésentes.

Mais c’est important de faire la différence entre l’IA générale et l’IA générative.

L’intelligence artificielle de manière générale, c’est le principe d’avoir des données en entrée et d’appliquer des algorithmes d’intelligence artificielle pour obtenir des résultats en sortie. Cela se base sur le machine learning.

L’IA générative, c’est un ensemble de techniques de machine learning qui prend du contenu en entrée et en génère en sortie. C’est quelque chose qui peut avoir une portée importante lorsqu’on l’utilise. Ce n’est pas nouveau, car en 1964, on voit apparaître les prémisses de l’IA avec le projet Eliza. Il y a eu pas mal de travaux au 20e siècle basés sur des problématiques, mais nous n’avions pas les infrastructures nécessaires pour les faire aboutir.

Courant 2010, les choses sérieuses ont démarré, notamment avec des entreprises comme Google. En 2023, il y a eu une explosion lorsque OpenAI a ouvert ChatGPT au grand public.

Il y a trois raisons à cette explosion :

  • 1. Le volume de données nécessaire pour les entraîner
  • 2. La puissance de calcul disponible
  • 3. La mise à disposition de l’IA au grand public

Tout s’accélère depuis deux ans. Chaque semaine, on a des annonces phénoménales. De nouveaux modèles évoluent et cela a un impact pour les entreprises et les particuliers, impact que nous n’avions pas ressenti jusqu’ici. La transformation digitale avec l’arrivée d’internet a mis une trentaine d’années à se mettre en place, et l’arrivée des IA, à mon avis, prendra entre trois et cinq ans. Cela force tout le monde à s’habituer très rapidement.

Pourquoi gérer l’arrivée des IA est crucial pour l’entreprise ?

C’est une rupture dans le rythme de l’entreprise. On leur dit que tout va changer très vite, notamment pour leurs collaborateurs. Des services dans l’entreprise peuvent décider d’intégrer des IA génératives sans faire appel aux services IT. Cela présente des risques et des problèmes d’accompagnement des équipes, de sécurité des informations, et de messages qui peuvent être mal interprétés si un chatbot n’est pas correctement paramétré.

Il y a un vrai enjeu technologique, social et business. Cela touche toutes les strates de l’entreprise.

« AI won’t take your job. It is somebody using AI that will take your job » Richard Baldwin.

L’IA est un outil, ce n’est pas conscient, il ne va pas voler votre job, cela reste un outil qu’on peut prendre en main. Le défi n’est pas technologique, car cela reste un outil. C’est un défi humain. C’est un outil phénoménal qui peut faire des choses extraordinaires mais qui peut aussi être utilisé de manière malveillante. La vraie question, c’est en tant qu’humain, qu’est-ce qu’on va faire de cette technologie ?

Impact de l’IA sur les freelances

Nous sommes les premiers impactés car nous produisons du contenu et de la réflexion, et l’IA a pour but de produire du contenu. Nous passons beaucoup de temps sur des tâches à faible valeur ajoutée, et finalement, nous passons moins de temps sur la réflexion.

L’IA va entraîner un déplacement de valeur, permettant de consacrer plus de temps à des tâches de réflexion . Le but est de redéfinir où se trouve notre valeur pour nos clients.

IA et responsabilité

Qu’est-ce que l’IA responsable ? C’est l’éthique de la personne, être capable de suivre l’éthique que nous aurons définie.

Les risques de l’IA

Voici ses impacts potentiellement négatifs : compétences professionnelles, inégalité et division du marché du travail, automatisation et perte d’emplois, atteinte aux droits humains, influence des opinions, conflit, manipulation, cyberattaques…

Aujourd’hui, l’IA est faible. Lorsqu’on parle d’IA forte, on parle d’IA autonome tels qu’une machine capable de réfléchir par elle-même. 

Demain, l’IA autonome pourrait se comporter d’une manière nuisible aux humains. On ne sait pas comment ni à quel point nous avons le contrôle.

Quand intervient la responsabilité en IA ?

L’essor de l’intelligence artificielle soulève des questions cruciales sur la responsabilité. Cette responsabilité se manifeste à différents niveaux, chacun impliquant des acteurs et des actions spécifiques. Que ce soit au niveau individuel, technique, social ou sociétal, l’usage et la conception de l’IA doivent être encadrés par des principes et des régulations appropriées pour garantir que l’IA soit bénéfique pour tous. Dans cette partie, nous explorons comment ces responsabilités se déclinent et quels sont les enjeux à chaque niveau.

Individuelle : Responsabilité & usage de l’IA. Les premières bonnes pratiques sont de valider les informations, nommer les sources et développer une pensée critique.

Technique : Responsabilité & conception de l’IA. Le machine learning est basé sur ce que lui apprend l’humain.  Il existe trois types de biais : humains, statistiques et cognitifs

Social :Responsabilité & stratégie d’entreprise  

Sociétale :Responsabilité & régulation : Classification du risque de l’IA par l’European AI Act, selon quatre niveaux : risque inacceptable, élevé, limité, minimal ou nul.

IA, nature et Econome Sociale et Solidaire

IA et environnement

En 2024, le numérique représente 4% des émissions de GES dans le monde et 2,5% de l’empreinte carbone nationale. Ce chiffre pourrait atteindre 8% d’ici la fin de 2025.

La consommation énergétique de l’IA (GPU) est quatre fois supérieure à celle du numérique classique, équivalant à l’utilisation énergétique d’un pays comme l’Irlande, et est 300 000 fois plus élevée qu’en 2019.

Prenons l’exemple de ChatGPT : une conversation classique avec ChatGPT équivaut à la consommation d’une bouteille d’eau (500 ml).

Algorithmes Responsables 

Il existe des IA moins énergivores, comme BLOOM (modèle LLM). Cette IA offre une transparence en fournissant un moyen de calculer les émissions de CO2 associées à son utilisation.

BLOOM utilise des énergies plus vertes grâce à un centre de données principalement alimenté par le nucléaire (France) et l’hydroélectricité (Québec), réduisant les émissions de CO2 de 95% par rapport à des modèles équivalents. L’entraînement de ChatGPT-3, par exemple, correspond à 30 fois l’empreinte de BLOOM, soit 300 vols aller-retour entre Paris et New York.

Conception IA responsable

Il existe aujourd’hui des conceptions permettant de réduire les émissions de CO2 en adoptant une éco-conception. L’idée est de réduire l’empreinte écologique des algorithmes potentiellement par 2 à 5 en définissant des mesures précises de l’empreinte carbone.

IA & Economie Sociale et

L’ESS est souvent plus réfractaire à adopter l’intelligence artificielle en raison du manque de ressources et de temps, ce qui augmente le risque de décrochage.

Piste d’usage

En France, des initiatives comme la SOGA (Social Good Accelerator) aident l’ESS à s’équiper numériquement pour éviter le décrochage. 

Mieux connaître les besoins et améliorer la relation avec les bénéficiaires.

L’IA permet de cibler, de comprendre et d’améliorer des outils pour mieux saisir le comportement de ses utilisateurs potentiels et clients potentiels afin de mieux les adresser.

Mieux cibler les campagnes de dons 

Comprendre son public cible permet de s’adresser directement à ceux qui sont sensibles à la cause. Toutefois, il existe une inégalité car l’ESS dispose de moins de moyens pour obtenir des données de qualité.

Pour conclure, utilisez l’IA et pensez responsable

Oui, l’IA apporte des avancées formidables. Cependant, utilisez-la en ayant conscience de ses impacts et en pensant de manière responsable.Comme pour n’importe quel outil numérique consommant énormément d’énergie, la question de l’usage est primordiale : dans quel cadre et pourquoi l’utiliser ? Est-ce réellement nécessaire ? Il est important de faire passer ce message pour que tout le monde soit au courant, d’être vigilant sur l’impact social que cela peut avoir, et d’accompagner pour éviter que cette fracture ne se creuse.

interview sur L’IA responsable

Ça peut aussi t'intéresser

Freelance For Good

Épisode 5 – Allô maman, je ne vais pas pouvoir sauver le monde !?

Dans cet épisode, on te parle des 17 ODD et on t’explique comment, en tant que freelance, tu peux agir et apporter ta pierre à l’édifice.

Freelance For Good

Episode 4 – Le premier pas pour trouver des missions à impact

Retranscription du quatrième épisode de la première saison de notre podcast Freelance For Good : Faire le premier pas pour trouver des missions à impact et dépasser ses croyances limitantes

Freelance For Good

Pourquoi et comment investir de manière responsable ?

Money For good ou comment investir de façon responsable et faire de notre argent un levier de la transition écologique et sociale ?

Laisser un commentaire