Home VÉHICULE ÉLECTRIQUE Devis Financement L’IA examine déjà les CV et les demandes d’appartement en location et détermine même les soins médicaux sans presque aucune surveillance.

L’IA examine déjà les CV et les demandes d’appartement en location et détermine même les soins médicaux sans presque aucune surveillance.

0
L’IA examine déjà les CV et les demandes d’appartement en location et détermine même les soins médicaux sans presque aucune surveillance.

[ad_1]

Alors que l’intelligence artificielle a fait la une des journaux avec ChatGPT, dans les coulisses, la technologie a discrètement envahi la vie quotidienne – examinant les CV, les demandes d’appartement en location et même déterminant les soins médicaux dans certains cas.

Bien qu’un certain nombre de systèmes d’IA se soient avérés discriminatoires, faisant pencher la balance en faveur de certaines races, sexes ou revenus, le gouvernement n’exerce qu’une surveillance limitée.

Les législateurs d’au moins sept États prennent d’importantes mesures législatives pour réglementer les préjugés dans l’intelligence artificielle, comblant ainsi un vide laissé par l’inaction du Congrès. Ces propositions constituent quelques-unes des premières étapes d’un débat qui dure depuis des décennies pour trouver un équilibre entre les avantages de cette nouvelle technologie nébuleuse et les risques largement documentés.

“L’IA affecte en fait tous les aspects de votre vie, que vous le sachiez ou non”, a déclaré Suresh Venkatasubramanian, professeur à l’Université Brown et co-auteur du plan de la Maison Blanche pour une déclaration des droits de l’IA.

« Maintenant, cela ne vous intéresserait pas s’ils fonctionnaient tous bien. Mais ce n’est pas le cas.

Le succès ou l’échec dépendra de la capacité des législateurs à résoudre des problèmes complexes tout en négociant avec une industrie valant des centaines de milliards de dollars et connaissant une croissance à une vitesse qui se mesure mieux en années-lumière.

L’année dernière, seulement une douzaine des quelque 200 projets de loi liés à l’IA présentés dans les États ont été adoptés, selon BSA The Software Alliance, qui défend les intérêts des éditeurs de logiciels.

Ces projets de loi, ainsi que les plus de 400 projets de loi liés à l’IA débattus cette année, visaient en grande partie à réglementer de plus petites tranches d’IA. Cela comprend près de 200 deepfakes ciblant, y compris des propositions visant à interdire les deepfakes pornographiques, comme ceux de Taylor Swift qui ont inondé les médias sociaux. D’autres tentent de maîtriser les chatbots, comme ChatGPT, pour s’assurer qu’ils ne donnent pas d’instructions pour fabriquer une bombe, par exemple.

Ceux-ci sont distincts des sept projets de loi d’État qui s’appliqueraient à tous les secteurs pour réglementer la discrimination liée à l’IA – l’un des problèmes les plus pervers et les plus complexes de la technologie – débattus de la Californie au Connecticut.

Ceux qui étudient le penchant de l’IA à discriminer affirment que les États sont déjà en retard dans l’établissement de garde-fous. L’utilisation de l’IA pour prendre des décisions conséquentes – ce que les projets de loi appellent des « outils de décision automatisés » – est omniprésente mais largement cachée.

On estime que jusqu’à 83 % des employeurs utilisent des algorithmes pour faciliter le recrutement ; cela représente 99 % pour les entreprises Fortune 500, selon la Commission pour l’égalité des chances en matière d’emploi.

Pourtant, la majorité des Américains ignorent que ces outils sont utilisés, comme le montre un sondage de Pew Research, et encore moins si les systèmes sont biaisés.

Une IA peut apprendre les préjugés grâce aux données sur lesquelles elle est formée, généralement des données historiques qui peuvent contenir un cheval de Troie de discrimination passée.

Amazon a sabordé son projet d’algorithme de recrutement après qu’il s’est avéré qu’il favorisait les candidats masculins il y a près de dix ans. L’IA a été formée pour évaluer les nouveaux CV en s’appuyant sur les CV antérieurs – en grande partie des candidats masculins. Même si l’algorithme ne connaissait pas le sexe des candidats, il a quand même dégradé les curriculum vitae avec le mot « femmes » ou la liste des universités réservées aux femmes, en partie parce qu’elles n’étaient pas représentées dans les données historiques dont il a tiré des enseignements.

“Si vous laissez l’IA apprendre des décisions que les managers en place ont historiquement prises, et si ces décisions ont historiquement favorisé certaines personnes et défavorisé d’autres, alors c’est ce que la technologie apprendra”, a déclaré Christine Webber, l’avocate dans le cadre d’un recours collectif. procès alléguant qu’un système d’IA notant les candidats à la location était discriminatoire à l’égard de ceux qui étaient noirs ou hispaniques.

Des documents judiciaires décrivent l’une des plaignantes du procès, Mary Louis, une femme noire, qui a demandé à louer un appartement dans le Massachusetts et a reçu une réponse énigmatique : « Le service tiers que nous utilisons pour filtrer tous les locataires potentiels a refusé votre location.

Lorsque Louis a soumis deux références de propriétaire prouvant qu’elle avait payé son loyer plus tôt ou à temps pendant 16 ans, selon les archives judiciaires, elle a reçu une autre réponse : « Malheureusement, nous n’acceptons pas les appels et ne pouvons pas annuler le résultat de la sélection des locataires. »

Ce manque de transparence et de responsabilité est, en partie, ce que ciblent les projets de loi, à l’instar de la proposition échouée de la Californie l’année dernière – la première tentative globale de réglementation des préjugés en matière d’IA dans le secteur privé.

En vertu des projets de loi, les entreprises utilisant ces outils de décision automatisés devraient effectuer des « évaluations d’impact », comprenant des descriptions de la manière dont l’IA figure dans une décision, les données collectées et une analyse des risques de discrimination, ainsi qu’une explication des mesures de protection de l’entreprise. Selon le projet de loi, ces évaluations seraient soumises à l’État ou les régulateurs pourraient les demander.

Certains projets de loi obligeraient également les entreprises à informer leurs clients qu’une IA sera utilisée pour prendre une décision et leur permettraient de se désinscrire, sous certaines réserves.

Craig Albright, vice-président senior des relations gouvernementales américaines chez BSA, le groupe de pression de l’industrie, a déclaré que ses membres étaient généralement favorables à certaines mesures proposées, telles que les évaluations d’impact.

« La technologie évolue plus vite que la loi, mais il y a en réalité des avantages à ce que la loi rattrape son retard. Parce qu’alors (les entreprises) comprendront quelles sont leurs responsabilités, les consommateurs pourront avoir une plus grande confiance dans la technologie », a déclaré Albright.

Mais les débuts de la législation ont été médiocres. Un projet de loi dans l’État de Washington a déjà échoué en commission, et une proposition californienne introduite en 2023, sur laquelle s’inspirent de nombreuses propositions actuelles, est également morte.

Rebecca Bauer-Kahan, membre de l’Assemblée de Californie, a réorganisé sa législation qui avait échoué l’année dernière avec le soutien de certaines entreprises technologiques, telles que Workday et Microsoft, après avoir abandonné l’obligation pour les entreprises de soumettre régulièrement leurs évaluations d’impact. Les autres États où des projets de loi sont ou devraient être présentés sont le Colorado, le Rhode Island, l’Illinois, le Connecticut, la Virginie et le Vermont.

Même si ces projets de loi constituent un pas dans la bonne direction, a déclaré Venkatasubramanian de l’Université Brown, les évaluations d’impact et leur capacité à détecter les biais restent vagues. Sans un meilleur accès aux rapports – que limitent de nombreux projets de loi – il est également difficile de savoir si une personne a été victime de discrimination par une IA.

Un moyen plus intensif, mais plus précis, d’identifier la discrimination serait d’exiger des audits de biais – des tests permettant de déterminer si une IA est discriminatoire ou non – et de rendre les résultats publics. C’est là que l’industrie s’oppose, arguant que cela exposerait des secrets commerciaux.

L’exigence de tester régulièrement un système d’IA ne figure pas dans la plupart des propositions législatives, qui ont presque toutes encore un long chemin à parcourir. Pourtant, c’est le début d’une lutte des législateurs et des électeurs avec ce qui devient et restera une technologie omniprésente.

«Cela couvre tout dans votre vie. C’est justement pour cette raison que vous devriez vous en soucier », a déclaré Venkatasubramanian.

L’IA examine déjà les CV et les demandes d’appartement en location et détermine même les soins médicaux sans presque aucune surveillance.

[ad_2]

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here