Tuesday, March 5, 2024
Google search engine
HomeVÉHICULE ÉLECTRIQUEDevis FinancementLes gestionnaires de fonds ESG s’inquiètent d’un retour de bâton si l’IA...

Les gestionnaires de fonds ESG s’inquiètent d’un retour de bâton si l’IA devient malveillante



Les gestionnaires de fonds ESG qui se sont tournés vers les grandes technologies comme pari à faible émission de carbone et à rendement élevé sont de plus en plus inquiets face à l’expérimentation de l’intelligence artificielle dans le secteur.

L’exposition à l’IA représente désormais un « risque à court terme pour les investisseurs », a déclaré Marcel Stotzel, gestionnaire de portefeuille basé à Londres chez Fidelity International.

Stotzel a déclaré qu’il « craignait d’avoir un retour de bâton sur l’IA », qu’il décrit comme une situation dans laquelle quelque chose d’inattendu déclenche une baisse significative du marché. “Il suffit d’un seul incident pour que quelque chose se passe mal et l’impact matériel pourrait être important”, a-t-il déclaré.

Les exemples qui, selon Stotzel, méritent d’être préoccupés sont les avions de combat dotés de systèmes d’IA à auto-apprentissage. Fidelity fait désormais partie des gestionnaires de fonds qui discutent avec les sociétés développant de telles technologies pour discuter de fonctionnalités de sécurité telles qu’un « coupe-circuit » qui peut être activé si le monde se réveille un jour face à « des systèmes d’IA qui deviennent voyous de manière dramatique », a-t-il déclaré.

Le secteur de l’investissement ESG pourrait être plus exposé à de tels risques que la plupart, après s’être largement tourné vers la technologie. Les fonds enregistrés comme ayant un objectif purement environnemental, social et de bonne gouvernance détiennent plus d’actifs technologiques que tout autre secteur, selon Bloomberg Intelligence. Et le plus grand fonds négocié en bourse ESG au monde est dominé par la technologie, dirigé par Apple Inc., Microsoft Corp., Amazon.com Inc. et Nvidia Corp.

Ces entreprises sont désormais à l’avant-garde du développement de l’IA. Les tensions sur la direction que devrait prendre l’industrie – et la vitesse à laquelle elle devrait évoluer – ont récemment éclaté au grand jour du public. Ce mois-ci, OpenAI, la société qui a bouleversé le monde il y a un an avec le lancement de ChatGPT, a licencié puis rapidement réembauché son PDG, Sam Altman, déclenchant une frénésie de spéculation.

Des désaccords internes ont manifestement éclaté sur l’ambition de l’OpenAI, à la lumière des risques sociétaux potentiels. La réintégration d’Altman place l’entreprise sur la bonne voie pour poursuivre ses plans de croissance, notamment une commercialisation plus rapide de l’IA.

Apple a déclaré qu’il prévoyait d’agir avec prudence dans le domaine de l’IA, le PDG Tim Cook ayant déclaré en mai qu’il y avait « un certain nombre de problèmes qui doivent être résolus » avec cette technologie. Et des entreprises, dont Microsoft, Amazon, Alphabet Inc. et Meta Platforms Inc., ont convenu de mettre en place des mesures de protection volontaires pour minimiser les abus et les préjugés au sein de l’IA.

Stotzel a déclaré qu’il était moins préoccupé par les risques liés aux startups d’IA à petite échelle que par ceux qui se cachent chez les géants mondiaux de la technologie. “Les plus grandes entreprises pourraient faire le plus de dégâts”, a-t-il déclaré.

D’autres investisseurs partagent ces préoccupations. Le système de retraite des employés de la ville de New York, l’un des plus grands régimes de retraite publics américains, a déclaré qu’il « surveillait activement » la manière dont les sociétés en portefeuille utilisent l’IA, selon une porte-parole du plan de 248 milliards de dollars. Generation Investment Management, la société cofondée par l’ancien vice-président américain Al Gore, a déclaré à ses clients qu’elle intensifiait la recherche sur l’IA générative et qu’elle discutait quotidiennement avec les entreprises dans lesquelles elle investit des risques – ainsi que des opportunités – que représente la technologie.

Et le fonds souverain norvégien de 1 400 milliards de dollars a demandé aux conseils d’administration et aux entreprises de prendre au sérieux les risques « graves et inexplorés » posés par l’IA.

Lorsque ChatGPT d’OpenAI a été lancé en novembre dernier, elle est rapidement devenue l’application Internet connaissant la croissance la plus rapide de l’histoire, atteignant 13 millions d’utilisateurs quotidiens en janvier, selon les estimations fournies par les analystes d’UBS Group AG. Dans ce contexte, les géants de la technologie développant ou soutenant une technologie similaire ont vu le cours de leurs actions monter en flèche cette année.

Mais l’absence de réglementation ou de données historiques significatives sur les performances possibles des actifs d’IA au fil du temps est préoccupante, selon Crystal Geng, analyste ESG chez BNP Paribas Asset Management à Hong Kong.

« Nous n’avons ni outils ni méthodologie pour quantifier le risque », a-t-elle déclaré. L’une des façons dont BNP tente d’estimer les retombées sociales potentielles de l’IA consiste à demander aux sociétés en portefeuille combien d’emplois pourraient survenir en raison de l’émergence de technologies comme ChatGPT. “Je n’ai vu aucune entreprise qui puisse me donner un numéro utile”, a déclaré Geng.

Jonas Kron, directeur du plaidoyer chez Trillium Asset Management, basé à Boston, qui a contribué à pousser Apple et Facebook de Meta à inclure la confidentialité dans les chartes de leur conseil d’administration, a pressé les entreprises technologiques de mieux expliquer leur travail en matière d’IA. Plus tôt cette année, Trillium a déposé une résolution d’actionnaires auprès de la société mère de Google, Alphabet, lui demandant de fournir plus de détails sur ses algorithmes d’IA.

Kron a déclaré que l’IA représente un risque de gouvernance pour les investisseurs et a noté que même les initiés, y compris Altman d’OpenAI, ont exhorté les législateurs à imposer des réglementations.

L’inquiétude est que, si elle n’est pas entravée, l’IA peut renforcer la discrimination dans des domaines tels que les soins de santé. Et outre le potentiel de l’IA à amplifier les préjugés raciaux et sexistes, des inquiétudes subsistent quant à sa propension à permettre une utilisation abusive des données personnelles.

Parallèlement, le nombre d’incidents et de controverses liés à l’IA a été multiplié par 26 depuis 2012, selon une base de données qui retrace les abus de cette technologie.

Les investisseurs de Microsoft, Apple et Google d’Alphabet ont déposé des résolutions exigeant une plus grande transparence sur les algorithmes d’IA. Le fonds indiciel AFL-CIO, qui supervise 12 milliards de dollars de retraites syndicales, a demandé à des entreprises, dont Netflix Inc. et Walt Disney Co., d’indiquer si elles avaient adopté des lignes directrices pour protéger les travailleurs, les clients et le public des méfaits de l’IA.

Les sujets de préoccupation incluent la discrimination ou les préjugés à l’encontre des employés, la désinformation lors des élections politiques et les licenciements massifs résultant de l’automatisation, a déclaré Carin Zelenko, directrice des stratégies de capital à l’AFL-CIO à Washington. Elle a ajouté que les inquiétudes des acteurs et des écrivains d’Hollywood concernant l’IA ont joué un rôle dans leurs grèves très médiatisées de cette année.

“Cela a simplement fait prendre conscience de l’importance de ce problème dans probablement toutes les entreprises”, a-t-elle déclaré.

Abonnez-vous à la newsletter Eye on AI pour rester informé de la manière dont l’IA façonne l’avenir des entreprises. Inscription gratuite.



Source link

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments