[ad_1]
Sam Altman n’est plus PDG d’OpenAI après un « coup d’État » vendredi qui a ébranlé l’industrie technologique. Certains comparent son éviction au licenciement de Steve Jobs chez Apple, signe de l’importance du remaniement dans un contexte de boom de l’IA qui a rajeuni la Silicon Valley.
Altman, bien sûr, a beaucoup à voir avec ce boom, provoqué par la publication de ChatGPT par OpenAI au public à la fin de l’année dernière. Depuis, il a parcouru le monde pour discuter avec les dirigeants mondiaux des promesses et des dangers de l’intelligence artificielle. En effet, pour beaucoup, il est devenu le visage de l’IA.
La direction exacte des choses reste incertaine. Dans les derniers rebondissements, certains rapports suggèrent qu’Altman pourrait revenir à OpenAI et d’autres suggèrent qu’il envisage déjà une nouvelle startup.
Quoi qu’il en soit, son éviction semble capitale et, compte tenu de cela, sa dernière apparition en tant que PDG d’OpenAI mérite qu’on s’y arrête. Cela s’est produit jeudi lors du sommet des PDG de l’APEC à San Francisco. La ville assiégée, où est basée OpenAI, a accueilli cette semaine le sommet de la Coopération économique Asie-Pacifique, après avoir d’abord vidé les campements embarrassants de sans-abri (même si elle a encore été embarrassée lorsque des voleurs ont volé le matériel d’une équipe de presse tchèque).
Altman a répondu sur scène aux questions de, quelque peu ironiquement, la modératrice Laurene Powell Jobs, la veuve milliardaire du défunt cofondateur d’Apple. Elle a demandé à Altman comment les décideurs politiques pouvaient trouver le bon équilibre entre la réglementation des sociétés d’IA tout en étant ouverts à l’évolution à mesure que la technologie elle-même évolue.
Altman a commencé par noter qu’il avait dîné cet été avec l’historien et auteur Yuval Noah Harari, qui a émis de sévères avertissements sur les dangers de l’intelligence artificielle pour les démocraties, suggérant même que les dirigeants du secteur technologique devraient risquer 20 ans de prison pour avoir laissé passer sournoisement des robots IA. comme les humains.
Le Sapiens L’auteur, a déclaré Altman, « était très inquiet et je le comprends. Je comprends vraiment pourquoi si vous n’avez pas suivi de près le terrain, vous avez l’impression que les choses sont devenues verticales… Je pense qu’une grande partie du monde a collectivement traversé une embardée cette année pour rattraper son retard.
Il a noté que les gens peuvent désormais parler à ChatGPT, affirmant que c’est « comme le Star Trek ordinateur, on m’a toujours promis. La première fois que les gens utilisent de tels produits, dit-il, « cela ressemble beaucoup plus à une créature qu’à un outil », mais ils finissent par s’y habituer et en voient les limites (comme l’ont fait certains avocats embarrassés).
Il a déclaré que même si l’IA a le potentiel de faire des choses merveilleuses, comme guérir des maladies, d’une part, d’autre part, « Comment pouvons-nous nous assurer qu’il s’agit d’un outil doté de garanties appropriées à mesure qu’il devient vraiment puissant ? »
Les outils d’IA d’aujourd’hui, a-t-il déclaré, ne sont « pas si puissants », mais « les gens sont intelligents et voient où cela nous mène. Et même si nous ne pouvons pas vraiment comprendre les exponentielles en tant qu’espèce, nous pouvons dire quand quelque chose va continuer, et cela va continuer.
Les questions, a-t-il déclaré, sont de savoir quelles limites seront imposées à la technologie, qui en décidera et comment elles seront appliquées au niveau international.
Répondre à ces questions « a représenté une grande partie de mon temps au cours de l’année dernière », a-t-il noté, ajoutant : « Je pense vraiment que le monde va se montrer à la hauteur et que tout le monde veut faire ce qu’il faut ».
Selon lui, la technologie actuelle n’a pas besoin d’une réglementation lourde. « Mais à un moment donné – quand le modèle pourra produire l’équivalent de la production d’une entreprise entière, puis d’un pays entier, puis du monde entier – peut-être voudrons-nous une supervision collective mondiale de cela et une prise de décision collective. »
Pour l’instant, dit Altman, il est difficile de « faire passer ce message » et de ne pas suggérer aux décideurs politiques d’ignorer les préjudices actuels. Il ne veut pas non plus suggérer que les régulateurs devraient s’en prendre aux startups de l’IA ou aux modèles open source, ou bénir les leaders de l’IA comme OpenAI avec une « capture réglementaire ».
« Nous disons, vous savez : « Faites-nous confiance, cela va devenir vraiment puissant et vraiment effrayant. Il faudra le réguler plus tard » – une aiguille très difficile à enfiler dans tout cela.
[ad_2]
Source link