Home VÉHICULE ÉLECTRIQUE Devis Financement Le personnel d’OpenAI a mis en garde le conseil d’administration contre une percée de l’IA qui pourrait menacer l’humanité avant le licenciement de Sam Altman

Le personnel d’OpenAI a mis en garde le conseil d’administration contre une percée de l’IA qui pourrait menacer l’humanité avant le licenciement de Sam Altman

0
Le personnel d’OpenAI a mis en garde le conseil d’administration contre une percée de l’IA qui pourrait menacer l’humanité avant le licenciement de Sam Altman

[ad_1]

Une avancée potentielle dans le domaine de l’intelligence artificielle pourrait avoir contribué à l’éviction récente de Sam Altman du poste de PDG d’OpenAI.

Selon un rapport de Reuters citant deux sources proches du dossier, plusieurs chercheurs du personnel ont écrit une lettre au conseil d’administration de l’organisation pour l’avertir d’une découverte qui pourrait potentiellement menacer la race humaine.

Les deux individus anonymes affirment que cette lettre, qui informait les administrateurs qu’un projet secret nommé Q* avait permis à l’IA de résoudre les mathématiques au niveau scolaire, a ravivé les tensions quant à savoir si Altman avançait trop vite dans sa tentative de commercialiser la technologie.

Juste un jour avant son limogeage, Altman a peut-être fait référence à Q* (prononcé Q-star) lors d’un sommet des dirigeants mondiaux à San Francisco lorsqu’il a parlé de ce qu’il croyait être une avancée récente.

“Quatre fois maintenant dans l’histoire d’OpenAI – la dernière fois au cours des deux dernières semaines – j’ai eu l’occasion d’être dans la salle, lorsque nous repoussons en quelque sorte le voile de l’ignorance et la frontière de la découverte en avant, “, a déclaré Altman lors d’une discussion lors de la Coopération économique Asie-Pacifique.

Il a depuis été réintégré au poste de PDG, dans un renversement spectaculaire des événements après que le personnel a menacé de se mutiner contre le conseil d’administration.

Selon l’une des sources, après avoir été contactée par Reuters, Mira Murati, directrice de la technologie d’OpenAI, a reconnu dans une note interne aux employés l’existence du projet Q* ainsi que dans une lettre envoyée par le conseil d’administration.

OpenAI n’a pas pu être atteint immédiatement par Fortune pour une déclaration, mais il a refusé de fournir un commentaire à Reuters.

Formé pour identifier des modèles et déduire des résultats

Alors pourquoi tout cela est-il spécial, et encore moins alarmant ?

Les machines résolvent des problèmes mathématiques depuis des décennies, depuis la calculatrice de poche.

La différence est que les appareils conventionnels ont été conçus pour arriver à une réponse unique en utilisant une série de commandes déterministes que tous les ordinateurs personnels utilisent, où les valeurs ne peuvent être que vraies ou fausses, 0 ou 1.

Dans ce système binaire rigide, il n’est pas possible de s’écarter de leur programmation pour penser de manière créative.

En comparaison, les réseaux neuronaux ne sont pas codés en dur pour exécuter certaines commandes d’une manière spécifique. Au lieu de cela, ils sont entraînés comme le serait un cerveau humain avec des ensembles massifs de données interdépendantes, ce qui leur donne la capacité d’identifier des modèles et d’en déduire des résultats.

Pensez à la fonction utile de saisie semi-automatique de Google qui vise à prédire ce qu’un internaute recherche à l’aide de probabilités statistiques : il s’agit d’une forme très rudimentaire d’IA générative.

C’est pourquoi Meredith Whittaker, une experte de premier plan dans le domaine, décrit les réseaux neuronaux comme ChatGPT comme « des moteurs probabilistes conçus pour cracher ce qui semble plausible ».

Si l’IA générative s’avère capable de trouver par elle-même la bonne solution à des problèmes mathématiques, cela suggère une capacité de raisonnement plus élevé.

Cela pourrait potentiellement être la première étape vers le développement de l’intelligence artificielle générale, une forme d’IA capable de surpasser les humains.

La crainte est qu’une AGI ait besoin de garde-fous, car elle pourrait un jour considérer l’humanité comme une menace pour son existence.

Abonnez-vous à la newsletter Eye on AI pour rester informé de la manière dont l’IA façonne l’avenir des entreprises. Inscription gratuite.

[ad_2]

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here