Les 10 derniers jours ont été un tourbillon de drames sans précédent chez OpenAI. Le conseil d’administration a licencié le PDG Sam Altman, remplacé par intérim par la CTO Mira Murati, et a vu la démission du président Greg Brockman. Presque tous les employés d’OpenAI ont menacé de démissionner, et Altman a été réintégré la veille de Thanksgiving.

Cependant, le week-end de vacances aux États-Unis n’a pas été une pause dans le battage médiatique et le drame de l’IA. Le jour de Thanksgiving, Reuters a rapporté que, avant l’exil temporaire d’Altman, plusieurs de ses chercheurs avaient écrit une lettre au conseil d’administration avertissant d’une « découverte en intelligence artificielle puissante qui, selon eux, pourrait menacer l’humanité ».

La lettre et l’algorithme d’IA étaient des développements clés avant le renvoi d’Altman, connu pour son travail dans l’IA générative. Les sources ont cité la lettre comme l’un des facteurs ayant mené au licenciement d’Altman, parmi lesquels figuraient des inquiétudes concernant la commercialisation des avancées avant de comprendre leurs conséquences.

La découverte en question, connue sous le nom de Q*, est considérée par certains chez OpenAI comme une percée dans la recherche de ce qu’on appelle l’intelligence artificielle générale (IAG). L’IAG fait référence à des systèmes autonomes qui surpassent les humains dans la plupart des tâches économiquement précieuses. Doté de vastes ressources informatiques, le nouveau modèle a été capable de résoudre certains problèmes mathématiques, amenant les chercheurs à être optimistes quant au succès futur de Q*.

Cependant, des préoccupations ont été soulevées quant aux risques potentiels associés à la découverte. Les chercheurs ont signalé la puissance et le danger potentiel de l’IA, sans préciser les préoccupations exactes de sécurité notées dans la lettre. Il y a longtemps que les informaticiens discutent du danger posé par des machines très intelligentes, par exemple si elles pourraient décider que la destruction de l’humanité était dans leur intérêt.

Les récents développements chez OpenAI soulignent la nécessité d’un développement responsable de l’IA et de garantir que les systèmes d’IA soient sûrs pour les humains. Il reste à voir ce qui se passera ensuite avec Q* et OpenAI, mais il est clair que la découverte a suscité des inquiétudes quant aux risques potentiels de l’IA.

Spéculation sur la menace de l’IA pour l’humanité

Récemment, un groupe de chercheurs de chez OpenAI a écrit une lettre au conseil d’administration, les avertissant d’une découverte en intelligence artificielle (IA) puissante qui pourrait représenter une menace pour l’humanité. La lettre et l’algorithme d’IA étaient des développements clés avant que le conseil ne renvoie le PDG d’OpenAI, Sam Altman, connu pour son travail dans l’IA générative. Les sources ont cité la lettre comme l’un des facteurs menant au licenciement d’Altman, parmi lesquels figuraient des inquiétudes concernant la commercialisation des avancées avant de comprendre leurs conséquences.

Le projet en question, connu sous le nom de Q*, est considéré par certains chez OpenAI comme une percée dans la recherche de ce qu’on appelle l’intelligence artificielle générale (IAG). L’IAG fait référence à des systèmes autonomes qui surpassent les humains dans la plupart des tâches économiquement précieuses. Doté de vastes ressources informatiques, le nouveau modèle a été capable de résoudre certains problèmes mathématiques, amenant les chercheurs à être optimistes quant au succès futur de Q*.

Cependant, des préoccupations ont été soulevées quant aux risques potentiels associés à la découverte. Plus de 700 employés ont menacé de démissionner et de rejoindre Microsoft en solidarité avec leur leader licencié. Les sources ont cité la lettre comme un facteur parmi une longue liste de griefs du conseil menant au licenciement d’Altman.

OpenAI a reconnu le projet appelé Q* et une lettre au conseil avant les événements du week-end, mais a refusé de commenter. Un porte-parole d’OpenAI a déclaré que le message, envoyé par la cadre de longue date Mira Murati, alertait le personnel sur certaines histoires médiatiques sans commenter leur exactitude.

Il reste à voir ce qui se passera ensuite avec Q* et OpenAI, mais il est clair que la découverte a soulevé des inquiétudes quant aux risques potentiels de l’IA et à la nécessité d’un développement responsable de la technologie.

Les chercheurs d’OpenAI envisagent les mathématiques comme une frontière pour le développement de l’IA générative. Actuellement, l’IA générative est douée pour des tâches telles que l’écriture et la traduction de langues en prédisant statistiquement le mot suivant. Cependant, conquérir la capacité de faire des mathématiques, où il n’y a qu’une seule bonne réponse, implique que l’IA aurait des capacités de raisonnement plus grandes ressemblant à l’intelligence humaine. Cela pourrait être appliqué à la recherche scientifique novatrice, en faisant un domaine prometteur pour les chercheurs en IA.

Dans une lettre au conseil, les chercheurs ont signalé le danger potentiel de l’IA et sa puissance, sans préciser les préoccupations exactes de sécurité notées dans la lettre. Il y a longtemps que les informaticiens discutent du danger posé par des machines très intelligentes, par exemple si elles pourraient décider que la destruction de l’humanité était dans leur intérêt.

Les chercheurs ont également signalé le travail d’une équipe de « scientifiques en IA », qui explorait comment optimiser les modèles d’IA existants pour améliorer leur raisonnement et éventuellement effectuer un travail scientifique. L’équipe a été formée en combinant les équipes « Code Gen » et « Math Gen » antérieures.

Sam Altman, le PDG d’OpenAI, a dirigé les efforts pour faire de ChatGPT l’une des applications logicielles à la croissance la plus rapide de l’histoire et a attiré les investissements – et les ressources informatiques – nécessaires de Microsoft pour se rapprocher de l’IAG. Cependant, la semaine dernière, le conseil a licencié Altman. Altman avait laissé entendre lors d’un sommet de leaders mondiaux à San Francisco qu’il croyait que des avancées majeures étaient en vue, mais les raisons de son licenciement sont encore inconnues.

En plus d’annoncer une multitude de nouveaux outils lors d’une démonstration ce mois-ci, Altman avait précédemment parlé des efforts d’OpenAI pour repousser les frontières de la découverte. Cependant, les développements récents chez OpenAI soulignent la nécessité d’un développement responsable de l’IA et de garantir que les systèmes d’IA soient sûrs pour les humains.

Qu’est-ce qui est vraiment derrière le cycle incessant du battage médiatique autour de l’IA ?

Il est difficile d’ignorer le cycle non-stop du battage médiatique autour de l’IA qui domine les actualités et les médias sociaux. Même pendant le week-end de Thanksgiving, les discussions sur Q* étaient en plein essor, soulevant des questions sur la raison pour laquelle le cycle du battage médiatique ne semble jamais prendre de pause. Bien qu’il soit compréhensible d’être excité par les avancées en IA, la couverture incessante peut être accablante, surtout à la lumière du récent drame chez OpenAI.

Jim Fan, scientifique senior en IA chez Nvidia, a qualifié l’algorithme Q* de « fantaisie », citant le manque de preuves à l’appui. Malgré cela, l’algorithme a quand même réussi à générer un buzz et des spéculations significatifs. Alors, pourquoi sommes-nous si obsédés par le battage médiatique de l’IA ? Est-ce juste à propos de l’excitation intellectuelle, de la concurrence médiatique et de l’arrogance humaine ? Ou est-ce quelque chose de plus profond, comme l’anxiété et l’incertitude quant à l’avenir ?

L’incapacité à prendre même une brève pause du cycle du battage médiatique de l’IA soulève des questions sur notre relation avec la technologie et notre capacité à naviguer ses risques potentiels. Alors que nous continuons à repousser les limites de ce qui est possible avec l’IA, il est crucial que nous restions vigilants et responsables dans notre développement et déploiement de ces outils puissants.

L’incertitude de l’IA contribue à l’anxiété

La peur de l’inconnu est une expérience humaine commune qui peut conduire à l’anxiété. Selon une étude menée par des chercheurs de l’Université du Wisconsin, l’incertitude quant aux menaces futures perturbe notre capacité à nous y préparer, menant à l’anxiété. Notre cerveau est câblé pour anticiper les événements futurs en fonction des expériences passées et des informations que nous avons actuellement. Cependant, l’incertitude quant aux événements futurs diminue notre capacité à nous préparer efficacement et contribue à l’anxiété. Même les meilleurs chercheurs et leaders en IA, tels que Geoffrey Hinton, Yann LeCun et Andrew Ng, ne savent pas ce que l’avenir de l’IA nous réserve. Ainsi, leurs prédictions et arguments font peu pour apaiser nos craintes sur ce qui est à venir.

S’ouvrir à l’inexploré

La peur de l’inconnu est une expérience humaine commune qui peut conduire à l’anxiété. Selon une étude menée par des chercheurs de l’Université du Wisconsin, l’incertitude quant aux menaces futures perturbe notre capacité à nous y préparer, menant à l’anxiété. Notre cerveau est câblé pour anticiper les événements futurs en fonction des expériences passées et des informations que nous avons actuellement. Cependant, l’incertitude quant aux événements futurs diminue notre capacité à nous préparer efficacement et contribue à l’anxiété. Même les meilleurs chercheurs et leaders en IA, tels que Geoffrey Hinton, Yann LeCun et Andrew Ng, ne savent pas ce que l’avenir de l’IA nous réserve. Ainsi, leurs prédictions et arguments font peu pour apaiser nos craintes sur ce qui est à venir.

L’article suggère que la collecte excessive d’informations, la recherche de réconfort, les pensées répétitives et les inquiétudes sur l’avenir de l’IA sont des expressions de l’anxiété. L’auteur soutient que nous devons nous ouvrir à l’incertitude de l’avenir de l’IA au lieu de chercher à trouver du réconfort. Bien qu’il soit important de débattre, de discuter, de planifier et de se préparer pour l’évolution de l’IA, l’auteur suggère que nous pouvons tous convenir de prendre une brève pause dans le battage médiatique de l’

Pin It on Pinterest

Share This