Table des matières
OpenAI, leader de l’intelligence artificielle, franchit une étape décisive en orientant ses travaux vers la « superintelligence ». Une ambition qui pourrait transformer non seulement l’innovation scientifique, mais aussi l’économie mondiale. Décryptage des enjeux et des défis de cette nouvelle ère technologique.
Sam Altman, PDG d’OpenAI, a récemment annoncé que l’entreprise avait les capacités nécessaires pour développer une intelligence artificielle générale (AGI), comme elle la définit. Désormais, OpenAI ambitionne de se concentrer sur la « superintelligence », un niveau d’IA encore plus avancé.
Dans un article publié sur son blog, Altman a souligné les opportunités uniques offertes par les outils superintelligents. Il estime qu’ils pourraient accélérer de manière spectaculaire la découverte scientifique et augmenter la prospérité mondiale. Selon lui, cette avancée pourrait survenir dans « quelques milliers de jours ».
Il convient de rappeler que l’AGI, selon OpenAI, correspond à des systèmes autonomes capables de surpasser les humains dans la plupart des tâches à valeur économique. En revanche, Microsoft, un partenaire clé d’OpenAI, associe l’AGI à une capacité de générer plus de 100 milliards de dollars de profits.
Altman a évoqué des usages concrets de l’AGI et des systèmes superintelligents. Par exemple, des agents intelligents pourraient rejoindre le marché du travail, en modifiant radicalement la productivité des entreprises. Ces outils permettraient également de concevoir des solutions à des problèmes complexes et de mieux répartir les bénéfices de l’innovation.
Cependant, Altman reconnaît également les limites actuelles de la technologie. L’intelligence artificielle actuelle est sujette à des erreurs et peut être coûteuse. Malgré ces obstacles, il se montre optimiste quant aux progrès rapides qui pourraient survenir dans les années à venir.
OpenAI reconnaît que la transition vers un monde intégrant la superintelligence n’est pas garantie d’être sans risques. Dans un billet de juillet 2023, l’entreprise a déclaré qu’elle n’avait pas encore de solution pour contrôler une IA superintelligente et éviter qu’elle ne devienne incontrôlable.
La supervision humaine des systèmes beaucoup plus intelligents pose également un problème majeur. Les techniques d’alignement actuelles, qui visent à garantir que l’IA agit conformément aux intentions humaines, risquent de ne pas être suffisantes à long terme.
Malgré ces préoccupations, OpenAI a pris des décisions controversées, notamment en dissolvant des équipes dédiées à la sécurité des systèmes superintelligents. Plusieurs chercheurs influents ont quitté l’entreprise, invoquant la priorité croissante donnée aux ambitions commerciales au détriment des recherches sur la sécurité.
En réponse aux critiques sur le manque d’attention portée à la sécurité, Altman a défendu les actions passées d’OpenAI, affirmant que l’entreprise avait toujours mis un point d’honneur à équilibrer innovation et responsabilité.
Pour OpenAI, l’avenir passe par une mise en œuvre prudente mais audacieuse de la superintelligence. L’entreprise reste consciente des défis éthiques et techniques qui accompagnent cette ambition. Selon Altman, le rôle unique qu’OpenAI joue dans ce domaine est à la fois une opportunité et une responsabilité majeure.
La course à la superintelligence marque une nouvelle étape dans l’évolution de l’intelligence artificielle. Si les promesses sont immenses, les défis à relever le sont tout autant. OpenAI devra conjuguer innovation technologique et gestion rigoureuse des risques pour que cette vision devienne réalité.