Elon Musk lance une entreprise d’IA d’un milliard de dollars pour “profiter à l’humanité” et éviter les guerres de robots

Elon Musk, le patron de Tesla et SpaceX, a déjà beaucoup de pain sur la planche, mais cela n’a pas empêché l’ambitieux entrepreneur technologique de lancer une nouvelle entreprise : OpenAI, une société de recherche à but non lucratif qui se consacre à l’avancement de la science et de l’éthique de l’intelligence artificielle (IA).

“Notre objectif est de faire progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité dans son ensemble, sans être limité par la nécessité de générer un rendement financier”, a écrit l’équipe d’OpenAI dans un message annonçant l’initiative d’un milliard de dollars américains. “Puisque notre recherche est libre de toute obligation financière, nous pouvons mieux nous concentrer sur un impact humain positif. Nous pensons que l’IA devrait être une extension des volontés humaines individuelles et, dans l’esprit de la liberté, être distribuée aussi largement et équitablement que possible.”

La société, pour laquelle Musk agira en tant que coprésident, est soutenue par d’autres dirigeants éminents de la Silicon Valley, tels que Peter Thiel, cofondateur de PayPal, et Reed Hastings, de Netflix. L’objectif d’OpenAI est de contribuer à façonner le potentiel futur de l’IA – un spectre de possibilités technologiques qui pourrait offrir des avantages presque inimaginables à la société, mais qui pourrait aussi poser des dangers inégalés.

“Les systèmes d’IA d’aujourd’hui ont des capacités impressionnantes mais étroites”, affirment les fondateurs. “Il semble que nous continuerons à rogner sur leurs contraintes, et dans le cas extrême, ils atteindront les performances humaines dans pratiquement toutes les tâches intellectuelles. Il est difficile d’imaginer à quel point l’IA de niveau humain pourrait être bénéfique pour la société, et il est tout aussi difficile d’imaginer à quel point elle pourrait nuire à la société si elle est construite ou utilisée de manière incorrecte.”

Les risques d’une IA incontrôlée sont un sujet de préoccupation permanent pour Musk. Plus tôt dans l’année, il a ajouté son nom à une coalition de Stephen Hawking, Steve Wozniak et Noam Chomsky – appelant à l’interdiction des armes autonomes qui peuvent tirer sur des cibles sans intervention humaine en raison des capacités des systèmes d’IA. de plus de 20 000 chercheurs et experts – dont

” La technologie [de l’IA] a atteint un point où le déploiement de tels systèmes est – pratiquement sinon légalement – réalisable en quelques années, et non en quelques décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans la guerre, après la poudre à canon et les armes nucléaires “, écrivent les signataires dans une lettre ouverte.

“La question clé pour l’humanité aujourd’hui est de savoir s’il faut lancer une course mondiale aux armes d’IA ou l’empêcher de démarrer. Si une grande puissance militaire pousse le développement d’armes d’IA, une course aux armements mondiale est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les Kalachnikovs de demain.”

OpenAI ne s’intéresse pas seulement aux dangers des robots tueurs, cependant. Comme son nom l’indique, la société est conçue pour orienter la recherche ouverte dans tous les domaines d’étude de l’IA, encourageant ses chercheurs à publier leurs travaux sous forme d’articles, de billets de blog ou de code, et s’engageant à partager tout brevet futur avec le reste du monde tout en collaborant librement avec d’autres institutions intéressées.

“Nous avons discuté de ce que nous pouvons faire de mieux pour que l’avenir soit bon” A déclaré Musk à John Markoff du New York Times. “Nous pourrions rester sur la touche ou encourager la surveillance réglementaire, ou encore participer avec la bonne structure avec des personnes qui se soucient profondément de développer l’IA d’une manière sûre et bénéfique pour l’humanité.”