Accueil🇫🇷Chercher

OpenAI

OpenAI (« AI » pour artificial intelligence, ou intelligence artificielle) est une entreprise spécialisée dans le raisonnement artificiel, à « but lucratif plafonné », dont le siège social est à San Francisco. Avant , elle est reconnue association à but non lucratif. L'objectif de cette société est de promouvoir et de développer un raisonnement artificiel à visage humain qui profitera à toute l'humanité[1]. Grâce à un fonds initial de 100 millions de dollars, OpenAI cherche à s'associer à quelques startups utilisant le raisonnement artificiel pour avoir un effet transformateur, par exemple dans les domaines des soins de santé, du changement climatique et de l'éducation et « où les outils d'IA peuvent autonomiser les gens en les aidant à être plus productifs »[2].

OpenAI
Logo d'OpenAI.
Histoire
Fondation
Organisation
Effectif
375 employés ()
Fondateurs
Elon Musk, Sam Altman, Ilya Sutskever, Greg Brockman (d), Wojciech Zaremba (en), Andrej Karpathy (en)
Site web

En 2023, la société OpenAI est valorisée à 29 milliards de dollars américains[3].

Historique

OpenAI est fondée en tant qu'association à but non lucratif le [1] - [4] - [5] - [6]. Les deux présidents en sont Elon Musk et Sam Altman, les membres, Jessica Livingston, YC Research (branche de Y Combinator destinée à l'innovation), Peter Thiel (capital-investisseur), Amazon Web Services, Reid Hoffman et Infosys, société indienne. Musk, Thiel et Hoffman se sont connus à l'époque de PayPal.

Le cofondateur Greg Brockman a pu attirer certains des meilleurs chercheurs de l'époque en apprentissage automatique, notamment avec des salaires attractifs et une vision commune[7].

Les fondateurs se sont engagés en 2015 sur un budget global d'un milliard de dollars, cependant seule une faible part serait utilisée dans les premières années[8].

Elon Musk quitte la société en 2018 à la suite d'un conflit de direction[9] - [10].

En , l'association devient une entreprise à but lucratif plafonné pour attirer des capitaux[11] - [12]. L'objectif de ce nouveau statut est de permettre aux investisseurs de recevoir une partie des bénéfices de la société jusqu’à un maximum de 100 fois la mise de départ[13].

En 2019, Microsoft a par ailleurs annoncé son intention d'investir un milliard de dollars dans OpenAI, en échange d'un partenariat privilégié avec OpenAI, lorsque la société commercialisera ses technologies d'intelligence artificielle[14].

En 2020, OpenAI lance GPT-3, un modèle de langage entraîné sur de larges quantités de texte issus d'internet[15]. Puis en 2021, OpenAI annonce DALL-E, la première version d'un modèle capable de générer des images à partir de descriptions textuelles[16].

En 2022, OpenAI acquiert une renommée mondiale après la sortie de ChatGPT, un modèle de langage accessible gratuitement[17]. Basé sur GPT 3.5, ChatGPT a été spécifiquement entraîné pour le dialogue[15].

En janvier 2023, Microsoft annonce un investissement de 10 milliards de dollars réparti sur plusieurs années[18], et commence ensuite à intégrer la technologie derrière ChatGPT dans des produits comme Bing, Office ou Outlook[19].

Le 14 mars 2023, OpenAI annonce officiellement GPT-4, un modèle de langage plus puissant et capable aussi d'analyser des images[20]. Une version de ChatGPT basée sur GPT-4 devient accessible via l'abonnement payant "ChatGPT Plus"[20].

En mai 2023, les cofondateurs d'OpenAI Sam Altman, Greg Brockman et Ilya Sutskever publient des recommandations sur la gouvernance des superintelligences[21] - [22]. Ils y déclarent qu'en moins de 10 ans, l'IA pourrait dépasser les compétences des meilleurs experts dans la plupart des domaines, ouvrant la voie à un futur « radicalement plus prospère » à condition de « gérer les risques pour y arriver »[23]. Ils y recommandent d'encourager la recherche sur la question du contrôle des superintelligences, ainsi que d'améliorer la coordination internationale par exemple à travers un projet commun, et de créer une organisation de surveillance similaire à l'Agence internationale de l'énergie atomique (AIEA) pour superviser les modèles d'IA les plus puissants. Ils estiment cependant que ces mesures ne devraient concerner que les modèles d'IA dépassant un certain seuil d'aptitude, afin de ne pas entraver l'innovation pour des modèles moins dangereux[21] - [22].

Motivations

Certains scientifiques comme Stephen Hawking et Stuart Russell ont évoqué le risque que l'IA soit dans le futur capable de s'auto-améliorer, ce qui selon eux pourrait causer une « explosion d'intelligence » pouvant mener à l'extinction de l'humanité. Le cofondateur Elon Musk a décrit l'IA comme la « pire menace existentielle »[24]. OpenAI a été créée dans le but de réduire ces risques. Les fondateurs en ont fait un organisme à but non lucratif, afin qu'elle concentre ses recherches sur les moyens de rendre l'IA bénéfique pour l'humanité[25].

Elon Musk et Sam Altman ont affirmé être en partie motivés par la sûreté des intelligences artificielles et les risques de catastrophe planétaire liés à l'intelligence artificielle générale[26] - [27]. Selon OpenAI, « il est difficile d'imaginer à quel point l'IA de niveau humain pourrait améliorer la société, et il est tout aussi difficile d'imaginer à quel point ça pourrait nuire à la société si c'était mal conçu ou utilisé »[28]. Remettre à plus tard la recherche sur la sûreté pourrait être dangereux : « il est difficile de prédire quand l'IA de niveau humain pourrait devenir faisable »[29]. OpenAI affirme que l'IA « devrait être une extension de la volonté humaine et, dans un esprit de liberté, distribuée aussi largement et aussi équitablement que possible »[30]. Sam Altman s'attend en 2015 à ce que ce projet dépasse un jour l'intelligence humaine[31].

L'ancien PDG de Infosys Vishal Sikka a annoncé en 2015 que le fait que OpenAI soit ouvert et produise des résultats dans l'intérêt général de l'humanité était une condition essentielle de son support, ajoutant que « OpenAI s'aligne très bien avec nos valeurs de longue date »[32]. Cade Metz, du magazine Wired, suggère que des corporations comme Amazon pourraient être motivées par le fait d'utiliser des logiciels et des données open source pour se mettre au niveau de corporations comme Google et Facebook, qui ont d'énormes quantités de données propriétaires[31].

Stratégie

Elon musk a posé la question : « Quelle est la meilleure chose que vous puissiez faire pour garantir que le futur soit bien ? Nous pourrions nous poser à l'écart ou encourager une surveillance réglementaire, ou nous pourrions participer avec la bonne structure et avec des personnes qui se soucient profondément du fait de développer l'IA de manière sûre et bénéfique pour l'humanité »[33]. Il a reconnu qu'« il y a toujours un risque pour qu'en essayant de faire avancer l'IA [amicale] on puisse créer ce qui nous inquiète »[34], mais affirme que la meilleure défense est « de permettre au plus grand nombre d'avoir accès à l'IA. Si tout le monde a des pouvoirs d'IA, alors il n'y a aucun individu ou petit groupe d'individus possédant des super-pouvoirs d'IA »[35].

La stratégie contre-intuitive d'Elon Musk et Sam Altman pour réduire les risques à grande échelle posés par l'IA, qui consiste à donner à tout le monde accès à l'IA, est controversée même parmi ceux qui s'inquiètent de risques de catastrophe planétaire liés. Le philosophe Nick Bostrom est sceptique face à cette approche : « Si vous avez un bouton qui pourrait avoir un mauvais effet sur le monde, vous n'avez pas envie de le donner à tout le monde »[27]. Au cours d'une conversation sur la singularité technologique en 2016, Sam Altman a dit qu'ils ne prévoyaient pas de diffuser tout leur code source et a mentionné un plan pour permettre à des gens du monde entier d'élire des représentants pour un nouveau conseil d'administration[36].

La décision initiale d'OpenAI, en 2019, de ne pas diffuser le code source de GPT-2 pour éviter le risque d'usages malveillants a été critiquée par les partisans d'un modèle ouvert au grand public, notamment parce que la recherche scientifique aurait besoin qu'OpenAI publie son travail pour pouvoir répliquer les résultats et pour mettre en place des contre-mesures. Delip Rao, expert en génération de texte, suggère aussi qu'OpenAI n'a pas « passé suffisamment de temps à prouver que c'était dangereux »[37].

En 2022, OpenAI a publié sa stratégie concernant le problème de l'alignement[38]. OpenAI s'attend à ce que les techniques du moment ne suffisent pas à sécuriser les intelligences artificielles générales (IAG) : « l'IAG pourrait poser des risques substantiels à l'humanité, et résoudre le problème de l'alignement des IAG pourrait s'avérer si difficile que cela nécessiterait que toute l'humanité y travaille ensemble ». Ses membres explorent comment mieux exploiter les préférences humaines pour entraîner leurs systèmes d'IA. Ils envisagent aussi d'utiliser l'IA pour automatiser progressivement la recherche sur l'alignement[39].

Produits

GPT-2

En février 2019, OpenAI met au point une intelligence artificielle nommée GPT-2 (Generative Pre-trained Transformer 2), capable d'écrire des articles de presse et des œuvres de fiction.

Reposant sur un générateur de texte qui assimile les mots reçus et détermine la suite la plus logique, qu'elle retransmet dans le même style, elle s'avère particulièrement performante, à tel point qu'il est impossible de faire la différence avec un texte écrit par un être humain[40].

Les chercheurs lui ont par exemple donné à lire la première phrase du roman 1984 de George Orwell : « C'était une journée ensoleillée et froide du mois d'avril et les horloges affichaient 13 h ». GPT-2 a alors compris qu'il s'agissait d'une œuvre évoquant le passé et écrite sous la forme d'une fiction et a ajouté : « J'étais dans ma voiture à Seattle en route pour mon nouveau travail. J'ai fait le plein, mis la clé sur le contact, et me suis laissé porter. J'ai imaginé à quoi ressemblerait ce jour. Dans cent ans à partir de ce jour. En 2045, j'étais professeur dans une école située dans une région pauvre de la Chine rurale. J'ai commencé avec l'Histoire de la Chine et l'Histoire de la science ». Ils lui ont également présenté un article du Guardian sur le Brexit et l'IA a été capable d'inventer des citations crédibles du député Jeremy Corbyn, principal opposant à Theresa May, et d'évoquer des thématiques précises liées au sujet, comme celle de la frontière irlandaise. Les chercheurs retardent la publication de leurs recherches, car ils estiment que GPT-2 a un potentiel « trop dangereux », étant donné que cette IA pourrait à terme servir à des actes mal intentionnés, comme générer des avis négatifs ou positifs sur des produits, des spams, des textes complotistes, voire des fausses nouvelles[41].

GPT-3

La version bêta privée du successeur de GPT-2 ouvre en . Encore plus puissante, cette intelligence artificielle destinée au traitement du langage naturel présente 175 milliards de paramètres, soit au moins dix fois plus que n'importe quel programme comparable jusqu'alors[42] - [43] Différentes versions de GPT-3 peuvent être testées via le "playground" d'OpenAI[44].

GPT-4

Le 14 mars 2023, OpenAI a annoncé la sortie de GPT-4, qui est capable de traiter non seulement du texte, mais aussi des images[45]. GPT-4 peut lire, analyser et générer jusqu'à 25 000 mots[46], et d'écrire dans tous les principaux langages de programmation.

ChatGPT

Dérivé du modèle GPT-3.5 et lancé en novembre 2022, ChatGPT est un modèle de langage formé à partir d'une vaste quantité de données textuelles afin d'acquérir une compréhension approfondie du langage humain. ChatGPT peut être utilisé pour générer du texte de manière autonome, en imitant les styles et les sujets de conversation humains. Il peut également être utilisé pour améliorer les systèmes de dialogue en leur fournissant des réponses naturelles et pertinentes. En outre, ChatGPT peut s'adapter aux nouvelles données et retours des utilisateurs pour affiner ses capacités linguistiques, quand bien même cela suppose de renouveler un entraînement pour les intégrer[47] - [48] - [49].

L'une des caractéristiques de ChatGPT qui contribue à sa qualité de réponse est sa capacité à tenir compte du contexte grâce à sa mémorisation de la conversation en cours (jusqu'à un maximum de 3 000 mots environ)[50].

DALL-E

Dérivé du modèle GPT-3, OpenAI développe également un générateur d'images nommé DALL-E, mot-valise évoquant à la fois le robot de Pixar WALL-E et le peintre Salvador Dalí. Ce modèle génératif peut créer des images originales à partir de texte[51]. Le programme est capable de mettre en illustration des concepts très abstraits, voire farfelus, comme les dessins d'un radis promenant un chien en laisse[52].

DALL-E 2

Deuxième modèle crée par OpenAI permettant de générer des images plus détaillés en s'appuyant sur des descriptions plus précises.

Microscope

Sorti en 2020, Microscope est un outil permettant de visualiser les neurones et couches de certains réseaux de neurones connus. Il est utilisé pour mieux comprendre le fonctionnement interne des réseaux de neurones[53].

Whisper

Sorti en 2022, Whisper est un modèle polyvalent et multilingue de reconnaissance vocale. Il peut aussi identifier une langue et même effectuer des traductions, par exemple de vidéos ou films[54].

Controverses

Discours haineux et violences sexuelles

Une enquête de l’hebdomadaire Time publiée le 18 janvier 2023 dévoile qu’Open AI alimente son IA ChatGPT d’exemples signalés de discours haineux et de violences sexuelles, afin qu’elle sache détecter ces formes de toxicité et ne les laisse pas passer. Pour ce faire, OpenAI a fait appel à Sama, une entreprise sise à San Francisco mais qui emploie des travailleurs au Kenya. Ceux-ci doivent lire des textes sexistes et racistes ou décrivant automutilations, incestes ou contenus pédopornographiques et les classer selon leur type (racisme, violence, etc.) et ainsi apprendre à l’IA à les repérer. Sur une journée de neuf heures, chaque travailleur doit ainsi lire entre 150 et 250 textes faisant chacun de 100 à 1 000 mots et y signaler les passages sensibles, et est pour cela payé entre 1,32 et 2 dollars de l’heure[55]. Psychiquement marqués par ce travail, plusieurs employés racontent à Time qu’il est très difficile de parler avec des « conseillers en bien-être » ou des médecins du travail. Sama dément auprès du magazine toute cadence infernale et les bas salaires.

Activités à but lucratif

La création d'une filiale à but lucratif, le partenariat avec Microsoft et l'absence de publication des résultats de recherche et du code source ont été critiqués par certaines personnalités telles qu'Elon Musk, cofondateur d'Open AI, qui y voit une trahison de la mission que s'était fixée l'organisation lors de sa fondation[56] - [57]

Notes et références

  1. Thomas Pontiroli, « OpenAI, ou l'espoir d'une IA à visage humain », sur Clubic, .
  2. (en) « OpenAI Startup Fund », sur OpenAI (consulté le ).
  3. « OpenAI : pourquoi le créateur de ChatGPT vaut déjà 29 milliards de dollars », sur Les Échos, (consulté le ).
  4. Thierry Noisette, « Intelligence artificielle: OpenAI est créé par Elon Musk, Peter Thiel, Amazon Web Services et d'autres », sur ZDNet, .
  5. « Elon Musk lance un centre sur l’intelligence artificielle pour « bénéficier à l’humanité » », Le Monde, (lire en ligne, consulté le ).
  6. « OpenAI: Musk veut l’intelligence artificielle au service de tous », sur BFM TV (consulté le ).
  7. (en-US) Cade Metz, « Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free », Wired, (ISSN 1059-1028, lire en ligne, consulté le )
  8. (en) « Introducing OpenAI », sur OpenAI.
  9. Joséphine Boone, « Qui est Open AI, le laboratoire derrière l'intelligence artificielle star ChatGPT ? » Accès limité, sur Les Échos, (consulté le ).
  10. Julien Lausson, « Pourquoi Elon Musk râle contre OpenAI alors qu'il en est le fondateur ? » Accès libre, sur Numerama, (consulté le ).
  11. (en) « OpenAI shifts from nonprofit to ‘capped-profit’ to attract capital », TechCrunch, (lire en ligne).
  12. « OpenAI devient une société à "but lucratif plafonné" pour attirer de nouveaux capitaux », sur Siècle Digital, (consulté le ).
  13. Malagigi Boutot, « OpenAI, une « entreprise à but lucratif plafonné » unique au monde » Accès libre, sur Générations nouvelles, (consulté le ).
  14. François Manens, « Pourquoi Microsoft mise un milliard de dollars sur la pépite OpenAI » Accès libre, sur La Tribune, (consulté le ).
  15. Bastien L, « ChatGPT : qu'est-ce que c'est ? Le guide complet », sur www.lebigdata.fr (consulté le )
  16. José Billon, « OpenAI : tout savoir sur l’entreprise qui a créé ChatGPT et DALL-E », sur BDM, (consulté le )
  17. « ChatGPT : tout savoir sur cette intelligence artificielle qui déchaîne le Web », sur www.lesnumeriques.com, (consulté le )
  18. Raphaële Karayan, « Microsoft réinvestit 10 milliards de dollars dans OpenAI, la start-up derrière ChatGPT », L'usine digitale, (lire en ligne, consulté le )
  19. Jérôme Marin, « Microsoft ajoute un "copilote" basé sur GPT-4 à sa suite bureautique Office 365 », L'usine digitale, (lire en ligne, consulté le )
  20. Par Sabrina Ortiz |, « GPT-4 : tout savoir sur le nouveau chatbot », sur ZDNet France, (consulté le )
  21. (en-US) « Governance of superintelligence », sur openai.com (consulté le )
  22. Decrypt / Jose Antonio Lanz, « OpenAI affirme que l'IA «dépassera le niveau de compétence des experts dans la plupart des domaines» dans 10 ans », sur Decrypt, (consulté le )
  23. (en-US) « Governance of superintelligence », sur openai.com (consulté le ) : « Given the picture as we see it now, it’s conceivable that within the next ten years, AI systems will exceed expert skill level in most domains, and carry out as much productive activity as one of today’s largest corporations. In terms of both potential upsides and downsides, superintelligence will be more powerful than other technologies humanity has had to contend with in the past. We can have a dramatically more prosperous future; but we have to manage risk to get there. »
  24. (en) Kelsey Piper, « Why Elon Musk fears artificial intelligence », sur Vox, (consulté le ).
  25. (en-GB) « Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI », BBC News, (lire en ligne, consulté le ).
  26. (en) « Open AI: Effort to democratize artificial intelligence research? », Christian Science Monitor, (ISSN 0882-7729, lire en ligne, consulté le ).
  27. (en-US) Cade Metz, « Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free », Wired, (ISSN 1059-1028, lire en ligne, consulté le ) :
    « If you have a button that could do bad things to the world, you don't want to give it to everyone. »
  28. (en-US) « Introducing OpenAI », sur openai.com (consulté le ) : « It's hard to fathom how much human-level AI could benefit society, and it's equally hard to imagine how much it could damage society if built or used incorrectly. »
  29. (en) « Tech leaders launch nonprofit to save the world from killer robots », Christian Science Monitor, (ISSN 0882-7729, lire en ligne, consulté le ) :
    « Because of AI's surprising history, it's hard to predict when human-level AI might come within reach. »
  30. (en-GB) « Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI », BBC News, (lire en ligne, consulté le ) :
    « should be an extension of individual human wills and, in the spirit of liberty, as broadly and evenly distributed as is possible safely »
    .
  31. (en-US) Cade Metz, « Elon Musk's Billion-Dollar AI Plan Is About Far More Than Saving the World », Wired, 2015--12-15 (ISSN 1059-1028, lire en ligne, consulté le ).
  32. Vishal Sikka, « OpenAI: AI for All » [archive du ], sur InfyTalk, Infosys, (consulté le ) : « OpenAI aligns very nicely with our long-held values. ».
  33. (en-US) « Silicon Valley investors to bankroll artificial-intelligence center », sur The Seattle Times, (consulté le ) : « What is the best thing we can do to ensure the future is good? We could sit on the sidelines or we can encourage regulatory oversight, or we could participate with the right structure with people who care deeply about developing AI in a way that is safe and is beneficial to humanity. »
  34. (en-US) « Silicon Valley investors to bankroll artificial-intelligence center », sur The Seattle Times, (consulté le ) : « There is always some risk that in actually trying to advance AI we may create the thing we are concerned about ».
  35. (en-US) « Silicon Valley investors to bankroll artificial-intelligence center », sur The Seattle Times, (consulté le ) : « to empower as many people as possible to have AI. If everyone has AI powers, then there's not any one person or a small set of individuals who can have AI superpower. »
  36. (en-US) Condé Nast, « Sam Altman’s Manifest Destiny », sur The New Yorker, (consulté le ).
  37. (en-US) James Vincent, « AI researchers debate the ethics of sharing potentially harmful programs », sur The Verge, (consulté le ) : « The words ‘too dangerous’ were casually thrown out here without a lot of thought or experimentation. I don’t think [OpenAI] spent enough time proving it was actually dangerous. »
  38. (en-US) « Our approach to alignment research », sur openai.com (consulté le ).
  39. (en-US) « Our approach to alignment research », sur openai.com (consulté le ) : « Unaligned AGI could pose substantial risks to humanity and solving the AGI alignment problem could be so difficult that it will require all of humanity to work together. »
  40. Thomas Burgel, « Tester le générateur de texte d'OpenAI est étonnant, drôle et angoissant », sur Korii, Slate, (consulté le ).
  41. (en) « Elon Musk backed AI writes news fiction », The Guardian, (lire en ligne).
  42. « GPT-3 : OpenAI dévoile son impressionnant modèle de traitement de langage naturel », sur Siècle digital, (consulté le ).
  43. Zacharie Tazrout, « Whisper, le système de reconnaissance vocale d'OpenAI, devient open source », sur Siècle Digital, (consulté le ).
  44. Aurore Gayte, « GPT-3 : comment générer du texte grâce à l'intelligence artificielle d'OpenAI », sur Numerama, (consulté le )
  45. (en-US) James Vincent, « OpenAI announces GPT-4 — the next generation of its AI language model », sur The Verge, (consulté le ).
  46. Etudes Tech, « Ce qu'il est possible de faire avec Chat GPT-4 d'Open Ai », sur Études Tech, (consulté le ).
  47. Martin Clavey, « ChatGPT : Open AI rend son bot plus responsable » Accès payant, Next INpact, (consulté le ).
  48. (en) Mike Pearl, « The ChatGPT chatbot from OpenAI is amazing, creative, and totally wrong » Accès libre, Mashable, (consulté le ).
  49. (en) Kevin Roose, « The Brilliance and Weirdness of ChatGPT » Accès payant, The New York Times, (consulté le ).
  50. (en) « Does ChatGPT remember what happened earlier in the conversation? », sur help.openai.com (consulté le ).
  51. Valentin Cimino, « DALL-E : l'IA d'OpenAI capable de générer une image à partir d'une phrase », sur Siècle digital, (consulté le ).
  52. Elina S, « DALL-E : la nouvelle IA d’OpenAI crée des images à partir de textes », sur LeBigData.fr, (consulté le )
  53. (en-US) « OpenAI Microscope », sur openai.com (consulté le )
  54. Zacharie Tazrout, « Whisper, le système de reconnaissance vocale d'OpenAI, devient open source », sur Siècle Digital, (consulté le )
  55. « Intelligence artificielle. Au Kenya, l’enfer des petites mains précaires de ChatGPT », sur Courrier international, (consulté le ).
  56. (en) « OpenAI Is Now Everything It Promised Not to Be: Corporate, Closed-Source, and For-Profit », Vice (consulté le ).
  57. (en-US) James Vincent, « OpenAI co-founder on company’s past approach to openly sharing research: “We were wrong” », sur The Verge, (consulté le ).

Voir aussi

Articles connexes

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.