OpenAI a récemment publié en version bêta l’API de son dernier modèle de langage, GPT-3. Avec cet outil, certains développeurs ont commencé à montrer ce que cette plate-forme est capable de capable de générer du contenu simplement en donnant des commandes en anglais et compréhensible par n’importe qui. Par exemple, «créer un site Web avec sept boutons de couleurs arc-en-ciel» générera exactement le code HTML d’un site Web avec sept boutons de couleurs différentes.


GPT-3 est un modèle de langageCela signifie que (en termes très généraux) votre objectif est de prédire ce qui va suivre en fonction des données précédentes. C’est comme une sorte de « saisie semi-automatique » que nous avons dans les moteurs de recherche comme Google, mais bien sûr, à un niveau beaucoup plus élevé. Vous pouvez par exemple écrire deux ou trois phrases d’un article et GPT-3 se chargera d’écrire le reste de l’article. Vous pouvez également générer des conversations et les réponses seront basées sur le contexte des questions et réponses précédentes.

La Xbox Series X est si silencieuse qu'on a l'impression qu'elle est éteinte

Il est important de comprendre que chaque réponse proposée par GPT-3 n’est qu’une possibilitéElle ne doit pas être la seule et la même demande peut toujours offrir une réponse différente, même contradictoire. Un modèle qui renvoie des réponses basées sur ce qui a été dit précédemment et en le reliant à tout ce qu’il sait pour obtenir la réponse la plus significative possible. Il ne comprend pas vraiment le contexte Mais bien sûr, quand on a appris des millions de pages web, de livres ou de Wikipedia … les résultats sont surprenants.

Tous les livres publics sur Internet, Wikipedia et des millions d’articles et d’actualités scientifiques

Le modèle de langage GPT-3 d’OpenAI a nécessité une formation préalable pour être ce qu’il est. Cette formation consistait à apprendre une énorme quantité d’informations disponibles sur Internet. OpenAI alimenté GPT-3 avec tous les livres publics qui ont été écrits et disponibles, tous les Wikipédia et des millions de pages Web et de documents scientifiques disponible sur Internet. Essentiellement, il a absorbé toutes les connaissances humaines les plus pertinentes que nous ayons publiées en ligne.

League of Legends: Wild Rift, la bêta publique mobile est sur le point d'arriver en Italie

Après avoir lu ces informations et les avoir analysées, le modèle de langage a créé des connexions dans un modèle de 700 Go situé sur 48 GPU de 16 Go chacun. Pour mettre les choses en contexte, l’année dernière, OpenAI a publié GPT-2 pesant 40 Go et analysant 45 millions de pages Web. Alors que GPT-2 avait 1,5 milliard de paramètres, GPT-3 a 175 milliards de paramètres.

Les expériences étonnantes avec GPT-3

L’une des expériences qui a gagné en popularité ces derniers jours est celle de Sharif Shameem. Ça te montren générateur web auquel nous n’avons qu’à décrire en langage naturel ce que nous voulons afficher et générer le code HTML / CSS pour cela.

Le PGA Tour 2K21 a une date de sortie. L’athlète de couverture est également révélé

Dans une autre expérience de Sharif Shameem, le modèle OpenAI directement programmer une application dans React. Selon l’exemple, il suffit de décrire à GPT-3 ce que nous voulons dans l’application et ce que nous voulons qu’elle fasse pour qu’elle génère tout le code et planifie son fonctionnement.

Poursuivant les applications et leur création, Jordan Singer montre un exemple de plugin pour Figma. Figrma est une plateforme de prototypage largement utilisée dans la conception d’applications mobiles ou de sites Web. Avec ce plugin basé sur GPT-3 il est décrit ce qu’il veut et crée directement tous les articles. Par exemple « une application avec l’icône d’un appareil photo, le titre Photos et un flux de photos avec l’icône d’un utilisateur et l’icône d’un cœur ». Créez essentiellement une version de base d’Instagram.

Shreya Shankar a une démo dans laquelle GPT-3 se transforme équations décrites en langage humain (anglais) à LaTeX.

Kirk Ouimet, par exemple, a expérimenté le GPT-3 en utilisant un programme capable de tenir des conversations. Conversations sur absolument toutes sortes de sujets. Par exemple sur le Bitcoin et les crypto-monnaies, sur «  The Legend of Zelda: Breath of the Wild  », sur le véganisme, sur l’IA et son impact sur la politique.

Dans un autre test, nous voyons un moteur de recherche simple qui, lorsqu’on lui demande quelque chose renvoie la réponse et le lien vers l’URL d’où vous avez obtenu les informations. Oui, Google et de nombreux assistants vocaux réalisent quelque chose de très similaire.

Plus d’informations | arXiv

Source: Engadget