Intuiface prend en charge les modèles linguistiques larges GPT, DALL-E et Whisper d'OpenAI
Nous venons d'introduire la prise en charge native des modèles linguistiques de grande taille GPT, DALL-E et Whisper d'OpenAI. Voyons comment cela fonctionne et quelles en sont les implications.
Vue d'ensemble
Il existe une infinité d'exemples de technologies "qui changent la donne" mais qui, en fin de compte, n'ont pas réussi à changer la donne. Le Segway, les Google Glass, Napster, Crypto.... D'accord, le dernier a encore une chance de devenir quelque chose de plus qu'un simple jeu, et ces autres échecs ont certainement influencé la création d'alternatives réussies. Néanmoins, le battage médiatique est excessif.
Le battage médiatique autour de l'IA générative n'est pas exagéré. Elle a déjà commencé à changer la donne. Cet article explique comment vous pouvez commencer à tirer parti de l'IA générative dans Intuiface.
Quoi de neuf dans Intuiface
Composer comprend désormais trois nouveaux actifs d'interface (IA) : ChatGPT, DALL-E et Whisper.
Voici ce qu'ils permettent :
- ChatGPT
Sous les apparences, il s'agit du grand modèle de langage (LLM) GPT - voici un article sur le GPT-4 - ce qui signifie que ce que vous pouvez faire dans Intuiface fonctionne exactement comme ChatGPT. Envoyez une invite, obtenez une réponse et répétez si vous le souhaitez. Vous pouvez demander n'importe quoi, fournir des conseils au système, puis analyser les résultats pour en extraire ce que vous voulez. - DALL-E
Sous les couvertures, voici le grand modèle linguistique DALL-E. Créez une image à partir de n'importe quel message. - Whisper
Sous les apparences, il s'agit du modèle linguistique Whisper à grande échelle. Il utilise le microphone par défaut pour capturer la parole et la transcrire en texte. Ce texte peut être utilisé pour compléter un message envoyé à l'interface ChatGPT ou DALL-E - mais vous pouvez l'utiliser comme vous le souhaitez.
Vous remarquerez que pour ChatGPT et Whisper, nous avons deux versions de l'interface. Notre nouvelle technologie Player - sur toutes les plateformes sauf Windows - prend en charge les IA basées sur TypeScript. Ce type de ressource d'interface n'est pas encore pris en charge sur Windows; nous utilisons .NET pour construire des IA pour Windows. Sur le plan fonctionnel, ces deux variantes de l'IA sont identiques, mais nous avons dû les coder pour tenir compte d'une certaine complexité de l'API. Avec DALL-E, nous avons pu travailler directement avec son API Web et avons donc utilisé API Explorer(oui, vous auriez pu le faire vous-même). Les IA pour les API Web sont universelles sur toutes les plates-formes Player .
Comment avons-nous construit ces nouvelles interfaces ?
Tous les grands modèles de langage d'OpenAI sont accessibles via une API. Nos interfaces ont été conçues pour utiliser ces API :
- ChatGPT IA utilise l'API OpenAI Chat Completion pour communiquer avec le LLM GPT sous-jacent.
- DALL-E utilise l'API OpenAI Images pour communiquer avec le modèle DALL-E sous-jacent.
- Whisper utilise l'API audio OpenAI pour communiquer avec le LLM Whisper sous-jacent.
Comme toutes les interfaces, nous cachons la complexité de l'API sous-jacente. Tout ce que vous voyez sur Composer , ce sont des propriétés, des déclencheurs et des actions.
Ai-je besoin d'un compte OpenAI pour utiliser ces interfaces ?
Oui, vous aurez besoin d'un compte OpenAI. Plus précisément, vous devrez fournir à chaque IA votre clé d'API OpenAI.
Une clé API s'obtient en créant un compte OpenAI et en achetant des jetons (chaque invite et réponse LLM consomme des jetons, et ces jetons ont un coût). Une fois que vous avez un compte et que vous avez acheté des jetons, rendez-vous sur la page OpenAI API Key pour trouver votre clé.
Il y a quelque chose de bizarre que vous devez garder à l'esprit : OpenAI ne vous montrera votre clé API qu'une seule fois, lors de sa création. Vous ne pourrez JAMAIS revoir cette clé. Veillez à copier votre (vos) clé(s) API dans un endroit sûr afin de pouvoir la (les) réutiliser dans toutes vos expériences.
Quel est l'exemple le plus frappant d'utilisation de ces interfaces ?
Jetez un coup d'œil à cet exemple fantastique, un système d'orientation piloté par l'IA et conçu par Tosolini Productions pour le Museum of Flight de Seattle, dans l'État de Washington. Il permet aux visiteurs du musée de trouver facilement les zones d'exposition qui correspondent à leurs intérêts en utilisant des requêtes en langage naturel. Il montre comment Intuiface peut atteindre cet objectif en utilisant Whisper comme mécanisme d'entrée et une ingénierie d'invite spécialisée pour demander à GPT de fournir des recommandations personnalisées.
Il convient de souligner le génie de l'incitation. Ils "enseignent" à GPT comment être un guide pour le musée. L'objectif du guide est défini, les contraintes sont clarifiées et les résultats sont structurés. C'est un exemple parfait de "programmation en langage naturel", qui s'inscrit dans l'esthétique "sans code" d'Intuiface.
Vous voulez essayer quelque chose à Composer?