OpenAi a mis en place le modèle GPT-3.5, considéré comme une version intermédiaire entre le modèle GPT-3 et GPT-4. Récemment, l’entreprise a mis en avant un autre modèle de GPT-3.5, différent des autres modèles existants. Il s’agit de GPT-3.5 Turbo. Évalué comme plus rapide que les autres prototypes, il génère des réponses rapides, mais 10 fois moins cher.
La firme OpenAi s’est encore surpassée en mettant en avant l’annonce de GPT-4. Ce dernier se profile à l’horizon, même si l’entreprise a déjà mis en place des modèles de GPT de base. Il s’agit de davinci-002 et babbage-002 en substitution aux versions anciennes davinci, curie, ada et babbage. En mars 2023, OpenAi a dévoilé le GPT-3.5 turbo avec une série d’API pour initier des conversations avec ChatGPT. La société a annoncé le support de réglage fin sur leur modèle linguistique à grande échelle. Le but est de permettre aux développeurs d’apporter leurs propres informations et données afin de particulariser leur modèle pour des usages spécifiques.
Les changements ajustés sur le modèle GPT-3.5 Turbo
Des développeurs peuvent effectuer des réglages pour le modèle GPT-3.5 Turbo. Il en est de même pour un consultant informatique. En améliorant la capacité du modèle, le processus de réglage fin permet le formatage des réponses de manière uniforme. Cela reste important, notamment pour les applications avec un format de réponse spécifique, comme :
- La complétion de code ;
- La composition d’appels d’Api.
En adoptant ce processus, un développeur pourra convertir les instructions du client en extraits JSON de grande qualité. Ainsi, elles seront plus compatibles avec leurs systèmes.
OpenAi se montre rassurante concernant l’utilisation et la formation des modèles. Elle explique que pour garantir la sécurité par défaut du modèle, les données d’entraînement subissent un processus de filtrage.
C’est possible à l’aide de leur système de modération alimenté par Gpt-4 ainsi que leur API de modération. Ce système permet d’ailleurs de repérer les données d’entraînement potentiellement nocives. Ces dernières pourraient enfreindre les normes de sécurité de la firme.
Les données transmises à l’API de réglage fin appartiennent au client. Elles ne peuvent être exploitées ni par une autre société ni par OpenAI afin de former d’autres modèles.
À l’aide de cette personnalisation avancée, le modèle peut obéir à des instructions comme :
- Produire des résultats succincts ;
- Utiliser une langue requise ;
- Répondre à des questions systématiquement, etc.
La personnalisation de la tonalité constitue aussi une évolution notable. La firme affirme même cela en précisant que :
« La mise au point est un excellent moyen d’affiner la qualité des résultats du modèle, comme son ton, afin qu’ils correspondent mieux à la voix de la marque de l’entreprise. »
D’ailleurs, une société possédant une identité de marque distincte peut exploiter le réglage fin. Elle peut ainsi harmoniser le modèle avec cette tonalité.
Les tarifs du réglage fin concernant le modèle GPT-3.5 Turbo
Le modèle de GPT-3.5 Turbo est tarifé à 0,002 dollars pour 1000 tokens. Il s’agit à peu près de 750 mots, le rendant attractif pour les diverses utilisations, outre les discussions. Ce modèle reste donc moins cher que les autres versions de base. Concernant le coût du réglage fin, il a été partagé en deux catégories :
- Le prix de l’utilisation ;
- Celui de la formation initiale.
Pour faire simple, les coûts sont répartis de cette manière :
- 0,008 dollars / 1K tokens pour l’entraînement ;
- 0,012 dollars / 1 000 tokens pour le coût d’utilisation ;
- 0,016 dollars / 1 000 tokens pour l’utilisation en sortie.
Afin d’éclairer un peu plus ces tarifs, voici un exemple clair et simple pour expliquer le fonctionnement. Si une tâche de réglage fin gpt-3.5 dispose d’un fichier d’apprentissage, composé de 100 000 tokens. De plus, elle a été formée durant 3 périodes. Dans ce cas, elle coûterait environ 2,40 dollars.
Avec Gpt-3.5 Turbo, le réglage fin semble gérer jusqu’à 4 000 tokens, représentant le double des anciens modèles affinés. Ainsi :
« Les premiers testeurs ont réduit la taille des invites jusqu’à 90 % en affinant les instructions dans le modèle lui-même, ce qui a permis d’accélérer chaque appel à l’API et de réduire les coûts. »
L’ajustement fin offre à des entreprises la possibilité de réduire les messages-guides tout en maintenant les mêmes performances.
Cet article vous a-t-il été utile ?
Note moyenne 0 / 5. Nombre de votes 0