En mars dernier, OpenAI a publié une série d’API ainsi que son modèle GPT-3.5 Turbo utilisé par défaut pour démarrer une conversation avec ChatGPT. (Si vous êtes un client payant et que vous vous abonnez à ChatGPT Plus, vous pouvez toujours changer le modèle en GPT-4 avant de commencer un chat). Au prix de 0,002 $ pour 1 000 tokens, soit l’équivalent de 750 mots, ce modèle est considéré comme meilleur pour de nombreux cas d'utilisation non liés au chat et « 10 fois moins cher que les modèles GPT-3.5 existants ». La firme indique que plusieurs testeurs ont ainsi migré de text-davinci-003 à gpt-3.5-turbo en n'apportant qu'une légère modification à leurs invites (prompt). Parmi eux, on retrouve Snap (créateur de Snapchat), Quizlet (une plateforme d'apprentissage), ou encore Shopify. Ce modèle Turbo est très prisé des développeurs et offre à ces derniers la possibilité d’accéder au modèle stable et, lorsqu’ils le souhaitent, opter pour une version spécifique du modèle. Entre mars et juin 2023, OpenAI a notamment mis à disposition gpt-3.5-turbo-0301.

Aujourd’hui, la firme va plus loin et propose des réglages fins pour GPT-3.5 Turbo. Avec cette mise à jour, les développeurs peuvent désormais apporter leurs propres données pour personnaliser GPT-3.5 Turbo en fonction de leurs cas d'utilisation. Pour rappel, la version 3.5 est, comme son nom l’indique, une sorte de pont entre GPT-3 et GPT-4. OpenAI n’a pas été particulièrement précis sur ce qui rend GPT 3.5 spécifiquement meilleur que GPT 3, mais les principaux objectifs étaient d’augmenter la vitesse du modèle et, surtout, de réduire le coût de son fonctionnement. Plutôt que de mettre à disposition le noyau brut GPT 3.5, la firme a donc fait le choix de proposer plutôt plusieurs ramifications spécialisées. Ainsi, GPT 3.5 Turbo est une version qui a été affinée spécifiquement pour les chats, bien qu’elle puisse encore faire toutes les autres choses que GPT 3.5 peut faire.

Les développeurs procèdent à des ajustements supervisés du modèle

Dans le détail, on apprend que ce réglage précis sera un atout de taille pour l'entreprise cliente, cette dernière pouvant créer une robot unique et façonné avec ses données. « Dans notre version bêta privée, les clients de la mise au point ont été en mesure d'améliorer de manière significative les performances du modèle dans des cas d'utilisation courants, comme l’amélioration de la dirigeabilité » rapporte OpenAI, avant d'ajouter « Les premiers tests ont montré qu'une version affinée de GPT-3.5 Turbo peut égaler, voire surpasser, les capacités de base du niveau GPT-4 pour certaines tâches précises » affirme l’entreprise. Via ce réglage fin, le modèle peut en effet mieux suivre les instructions, par exemple en rendant les outputs laconiques ou en répondant toujours dans une langue donnée. Les développeurs peuvent notamment utiliser le réglage fin pour s'assurer que le modèle répond toujours en français lorsqu'il est invité à utiliser cette langue.

Le réglage fin améliore par ailleurs la capacité du modèle à formater les réponses de manière cohérente, ce qui est crucial pour les applications exigeant un format de réponse spécifique, comme la complétion de code ou la composition d'appels d'API. En l’utilisant, un développeur pourra ainsi convertir de manière plus fiable les invites de l'utilisateur en extraits JSON de haute qualité qui peuvent être utilisés avec leurs propres systèmes. Enfin, une autre amélioration concerne la personnalisation de la tonalité. « La mise au point est un excellent moyen d'affiner la qualité des résultats du modèle, comme son ton, afin qu'ils correspondent mieux à la voix de la marque de l'entreprise. Une entreprise dont la voix de marque est reconnaissable peut utiliser le réglage fin pour que le modèle soit plus cohérent avec son ton » indique OpenAI.

Garantir une sécurité et des performances élevées

Outre ces changements, le réglage fin propose également aux entreprises de raccourcir leurs messages-guides tout en garantissant des performances similaires. Les premiers résultats semblent par ailleurs plutôt convaincants : « Le réglage fin avec GPT-3.5-Turbo peut également gérer 4k tokens, soit le double de nos précédents modèles réglés finement. Les premiers testeurs ont réduit la taille des invites jusqu'à 90 % en affinant les instructions dans le modèle lui-même, ce qui a permis d'accélérer chaque appel à l'API et de réduire les coûts ». Dans le même temps, OpenAI a précisé que le réglage fin pour GPT-4 serait disponible cet automne.

La firme se veut par ailleurs rassurante sur les usages et l’entraînement des modèles : « Pour préserver les caractéristiques de sécurité du modèle par défaut tout au long du processus de réglage fin, les données d'entraînement au réglage fin passent par notre API de modération et un système de modération alimenté par GPT-4 pour détecter les données d'entraînement dangereuses qui entrent en conflit avec nos normes de sécurité ». De même, « les données envoyées dans et hors de l'API de réglage fin sont la propriété du client et ne sont pas utilisées par OpenAI, ou toute autre entreprise, pour entraîner d'autres modèles ».

Enfin, au niveau de la tarification, les tarifs de la mise au point sont répartis en deux catégories : le coût de la formation initiale et le coût de l'utilisation. Ainsi l’entraînement coute 0,008 $ / 1K tokens ; le coût d'utilisation : 0,012 $ / 1 000 tokens et l’utilisation en sortie : 0,016 $ / 1 000 tokens. Par exemple, une tâche de réglage fin gpt-3.5-turbo avec un fichier d'apprentissage de 100 000 tokens qui est entraîné pendant 3 périodes aurait un coût attendu de 2,40 $.