• # On verra

    Posté par  . Évalué à 2.

    J'ai pas encore fais de tests très approfondis sur llama3-8B, mais ça a l'air supérieur à Mistral-7B.

    Par contre je comprend pas comment on peut sortir un nouveau modèle sans gérer nativement le rôle "tool" (je parle bien du modèle instruct).
    Il a l'air largement assez malin pour permettre le RAG mais un llm qui produit du texte c'était bien il y a un an, mais pour que ça ait une utilité dans le monde réél, il faut aussi pouvoir lui permettre de gérer des appels de fonctions.

    Je suppose qu'ils se disent que la communauté fera le travail, mais ça m'a quand même l'air étonnant étant donné les moyens qu'ils ont dû abattre pour développer le modèle.

    J'ai quand même pu lui faire appeler des fonctions via des instructions spécifique mais il manque de subtilité.
    Si je lui demande d'appeler une fonction de recherche uniquement quand c'est nécessaire, il l’appelle systématiquement.

    De ce point de vue Mistral-7B-instruct s'en sortait mieux.

    A mon avis on ne pourra en tirer des conclusions que dans les mois à venir.
    NousResearch a sorti il y a un mois un excellent modèle pour gérer les appels de fonctions avec Mistral-7B.
    Si ils reprennent la même formule avec llama-3, ça pourrait être une petite révolution.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.