Aarush1*, Chandhu 2
Depuis le début du développement des transformateurs et les avancées récentes dans les modèles de langage volumineux (LLMS), le monde entier a été pris d'assaut. Cependant, plusieurs modèles LLM, tels que gpt-3, gpt-4 et tous les modèles LLM open source, présentent leur propre lot de défis. Le développement du traitement du langage naturel (NLP) utilisant des transformateurs a commencé en 2017, initié par Google et Facebook. Depuis lors, des modèles linguistiques substantiels sont apparus comme des outils formidables dans les domaines de la recherche en langage naturel et en intelligence artificielle. Ces modèles possèdent la capacité d'apprendre et de prédire, ce qui leur permet de générer un texte cohérent et contextuellement pertinent pour un large éventail d'applications. De plus, les grands modèles linguistiques ont eu un impact significatif sur divers secteurs, notamment la santé, la finance, le service client et la génération de contenu. Ils ont le potentiel d'automatiser les tâches, d'améliorer la compréhension du langage et d'améliorer l'expérience utilisateur lorsqu'ils sont déployés efficacement. Cependant, outre ces avantages, ces modèles comportent également des risques et des défis majeurs, notamment la pré-formation et le réglage fin. Pour relever ces défis, nous proposons la SDRT (Segmented Discourse Representation Theory) et rendons les modèles plus conversationnels pour surmonter certains des obstacles les plus difficiles.