Aarush1*, Chandhu 2
Desde o início do desenvolvimento do transformador e dos recentes avanços nos Large Language Models (LLMS), o mundo inteiro foi tomado de assalto. No entanto, vários modelos LLM, como o gpt-3, o gpt-4 e todos os modelos LLM de código aberto, apresentam o seu próprio conjunto de desafios. O desenvolvimento do Processamento de Linguagem Natural (PNL) com recurso a transformadores teve início em 2017, iniciado pela Google e pelo Facebook. Desde então, modelos de linguagem substanciais surgiram como ferramentas formidáveis ??em domínios de investigação em linguagem natural e inteligência artificial. Estes modelos têm a capacidade de aprender e prever, permitindo-lhes gerar texto consistente e contextualmente relevante para uma vasta gama de aplicações. Além disso, os grandes modelos de linguagem tiveram um impacto significativo em vários setores, incluindo a saúde, as finanças, o serviço ao cliente e a geração de conteúdos. Tem o potencial de automatizar tarefas, melhorar a compreensão da língua e melhorar as experiências do utilizador quando é implementada de forma eficaz. No entanto, juntamente com estes benefícios, existem também grandes riscos e desafios associados a estes modelos, incluindo a pré-formação e o ajuste fino. Para enfrentar os desafios, estamos a propor a SDRT (Teoria da Representação do Discurso Segmentado) e a tornar os modelos mais conversacionais para ultrapassar alguns dos obstáculos estes mais difíceis.