Pesquisadores da UC Berkeley apresentam o Gorilla: um LLaMA ajustado

blog

LarLar / blog / Pesquisadores da UC Berkeley apresentam o Gorilla: um LLaMA ajustado

Jul 08, 2023

Pesquisadores da UC Berkeley apresentam o Gorilla: um LLaMA ajustado

Um avanço recente no campo da Inteligência Artificial é a

Um avanço recente no campo da Inteligência Artificial é a introdução de Large Language Models (LLMs). Esses modelos nos permitem entender a linguagem de forma mais concisa e, assim, fazer o melhor uso do Processamento de Linguagem Natural (NLP) e Entendimento de Linguagem Natural (NLU). Esses modelos têm bom desempenho em todas as outras tarefas, incluindo resumo de texto, resposta a perguntas, geração de conteúdo, tradução de idiomas e assim por diante. Eles entendem prompts textuais complexos, até mesmo textos com raciocínio e lógica, e identificam padrões e relacionamentos entre esses dados.

Embora os modelos de linguagem tenham mostrado um desempenho incrível e tenham se desenvolvido significativamente nos últimos tempos, demonstrando sua competência em uma variedade de tarefas, ainda é difícil para eles usar ferramentas por meio de chamadas de API de maneira eficiente. Mesmo LLMs famosos, como o GPT-4, lutam para gerar argumentos de entrada precisos e frequentemente recomendam chamadas de API inadequadas. Para resolver esse problema, os pesquisadores da Berkeley e da Microsoft Research propuseram o Gorilla, um modelo baseado em LLaMA ajustado que supera o GPT-4 em termos de produção de chamadas de API. O Gorilla ajuda na escolha da API apropriada, melhorando a capacidade dos LLMs de trabalhar com ferramentas externas para realizar atividades específicas.

A equipe de pesquisadores também criou um conjunto de dados APIBench, que é composto por um corpus considerável de APIs com funcionalidade sobreposta. O conjunto de dados foi criado coletando hubs de modelos públicos como TorchHub, TensorHub e HuggingFace para suas APIs de ML. Cada solicitação de API do TorchHub e do TensorHub é incluída para cada API, e os 20 principais modelos do HuggingFace para cada categoria de tarefa são escolhidos. Além disso, eles produzem dez prompts de consulta de usuário fictícios para cada API usando o método de autoinstrução.

Usando este conjunto de dados APIBench e recuperação de documentos, os pesquisadores ajustaram o Gorilla. Gorilla, o modelo de 7 bilhões de parâmetros supera o GPT-4 em termos de correção do funcionamento da API e reduz os erros alucinatórios. A integração efetiva do recuperador de documentos com o Gorilla demonstra a possibilidade de os LLMs usarem as ferramentas com mais precisão. Os recursos aprimorados de geração de chamadas de API do Gorilla e sua capacidade de modificar a documentação conforme necessário melhoram a aplicabilidade e a confiabilidade dos resultados do modelo. Esse desenvolvimento é importante porque permite que os LLMs acompanhem a documentação atualizada regularmente, fornecendo aos usuários informações mais precisas e atuais.

Um dos exemplos compartilhados pelos pesquisadores mostra como o Gorilla reconhece corretamente as tarefas e oferece resultados de API totalmente qualificados. As chamadas de API geradas pelos modelos mostraram GPT-4 produzindo solicitações de API para modelos hipotéticos, o que demonstra falta de compreensão da tarefa. Claude escolheu a biblioteca errada, mostrando falta de habilidade para reconhecer os recursos certos. Gorilla, em contraste, reconheceu corretamente a tarefa. Gorilla, portanto, difere de GPT-4 e Claude porque sua criação de chamada de API é precisa, demonstrando seu desempenho aprimorado e compreensão de tarefas.

Em conclusão, o Gorilla é uma adição importante à lista de modelos de linguagem, pois aborda até mesmo a questão de escrever chamadas de API. Suas capacidades permitem a redução de problemas relacionados à alucinação e confiabilidade.

Confira aPapel, link do Github, ePágina do Projeto.Não se esqueça de participarnosso SubReddit de 22k+ ML,Canal do Discord, eNoticiário por e-mail , onde compartilhamos as últimas notícias de pesquisa de IA, projetos interessantes de IA e muito mais. Se você tiver alguma dúvida sobre o artigo acima ou se esquecemos de algo, sinta-se à vontade para nos enviar um e-mail para[email protected]

🚀 Confira as 100's AI Tools no AI Tools Club

Tanya Malhotra é uma estudante do último ano da University of Petroleum & Energy Studies, Dehradun, cursando BTech em Engenharia de Ciência da Computação com especialização em Inteligência Artificial e Machine Learning. Ela é uma entusiasta da Ciência de Dados com bom pensamento analítico e crítico, juntamente com um interesse ardente em adquirir novas habilidades, liderar grupos e gerenciar o trabalho de forma organizada.