5 maneiras pelas quais os líderes empresariais podem usar grandes modelos de linguagem para desbloquear novas possibilidades
LarLar > blog > 5 maneiras pelas quais os líderes empresariais podem usar grandes modelos de linguagem para desbloquear novas possibilidades

5 maneiras pelas quais os líderes empresariais podem usar grandes modelos de linguagem para desbloquear novas possibilidades

Jul 10, 2023

Acesse nossa biblioteca sob demanda para ver as sessões do VB Transform 2023. Cadastre-se aqui

É altamente improvável que você tenha perdido o burburinho em torno da IA ​​generativa e, especificamente, de grandes modelos de linguagem (LLMs), como o ChatGPT. Nos últimos meses, estes têm sido temas quentes em todo o lado, desde as redes sociais às notícias e às conversas do dia-a-dia, e apenas começamos a aprender do que a IA generativa pode ser capaz.

De modo geral, a geração AI refere-se a uma categoria de técnicas de aprendizado de máquina (ML) que podem criar conteúdo como imagens, música e texto que se assemelha muito ao conteúdo criado por humanos. Os LLMs, por outro lado, são redes neurais com bilhões de parâmetros que foram treinados em grandes quantidades de dados de texto, o que lhes permite compreender, processar e gerar linguagem semelhante à humana.

Juntas, essas tecnologias oferecem uma gama diversificada de aplicações que têm o potencial de remodelar diversas indústrias e amplificar a qualidade das interações entre humanos e máquinas. Ao explorar essas aplicações, os proprietários e tomadores de decisões empresariais podem obter inspiração valiosa, impulsionar o crescimento acelerado e alcançar resultados tangivelmente melhores por meio da prototipagem rápida. A vantagem adicional da geração AI é que a maioria dessas aplicações requer conhecimento mínimo e não requer treinamento adicional do modelo.

Isenção de responsabilidade rápida: as pessoas muitas vezes tendem a associar a geração AI exclusivamente ao ChatGPT, mas existem vários modelos de outros fornecedores disponíveis, como T5 do Google, Llama da Meta, Falcon da TII e Claude da Anthropic. Embora a maioria dos aplicativos discutidos neste artigo tenha feito uso do ChatGPT da OpenAI, você pode facilmente adaptar e mudar o LLM subjacente para se alinhar com seu orçamento de computação específico, latência (quão rápido você precisa do seu modelo para gerar conclusões - modelos menores permitem carregamento mais rápido e reduzir a latência de inferência) e tarefa downstream.

Transformação VB 2023 sob demanda

Você perdeu uma sessão do VB Transform 2023? Registre-se para acessar a biblioteca sob demanda para todas as nossas sessões em destaque.

Os LLMs demonstram capacidades impressionantes em muitas tarefas prontas para uso, como tradução e resumo, sem exigir personalização inicial. A razão pela qual eles são tão bons nessas tarefas genéricas é que o modelo básico subjacente foi treinado em conjuntos de dados grandes, porém genéricos. No entanto, esta competência pode não se estender perfeitamente a tarefas específicas de domínio, incluindo, por exemplo, fornecer respostas sobre o relatório anual da sua empresa. É aqui que a Geração Aumentada de Recuperação (RAG) entra em cena.

RAG é uma estrutura para a construção de sistemas baseados em LLM que fazem uso de fontes de dados externas. O RAG dá ao LLM acesso a dados que não teria visto durante o pré-treinamento, mas que são necessários para fornecer corretamente respostas relevantes e precisas. O RAG permite que modelos de linguagem como ChatGPT forneçam melhores respostas a questões específicas de domínio, combinando suas habilidades de processamento de linguagem natural (PNL) com conhecimento externo, mitigando instâncias de geração de informações imprecisas ou “alucinações”. Isso é feito por:

Esta abordagem torna os LLMs mais versáteis e úteis em vários domínios e aplicações, incluindo resposta a perguntas, criação de conteúdo e conversação interativa com acesso a dados em tempo real. Podurama, um aplicativo de podcast, aproveitou técnicas semelhantes para construir seus chatbots de recomendação com tecnologia de IA. Esses bots sugerem habilmente programas relevantes com base nas consultas dos usuários, extraindo insights de transcrições de podcast para refinar suas recomendações.

Esta abordagem também é valiosa na gestão de crises. PagerDuty, uma plataforma SaaS de resposta a incidentes, usa LLMs para gerar resumos de incidentes usando dados básicos, como título, gravidade ou outros fatores, e aumentando-os com dados internos do Slack, onde os respondentes discutem detalhes e compartilham atualizações de solução de problemas para refinar a qualidade dos resumos .

Embora o RAG possa parecer complexo, a biblioteca LangChain oferece aos desenvolvedores as ferramentas necessárias para implementar o RAG e construir sistemas sofisticados de resposta a perguntas. (Em muitos casos, você só precisa de uma única linha de código para começar). LangChain é uma biblioteca poderosa que pode aumentar e aprimorar o desempenho do LLM em tempo de execução, fornecendo acesso a fontes de dados externas ou conectando-se a APIs existentes de outros aplicativos.