10 termos de IA que todos deveriam conhecer

10 termos de IA que todos deveriam conhecer

Por Susanna Ray

Desde que a IA generativa se tornou popular, no final de 2022, a maioria de nós adquiriu uma compreensão básica da tecnologia e de como ela utiliza a linguagem natural para nos ajudar a interagir mais facilmente com os computadores. Alguns de nós podem até usar palavras da moda como “prompts” e “aprendizado de máquina” durante um café com amigos (se você ainda não chegou a este ponto, então você pode começar com o texto: 10 termos de IA que todos mundo deveria saber). Mas, à medida que a IA continua a evoluir, o mesmo acontece com seu léxico. Você sabe a diferença entre modelos de linguagem grandes e pequenos? Ou o que significa “GPT” no ChatGPT? Ou o que um RAG tem a ver com a limpeza de fabricações? Estamos aqui para ajudar com uma análise mais aprofundada sobre os termos de IA, para que você fique atualizado. 

Raciocínio/planejamento 

Os computadores que utilizam IA agora podem resolver problemas e realizar tarefas empregando padrões que aprenderam a partir de dados históricos, para dar sentido às informações – algo semelhante ao raciocínio. Os sistemas mais avançados são capazes de dar um passo além, enfrentando problemas cada vez mais complexos por meio da criação de planos, traçando uma sequência de ações para atingir um objetivo. Imagine pedir ajuda a um programa de IA para organizar uma viagem a um parque temático. O sistema pode atingir esse objetivo – uma visita onde você faz seis passeios diferentes, incluindo garantir que a aventura aquática seja durante a parte mais quente do dia – e pode dividi-la em etapas para uma programação, enquanto usa o raciocínio para ter certeza de que você está satisfeito. Você não vai repetir nenhum passeio e estará na montanha-russa entre meio-dia e 15h. 

Treinamento/inferência 

Para criar e usar um sistema de IA, existem duas etapas: treinamento e inferência. O treinamento é a educação de um sistema de IA, quando ele é alimentado com um conjunto de dados e aprende a realizar tarefas ou fazer previsões com base nesses dados. Pode ser fornecida, por exemplo, uma lista de preços de casas vendidas recentemente num bairro, juntamente com o número de quartos e casas de banho em cada uma e uma infinidade de outras variáveis. Durante o treinamento, o sistema ajusta seus parâmetros internos, que são valores que determinam quanto peso atribuir a cada um desses fatores que podem influenciar o preço. A inferência ocorre quando ele usa esses padrões e parâmetros aprendidos para chegar a uma previsão de preço para uma nova casa prestes a ser colocada no mercado. 

SLMs/modelos de linguagem pequena 

Modelos de linguagem pequena, ou SLMs, são versões de bolso de modelos de linguagem grande, ou LLMs. Ambos usam técnicas de aprendizado de máquina para ajudá-los a reconhecer padrões e relações na linguagem, para que possam produzir respostas realistas e em linguagem natural. Mas embora os LLMs sejam enormes e precisem de uma grande dose de poder computacional e memória, os SLMs como o Phi-3 são treinados em conjuntos de dados menores, selecionados e têm menos parâmetros, por isso são mais compactos e podem até ser usados offline, sem conexão com a Internet. Isso os torna ótimos para aplicativos em dispositivos como laptop ou telefone, onde você pode querer fazer perguntas básicas sobre cuidados com animais de estimação, mas não precisa se aprofundar no raciocínio detalhado e em várias etapas de como treinar cães-guia. 
 
Aterramento 

Os sistemas generativos de IA podem compor histórias, poemas e piadas, bem como responder a questões de investigação. Mas por vezes enfrentam desafios para separar os factos da ficção, ou os seus dados de treino estão desatualizados, e então podem dar respostas imprecisas referidas como alucinações. Os desenvolvedores trabalham para ajudar a IA a interagir com o mundo real de maneira precisa por meio do processo de aterramento, que é quando eles conectam e ancoram seu modelo com dados e exemplos tangíveis para melhorar a precisão e produzir resultados mais contextualmente relevantes e personalizados. 

Geração Aumentada de Recuperação (RAG sigla em inglês) 

Quando os desenvolvedores fornecem a um sistema de IA acesso a uma fonte de aterramento para ajudá-lo a ser mais preciso e atual, eles usam um método chamado Retrieval Augmented Generation, ou RAG. O padrão RAG economiza tempo e recursos ao adicionar conhecimento extra sem a necessidade de treinar novamente o programa de IA. É como se você fosse Sherlock Holmes e tivesse lido todos os livros da biblioteca, mas ainda não tivesse resolvido o caso. Então você vai até o sótão, desenrola alguns pergaminhos antigos e voilà – você encontra no livro a peça que faltava no quebra-cabeça. Da mesma forma, se você tem uma empresa de roupas e deseja criar um chatbot que possa responder a perguntas específicas sobre sua mercadoria, você pode usar o padrão RAG em seu catálogo de produtos para ajudar os clientes a encontrar o suéter verde perfeito em sua loja. 

Orquestração 

Os programas de IA têm muito a fazer enquanto processam as solicitações das pessoas. A camada de orquestração é o que os orienta em todas as tarefas, na ordem certa, para obter a melhor resposta. Se você perguntar ao Microsoft Copilot quem é Ada Lovelace, por exemplo, e depois perguntar quando ela nasceu, o orquestrador da IA é o que armazena o histórico de bate-papo para ver se o “ela” em sua consulta de acompanhamento se refere a Lovelace. A camada de orquestração também pode seguir um padrão RAG, pesquisando na Internet informações novas para adicionar ao contexto e ajudar o modelo para que encontre uma resposta melhor. É como se um maestro orientasse os violinos e depois as flautas e os oboés, enquanto todos seguiam a partitura para produzir o som que o compositor tinha em mente. 

Memória 

Tecnicamente, os modelos de IA atuais não têm memória. Mas os programas de IA podem ter instruções orquestradas que os ajudam a “lembrar” informações, seguindo etapas específicas em cada transação – como armazenar temporariamente perguntas e respostas anteriores em um bate-papo e depois incluir esse contexto na solicitação atual do modelo, ou usar dados do aterramento do padrão RAG para garantir que a resposta tenha as informações mais atuais. Os desenvolvedores estão experimentando a camada de orquestração para ajudar os sistemas de IA a saberem se precisam se lembrar temporariamente de uma divisão de etapas, por exemplo – memória de curto prazo, como anotar um lembrete em um post-it – ou se seria útil lembrar de algo para um período de tempo mais longo, armazenando-o em um local mais permanente. 

Modelos de transformadores e modelos de difusão 

Há décadas que as pessoas ensinam sistemas de IA a compreender e gerar linguagem, mas um dos avanços que acelerou o progresso recente foi o modelo do transformador. Entre os modelos de IA generativos, os transformadores são os que entendem melhor e mais rapidamente o contexto e as nuances. Eles são contadores de histórias eloqüentes, prestando atenção aos padrões dos dados e avaliando a importância de diferentes entradas para ajudá-los a prever rapidamente o que vem a seguir, o que lhes permite gerar texto. A fama de um transformador é que ele é o T em ChatGPT: Generative Pre-trained Transformer. Os modelos de difusão, geralmente usados para criação de imagens, acrescentam um toque diferente ao fazer uma jornada mais gradual e metódica, difundindo pixels de posições aleatórias até que sejam distribuídos de uma maneira que forme uma imagem solicitada em um prompt. Os modelos de difusão continuam fazendo pequenas alterações até criarem algo que funcione. 

Modelos de fronteira 

Os modelos de fronteira são sistemas de grande escala que ultrapassam os limites da IA e podem executar uma ampla variedade de tarefas com capacidades novas e mais amplas. Eles podem ser tão avançados que às vezes nos surpreendem com o que são capazes de realizar. Empresas de tecnologia, incluindo a Microsoft, formaram um Frontier Model Forum para partilhar conhecimento, definir padrões de segurança e ajudar todos a compreender estes poderosos programas de IA, para garantir um desenvolvimento seguro e responsável. 

GPU 

Uma GPU, sigla em inglês para Unidade de Processamento Gráfico, é basicamente uma calculadora turbinada. As GPUs foram originalmente projetadas para suavizar gráficos sofisticados em videogames e agora são o grande destaque da computação. Os chips têm muitos núcleos minúsculos, ou redes de circuitos e transistores, que resolvem problemas matemáticos juntos, chamados de processamento paralelo. Como a IA é basicamente isso – resolver toneladas de cálculos em grande escala para poder se comunicar em linguagem humana e reconhecer imagens ou sons – as GPUs são indispensáveis para ferramentas de IA, tanto para treinamento quanto para inferência. Na verdade, os modelos mais avançados de hoje são treinados usando enormes clusters de GPUs interconectadas – às vezes chegando a dezenas de milhares espalhadas por data centers gigantes – como os que a Microsoft possui no Azure, que estão entre os computadores mais poderosos já construídos. 

Entenda mais sobre as notícias mais recentes em IA no Microsoft Source