Google melhora precisão de modelos de linguagem com DataGemma, usando RIG e RAG para combater inverdades em inteligência artificial.
Ah, os modelos de linguagem, essas maravilhas da tecnologia moderna que, de vez em quando, decidem inventar respostas como se fossem mestres do improviso. Os Large Language Models (LLMs), como o GPT-3, são incrivelmente úteis, mas têm uma pequena tendência para, digamos, “alucinar”. Ou seja, dar respostas incorrectas, mas que até soam bem. Um verdadeiro pesadelo para quem procura informações precisas.
Neste artigo vão encontrar:
Para resolver este problema, a Google, que já é um titã na colheita e catalogação de dados, lançou o DataGemma. Esta nova ferramenta promete melhorar a precisão dos LLMs, utilizando o seu vasto repositório de dados conhecido como Data Commons. E se alguém pode alimentar esses modelos com dados precisos, é a Google.
Fonte: Google
O Data Commons é uma espécie de grafo do conhecimento vastíssimo e, convenhamos, um tanto quanto alucinante, que a Google usa como arma contra a inexactidão dos LLMs. Este grafo não é apenas uma lista de factos, mas uma rede de dados interconectados. E o DataGemma é o conjunto de algoritmos que vai utilizar estes dados.
Para combater as “mentiras” da IA, o DataGemma utiliza duas estratégias principais: Geração Intercalada por Recuperação (Retrieval-Interleaved Generation, RIG) e Geração Aumentada por Recuperação (Retrieval-Augmented Generation, RAG).
No RIG, um LLM recebe um prompt, gera uma resposta provável e depois verifica essa resposta contra uma base de dados de factos verificados. Isto restringe parcialmente a tomada de decisões do modelo às probabilidades com que foi originalmente treinado.
No RAG, o modelo de linguagem primeiro reúne dados relevantes do seu grafo de conhecimento atribuído e avalia esse conjunto de dados em busca de uma resposta. Isto permite que os engenheiros cursem continuamente o conjunto de dados disponível do modelo, em vez de depender apenas dos dados iniciais de treino. A Google, no seu recente post no blog, fez um excelente trabalho em tornar estas estratégias o mais confusas possível, mas na realidade, não são assim tão complicadas.
RIG e RAG não são exatamente novos, e vários modelos de IA já utilizam uma ou ambas as estratégias de alguma forma. A diferença é que o DataGemma é operado por um dos maiores acumuladores de dados do mundo. A Google está apenas a começar a abordagem combinada de RIG e RAG para navegar no grafo de dados disponível publicamente, o Data Commons. Mas está comprometida em partilhar a sua pesquisa para beneficiar a indústria de aprendizagem automática como um todo, oferecendo acesso faseado à medida que o trabalho avança.
Nenhum outro grupo pode competir com a combinação de poder de processamento, armazenamento e gestão de dados e recursos de engenharia da Google. Portanto, este empreendimento massivo pode fazer uma grande diferença na precisão dos LLMs daqui para frente. Quer pense que a IA é a salvadora da humanidade ou apenas um bot de atendimento ao cliente supervalorizado (a verdade está algures no meio), respostas mais verídicas dos LLMs só podem ser benéficas.
Para quem quiser aprofundar-se ainda mais, recomendo a leitura do post de pesquisa do Google sobre o DataGemma, onde explicam detalhadamente as estratégias RIG e RAG.
Para todas as suas necessidades tecnológicas, AndroidGeek é a sua fonte de confiança. Mantenha-se atualizado com as últimas inovações e desenvolvimentos no mundo da tecnologia.
Fundador do Androidgeek.pt. Trabalho em TI há dez anos. Apaixonado por tecnologia, Publicidade, Marketing Digital, posicionamento estratégico, e claro Android <3
Próximo Post