• Qua. Jul 17th, 2024

Google faz parcerias para fundamentar seus modelos de IA em fatos

ByChristiano Oliveira

Jun 28, 2024

Google está ampliando um esforço para permitir que seus clientes na nuvem baseiem seus chatbots de IA empresarial em fatos do mundo real, incluindo uma nova parceria com a Moody’s para usar seus dados financeiros.

Por que isso importa: A IA generativa pode inventar informações, mas fundamentar esses sistemas em dados factuais conhecidos pode reduzir significativamente alucinações.

Notícia em destaque: Em abril, o Google anunciou um esforço para fundamentar os resultados do Vertex AI em pesquisas na web, bem como um plano para permitir que as empresas baseiem os sistemas de IA em seus próprios dados internos.

Agora, o Google está oferecendo uma opção adicional: usar dados de terceiros para ajudar a fundamentar os resultados da IA. Os parceiros iniciais neste esforço incluem Moody’s, Thomson Reuters e ZoomInfo.

O que estão dizendo: “Você pode realmente confiar no modelo para realizar uma tarefa em seu nome, porque você tem uma base para confiar nele,” disse Thomas Kurian, CEO do Google Cloud, ao Axios.

O panorama geral: Os movimentos ocorrem enquanto os principais provedores de IA generativa buscam provar que seus sistemas são seguros e confiáveis o suficiente para uso comercial.

Zoom in: O Google também está oferecendo mais maneiras de tornar seus sistemas mais confiáveis e previsíveis. Uma delas é uma nova “pontuação de confiança”, na qual o modelo de IA oferece um indicador numérico de quão seguro está da resposta.

Outro novo recurso permite que os clientes digam ao modelo para se concentrar em encontrar respostas nos documentos ou outras informações incluídas em um prompt, em vez de seu amplo conjunto de dados de treinamento. “Ensinamos o modelo a garantir que, quando responde, ele leva o que está no prompt de entrada como a principal informação à qual precisa prestar atenção,” disse Kurian. “Isso evita ser distraído por todos os outros dados de treinamento.”

O Google também anunciou a disponibilidade geral de seu modelo Flash Gemini 1.5 de baixa latência, bem como o Gemini 1.5 Pro, que pode lidar com até 2 milhões de tokens de contexto — o suficiente para duas horas de vídeo.