IA no Tableau e Confiança

Observação: o Einstein Copilot foi renomeado como Agente do Tableau, pois a plataforma se expande para acomodar mais funcionalidades do agente de IA. A partir de outubro de 2024, você verá atualizações em seções de página, nomes de campos e outros textos da interface do usuário no Tableau Prep, no Tableau Catalog e no Tableau Cloud Web Authoring. O conteúdo de ajuda e os módulos do Trailhead também estão sendo atualizados para refletir essas mudanças.

É importante que seus dados permaneçam seguros enquanto você inova com tecnologias modernas. Com a IA no Tableau, mantemos a confiança como valor número 1 e nos esforçamos para garantir que seus dados estejam seguros e, ao mesmo tempo, criar experiências precisas e seguras.

IA no Tableau e seus dados

Para manter seus dados seguros, a Salesforce possui acordos com fornecedores de Modelos de linguagem grandes (LLM, Large Language Model), como OpenAI. As organizações podem aproveitar os recursos generativos de IA sem que seus dados privados sejam usados para treinar o LLM.

Roteamento de solicitação LLM com reconhecimento geográfico

Com o Tableau Agent, não há suporte para escolher um Modelo de linguagem grande (LLM) gerenciado pelo Salesforce. Em vez disso, a equipe de desenvolvimento do Tableau testa e seleciona o melhor modelo para usar, com base no desempenho, precisão e custo.

Alguns modelos podem não estar disponíveis na região mais próxima de onde sua instância da plataforma de IA generativa do Einstein está localizada. Se o modelo selecionado não estiver disponível em sua região, as solicitações serão encaminhadas para os Estados Unidos, onde todos os modelos estão disponíveis. Para obter informações sobre qual modelo LLM está sendo usado atualmente na sua versão do Tableau Agent, entre em contato com seu executivo de conta do Tableau.

Para obter mais informações sobre o roteamento de solicitações LLM com reconhecimento geográfico, consulte Roteamento de solicitação LLM com reconhecimento geográfico na plataforma de IA Generativa do Einstein(O link abre em nova janela) na ajuda do Salesforce.

IA generativa confiável

As soluções de IA generativa Einstein da Salesforce são projetadas, desenvolvidas e entregues com base em cinco princípios para IA generativa confiável.

  • Precisão: priorizamos exatidão, precisão e recall em nossos modelos e apoiamos os resultados de nossos modelos com explicações e fontes sempre que possível. Recomendamos que uma saída do modelo de verificação humana seja realizada antes de compartilhar com os usuários finais.

  • Segurança: trabalhamos para detectar e mitigar distorções, toxicidade e resultados prejudiciais de modelos usados em nossos produtos por meio de técnicas de detecção e mitigação líderes do setor.

  • Transparência: garantimos que nossos modelos e recursos respeitem a fonte de dados e sejam baseados em seus dados sempre que possível.

  • Capacitação: acreditamos que nossos produtos devem aumentar as capacidades das pessoas e torná-las mais eficientes e objetivas em seu trabalho.

  • Sustentabilidade: nós nos esforçamos para construir modelos do tamanho certo que priorizem a precisão e reduzam nossa pegada de carbono.

Para saber mais sobre IA confiável, consulte Pesquisa Salesforce: IA confiável(O link abre em nova janela)

Camada de Confiança do Einstein em ação

A IA no Tableau é desenvolvida pela Einstein AI e herda a Camada de confiança do Einstein e os controles de segurança.

Com o Tableau Pulse, fundamentamos os resumos de informação que geramos usando modelos de informações e valores de linguagem natural calculados usando modelos estatísticos determinísticos. O Tableau Pulse também se baseia em uma camada de métrica que fornece um espaço limitado e seguro para a detecção de informações.

O Tableau Pulse usa IA generativa para aprimorar e sintetizar a linguagem dos insights gerados pelo Tableau. O resultado são informações resumidas em uma linguagem fácil de entender com a qual o usuário pode interagir rapidamente.

Para permitir que o Tableau Agent retorne uma visualização, um cálculo ou uma descrição de ativo, primeiro precisamos fundamentar o Tableau Agent em seus dados.

Quando você inicia o Tableau Agent, consultamos a fonte de dados à qual você está conectado e criamos um resumo que inclui metadados de campo (legendas de campo, descrições de campo, funções de dados e tipos de dados) e até 1.000 valores de campo exclusivos se o tipo de dado for sequência de caracteres (texto). Este resumo é enviado ao Modelo de linguagem grande (LLM) para criar inserções de vetores para que o Tableau Agent possa entender o contexto dos seus dados. A criação do resumo ocorre no Tableau e os dados de contexto do resumo são esquecidos pelo LLM assim que os embeddings de vetores são criados.

Quando você digita uma pergunta ou solicitação no painel de conversa, um prompt combinado que consiste na entrada do usuário, metadados que descrevem o estado atual da visualização (criação na Web) e o contexto histórico do painel de conversa fluem através da Camada de confiança do Einstein para o LLM. A Camada de Confiança do Einstein pode ser usada para mascarar Informações de Identificação Pessoal (PII) antes que elas sejam enviadas ao LLM. Usando técnicas de aprendizado de máquina e correspondência de padrões, as PII em prompts são substituídas por tokens genéricos e então desmascaradas com valores originais na resposta. Para obter mais informações sobre mascaramento de PII, consulte Suporte ao idioma da região da Camada de confiança do Einstein(O link abre em nova janela) na ajuda do Salesforce.

A resposta flui de volta pela Camada de confiança do Einstein para verificar a toxicidade e desmascarar quaisquer dados mascarados. Devido às nossas políticas de retenção de dados zero em vigor com nossos fornecedores terceirizados de LLM, quaisquer dados enviados ao LLM não são retidos e são excluídos após o envio de uma resposta.

O resultado é uma visualização, um cálculo ou uma descrição do ativo pronta para você revisar.

Técnicas como essa garantem que nossos produtos adotem IA generativa de maneira confiável. Ao mesmo tempo, os dados do seu cliente não são usados para treinar nenhum modelo global.

Quer saber mais sobre Camada de Confiança do Einstein? Ver Camada de confiança do Einstein: projetada para confiança(O link abre em nova janela) na ajuda do Salesforce ou faça o módulo Camada de confiança do Einstein(O link abre em nova janela) no Salesforce Trailhead.

Revendo resultados generativos de IA

A IA no Tableau é uma ferramenta que pode ajudar você a descobrir informações rapidamente, tomar decisões de negócios mais inteligentes e ser mais produtivo. Essa tecnologia não substitui o julgamento humano. Você é o responsável final por quaisquer resultados gerados pelo LLM que você incorpora em sua análise de dados e compartilha com seus usuários.

Seja gerando cálculos para usar em um fluxo do Tableau Prep, resumindo informações de métricas que você segue, criando visualizações a partir de seus dados ou elaborando descrições para seus ativos de dados, é importante sempre verificar se o resultado do LLM é preciso e apropriado.

Concentre-se na precisão e segurança do conteúdo antes de incorporá-lo em seus fluxos, visualizações e análises.

  • Precisão: a IA generativa às vezes pode “alucinar” – fabricar resultados que não são fundamentados em fatos ou em fontes existentes. Antes de incorporar qualquer sugestão, verifique se os principais detalhes estão corretos. Por exemplo, a sintaxe proposta para um cálculo é compatível com o Tableau?

  • Viés e Toxicidade: como a IA é criada por humanos e treinada com base em dados criados por humanos, ela também pode conter preconceitos contra grupos historicamente marginalizados. Raramente, alguns resultados podem conter linguagem prejudicial. Verifique seus resultados para ter certeza de que são apropriados para seus usuários.

Se o resultado não atender aos seus padrões ou necessidades de negócios, você não precisará usá-lo. Alguns recursos permitem editar a resposta diretamente antes de aplicá-la aos seus dados, e você também pode tentar recomeçar para gerar outra saída. Para nos ajudar a melhorar o resultado, informe-nos o que há de errado usando os botões de polegar para cima e de polegar para baixo, quando disponíveis, e forneça feedback.