IA en Tableau y la confianza

Nota: Einstein Copilot pasó a llamarse Tableau Agent, ya que la plataforma se expande para dar cabida a más funciones del agente de IA. A partir de octubre de 2024, verá actualizaciones en las secciones de página, los nombres de campos y otros textos de la interfaz de usuario en Tableau Prep, Tableau Catalog y Tableau Cloud Web Authoring. El contenido de ayuda y los módulos de Trailhead también se están actualizando para reflejar estos cambios.

Es importante que sus datos permanezcan seguros mientras innova con nueva tecnología. Con IA en Tableau, mantenemos la confianza como el valor número uno y nos esforzamos por garantizar que sus datos estén seguros y al mismo tiempo crear experiencias precisas y seguras.

IA en Tableau y sus datos

Para mantener sus datos seguros, Salesforce tiene acuerdos con proveedores de grandes modelos de datos (LLM), como OpenAI. Las organizaciones pueden aprovechar las capacidades de IA generativa sin que se utilicen sus datos privados para entrenar el LLM.

Enrutamiento de solicitudes de LLM con reconocimiento geográfico

Con Tableau Agent, no se admite la elección de un modelo grande de lenguaje (LLM) administrado por Salesforce. En cambio, el equipo de desarrollo de Tableau prueba y selecciona el mejor modelo para usarlo en función del rendimiento, la precisión y el coste.

Actualmente, los modelos utilizados por Tableau Agent no admiten el enrutamiento según la ubicación geográfica. Todos los LLM utilizados por Tableau Agent están alojados en los Estados Unidos, donde están disponibles todos los modelos. Para obtener información sobre qué modelos de LLM se utilizan actualmente en su versión de Tableau Agent, póngase en contacto con su ejecutivo de cuentas de Tableau.

Para obtener más información sobre el enrutamiento de solicitudes de LLM con reconocimiento geográfico, consulte Enrutamiento de solicitudes de LLM con reconocimiento geográfico en la plataforma de IA generativa de Einstein(El enlace se abre en una ventana nueva) en la ayuda de Salesforce.

IA generativa de confianza

Las soluciones de IA generativa Einstein de Salesforce están diseñadas, desarrolladas y entregadas de acuerdo con cinco principios para conseguir una IA generativa de confianza.

  • Exactitud: damos prioridad a la exactitud, la precisión y la recuperación en nuestros modelos, y respaldamos los resultados de nuestros modelos con explicaciones y fuentes siempre que sea posible. Recomendamos que un humano verifique la salida del modelo antes de compartirla con los usuarios finales.

  • Seguridad: trabajamos para detectar y mitigar sesgos, toxicidad y resultados dañinos de los modelos utilizados en nuestros productos a través de técnicas de detección y mitigación líderes en la industria.

  • Transparencia: Nos aseguramos de que nuestros modelos y funcionalidades respeten la procedencia de los datos y se basen en sus datos siempre que sea posible.

  • Empoderamiento: Creemos que nuestros productos deberían aumentar las capacidades de las personas y hacerlas más eficientes y decididas en su trabajo.

  • Sostenibilidad: nos esforzamos por crear modelos del tamaño adecuado que prioricen la precisión y reduzcan nuestra huella de carbono.

Para obtener más información sobre la IA de confianza, consulte Investigación de Salesforce: IA de confianza(El enlace se abre en una ventana nueva)

Idiomas y configuraciones regionales compatibles con IA en Tableau

Las funcionalidades de IA en Tableau son compatibles con el idioma inglés (en_US). A partir de la versión 2025.1 (versión de febrero), se admite un subconjunto de idiomas adicionales para Tableau Agent en las siguientes áreas de funciones. Actualmente, Tableau Catalog solo admiten inglés (en_US).

  • Resúmenes de información de Tableau Pulse

  • Tableau Agent en la creación web de Tableau Prep

  • Tableau Agent en la creación web de Tableau Cloud

  • Tableau Agent en Tableau Desktop

Las funcionalidades de IA en Tableau heredan la capa de confianza de Einstein y los controles de seguridad para los idiomas compatibles. Es posible que algunos idiomas no admitan totalmente el enmascaramiento de datos basado en patrones, la detección de toxicidad o los datos de auditoría y comentarios.

Para obtener más información sobre los tipos de datos admitidos y la detección de toxicidad disponible por idioma, consulte Compatibilidad con regiones e idiomas de la Capa de confianza de Einstein(El enlace se abre en una ventana nueva) en la ayuda de Salesforce. Para obtener más información sobre los tipos de datos de auditoría recopilados para la IA generativa, consulte Datos de comentarios y auditoría de IA generativa(El enlace se abre en una ventana nueva) en la ayuda de Salesforce.

Idiomas y configuraciones regionales por área de funcionalidades

Al utilizar Tableau Agent en Tableau Cloud, el lenguaje utilizado en la respuesta de IA generativa se basa en el Idioma establecido en Configuración de mi cuenta. Si la Configuración de mi cuenta aparece como No especificado, se utilizará la configuración de idioma del navegador. Al utilizar Tableau Agent en Tableau Desktop, el idioma utilizado en la respuesta de IA generativa se basa en el idioma seleccionado en el menú Ayuda > Seleccionar idioma.

También se admiten los siguientes idiomas.

Resúmenes de información de Tableau Pulse

IdiomaCódigo
Chino (simplificado)zh_CN
Chino (tradicional)zh_TW
Holandésnl_NL
Inglés (Reino Unido)en_GB
Inglés (Estados Unidos)en_US
Francés (Canadá)fr_CA
Francés (Francia)fr_FR
Alemánde_DE
Italianoit_IT
Japonésja_JP
Coreanoko_KR
Portugués (Brasil)pt_BR
Españoles_ES
Suecosv_SE
Thaith_TH

Tableau Agent en la creación web de Tableau Prep

Nota: El enmascaramiento de datos basado en patrones y la detección de toxicidad actualmente no son compatibles con portugués.

IdiomaCódigo
Inglés (Reino Unido)en_GB
Inglés (Estados Unidos)en_US
Francés (Francia)fr_FR
Alemánde_DE
Italianoit_IT
Japonésja_JP
Portugués (Brasil)pt_BR
Españoles_ES

Tableau Agent en la creación web de Tableau Cloud

Nota: El enmascaramiento de datos basado en patrones y la detección de toxicidad actualmente no son compatibles con portugués.

IdiomaCódigo
Inglés (Reino Unido)en_GB
Inglés (Estados Unidos)en_US
Francés (Francia)fr_FR
Alemánde_DE
Italianoit_IT
Japonésja_JP
Portugués (Brasil)pt_BR
Españoles_ES

Tableau Agent en Tableau Desktop

Nota: El enmascaramiento de datos basado en patrones y la detección de toxicidad actualmente no son compatibles con portugués.

IdiomaCódigo
Inglés (Reino Unido)en_GB
Inglés (Estados Unidos)en_US
Francés (Francia)fr_FR
Alemánde_DE
Italianoit_IT
Japonésja_JP
Portugués (Brasil)pt_BR
Españoles_ES

Enrutamiento de solicitudes de LLM con reconocimiento geográfico

Con Tableau Agent, no se admite la elección de un modelo grande de lenguaje (LLM) administrado por Salesforce. En cambio, el equipo de desarrollo de Tableau prueba y selecciona el mejor modelo para usarlo en función del rendimiento, la precisión y el coste.

Actualmente, los modelos utilizados por Tableau Agent no admiten el enrutamiento según la ubicación geográfica. Todos los LLM utilizados por Tableau Agent están alojados en los Estados Unidos, donde están disponibles todos los modelos. Para obtener información sobre qué modelos de LLM se utilizan actualmente en su versión de Tableau Agent, póngase en contacto con su ejecutivo de cuentas de Tableau.

Para obtener más información sobre el enrutamiento de solicitudes de LLM con reconocimiento geográfico, consulte Enrutamiento de solicitudes de LLM con reconocimiento geográfico en la plataforma de IA generativa de Einstein(El enlace se abre en una ventana nueva) en la ayuda de Salesforce.

La capa de confianza de Einstein en acción

IA en Tableau funciona con Einstein AI y hereda la Capa de confianza de Einstein y controles de seguridad.

Con Tableau Pulse, basamos los resúmenes de conocimientos que generamos utilizando conocimientos y valores en lenguaje natural basados en plantillas calculados mediante modelos estadísticos deterministas. Tableau Pulse también se basa en una capa de métricas que proporciona un espacio limitado y seguro para detectar información valiosa.

Tableau Pulse utiliza la IA generativa para mejorar y sintetizar el lenguaje de la información generada mediante Tableau. El resultado son conocimientos resumidos en un lenguaje fácil de entender con el que el usuario puede interactuar rápidamente.

Para permitir que Tableau Agent devuelva una visualización, un cálculo o una descripción de recursos, primero debemos conectar Tableau Agent a sus datos.

Cuando inicie Tableau Agent, consultamos la fuente de datos a la que está conectado y creamos un resumen que incluye metadatos de campo (títulos de campo, descripciones de campo, roles de datos y tipos de datos) y hasta 1000 valores de campo únicos si el tipo de datos es cadena (texto). Este resumen se envía al modelo de lenguaje grande (LLM) para crear inserciones de vectores para que Tableau Agent pueda comprender el contexto de sus datos. La creación del resumen ocurre dentro de Tableau y el LLM olvida los datos de contexto del resumen tan pronto como se crean las inserciones de vectores.

Cuando escribe una pregunta o solicitud en el panel de conversación, un mensaje combinado que consta de la entrada del usuario, metadatos que describen el estado actual de la visualización (creación web) y el contexto histórico del panel de conversación fluye a través de la capa de confianza de Einstein al LLM. La Capa de confianza de Einstein se puede utilizar para enmascarar información de identificación personal (PII) usando enmascaramiento de datos basado en patrones antes de enviarla al LLM. Mediante el uso de técnicas de aprendizaje automático y coincidencia de patrones, la información de identificación personal (PII) en los mensajes se reemplaza con tokens genéricos y luego se desenmascara con valores originales en la respuesta. Para obtener más información sobre el enmascaramiento de PII, consulte Compatibilidad con el idioma de la región de Einstein Trust Layer(El enlace se abre en una ventana nueva) en la ayuda de Salesforce.

La respuesta regresa a través de Einstein Trust Layer para comprobar la toxicidad y desenmascarar los datos enmascarados. Debido a nuestras políticas de retención de datos cero implementadas con nuestros proveedores externos de LLM, cualquier dato enviado al LLM no se conserva y se elimina después de enviar una respuesta.

El resultado es una visualización, un cálculo o una descripción de recursos lista para su revisión.

Técnicas como esta garantizan que nuestros productos adopten la IA generativa de manera confiable. Al mismo tiempo, los datos de sus clientes no se utilizan para entrenar ningún modelo global.

¿Desea obtener más información sobre la capa de confianza de Einstein? Consulte Einstein Trust Layer: diseñada para la confianza(El enlace se abre en una ventana nueva) en la ayuda de Salesforce, o complete el módulo Einstein Trust Layer(El enlace se abre en una ventana nueva) módulo en Salesforce Trailhead.

Revisión de los resultados de la IA generativa

IA en Tableau es una herramienta que puede ayudarle a descubrir conocimientos rápidamente, tomar decisiones comerciales más inteligentes y ser más productivo. Esta tecnología no reemplaza el juicio humano. Usted es, en última instancia, responsable de los resultados generados por LLM que incorpore en su análisis de datos y comparta con sus usuarios.

Ya sea generando cálculos para usar en un flujo de Tableau Prep, resumiendo información sobre las métricas que sigue o creando visualizaciones a partir de sus datos o creando borradores de descripciones de sus recursos de datos, es importante verificar siempre que el resultado del LLM sea preciso y apropiado.

Concéntrese en la precisión y seguridad del contenido antes de incorporarlo a sus flujos, visualizaciones y análisis.

  • Exactitud: la IA generativa a veces puede “alucinar” (fabricar resultados que no se basan en hechos ni en fuentes existentes). Antes de incorporar cualquier sugerencia, verifique que los detalles clave sean correctos. Por ejemplo, ¿la sintaxis propuesta para un cálculo es compatible con Tableau?

  • Sesgo y toxicidad: debido a que la IA es creada por humanos y entrenada con datos creados por humanos, también puede contener prejuicios contra grupos históricamente marginados. En raras ocasiones, algunos resultados pueden contener lenguaje dañino. Verifique sus resultados para asegurarse de que sean apropiados para sus usuarios.

Si el resultado no cumple con sus estándares o necesidades comerciales, no es necesario que lo utilice. Algunas funcionalidades le permiten editar la respuesta directamente antes de aplicarla a sus datos y también puede intentar comenzar de nuevo para generar otro resultado. Para ayudarnos a mejorar el resultado, infórmenos sobre qué estaba mal utilizando los botones de aprobación y desaprobación cuando estén disponibles y proporcione comentarios.