AI in Tableau y la confianza
Nota: Einstein Copilot pasó a llamarse Tableau Agent, ya que la plataforma se expande para dar cabida a más funciones del agente de IA. A partir de octubre de 2024, verá actualizaciones en las secciones de página, los nombres de campos y otros textos de la interfaz de usuario en Tableau Prep, Tableau Catalog y Tableau Cloud Web Authoring. El contenido de ayuda y los módulos de Trailhead también se están actualizando para reflejar estos cambios.
Es importante que sus datos permanezcan seguros mientras innova con nueva tecnología. Con AI in Tableau, mantenemos la confianza como el valor número uno y nos esforzamos por garantizar que sus datos estén seguros y al mismo tiempo crear experiencias precisas y seguras.
AI in Tableau y sus datos
Para mantener sus datos seguros, Salesforce tiene acuerdos con proveedores de grandes modelos de datos (LLM), como OpenAI. Las organizaciones pueden aprovechar las capacidades de IA generativa sin que se utilicen sus datos privados para entrenar el LLM.
Enrutamiento de solicitudes de LLM con reconocimiento geográfico
Con Tableau Agent, no se admite la elección de un modelo grande de lenguaje (LLM) administrado por Salesforce. En cambio, el equipo de desarrollo de Tableau prueba y selecciona el mejor modelo para usarlo en función del rendimiento, la precisión y el coste.
Es posible que algunos modelos no estén disponibles en la región más cercana a donde se encuentra su instancia de la plataforma de IA generativa de Einstein. Si el modelo seleccionado no está disponible en su región, las solicitudes se dirigen a Estados Unidos, donde todos los modelos están disponibles. Para obtener información sobre qué modelo LLM se utiliza actualmente en su versión de Tableau Agent, póngase en contacto con su ejecutivo de cuentas de Tableau.
Para obtener más información sobre el enrutamiento de solicitudes de LLM con reconocimiento geográfico, consulte Enrutamiento de solicitudes de LLM con reconocimiento geográfico en la plataforma de IA generativa de Einstein(El enlace se abre en una ventana nueva) en la ayuda de Salesforce.
IA generativa de confianza
Las soluciones de IA generativa Einstein de Salesforce están diseñadas, desarrolladas y entregadas de acuerdo con cinco principios para conseguir una IA generativa de confianza.
Exactitud: damos prioridad a la exactitud, la precisión y la recuperación en nuestros modelos, y respaldamos los resultados de nuestros modelos con explicaciones y fuentes siempre que sea posible. Recomendamos que un humano verifique la salida del modelo antes de compartirla con los usuarios finales.
Seguridad: trabajamos para detectar y mitigar sesgos, toxicidad y resultados dañinos de los modelos utilizados en nuestros productos a través de técnicas de detección y mitigación líderes en la industria.
Transparencia: Nos aseguramos de que nuestros modelos y funcionalidades respeten la procedencia de los datos y se basen en sus datos siempre que sea posible.
Empoderamiento: Creemos que nuestros productos deberían aumentar las capacidades de las personas y hacerlas más eficientes y decididas en su trabajo.
Sostenibilidad: nos esforzamos por crear modelos del tamaño adecuado que prioricen la precisión y reduzcan nuestra huella de carbono.
Para obtener más información sobre la IA de confianza, consulte Investigación de Salesforce: IA de confianza(El enlace se abre en una ventana nueva)
La capa de confianza de Einstein en acción
AI in Tableau funciona con Einstein AI y hereda la Capa de confianza de Einstein y controles de seguridad.
Con Tableau Pulse, basamos los resúmenes de conocimientos que generamos utilizando conocimientos y valores en lenguaje natural basados en plantillas calculados mediante modelos estadísticos deterministas. Tableau Pulse también se basa en una capa de métricas que proporciona un espacio limitado y seguro para detectar información valiosa.
Tableau Pulse utiliza la IA generativa para mejorar y sintetizar el lenguaje de la información generada mediante Tableau. El resultado son conocimientos resumidos en un lenguaje fácil de entender con el que el usuario puede interactuar rápidamente.
Para permitir que Tableau Agent devuelva una visualización, un cálculo o una descripción de recursos, primero debemos conectar Tableau Agent a sus datos.
Cuando inicie Tableau Agent, consultamos la fuente de datos a la que está conectado y creamos un resumen que incluye metadatos de campo (títulos de campo, descripciones de campo, roles de datos y tipos de datos) y hasta 1000 valores de campo únicos si el tipo de datos es cadena (texto). Este resumen se envía al modelo de lenguaje grande (LLM) para crear inserciones de vectores para que Tableau Agent pueda comprender el contexto de sus datos. La creación del resumen ocurre dentro de Tableau y el LLM olvida los datos de contexto del resumen tan pronto como se crean las inserciones de vectores.
Cuando escribe una pregunta o solicitud en el panel de conversación, un mensaje combinado que consta de la entrada del usuario, metadatos que describen el estado actual de la visualización (creación web) y el contexto histórico del panel de conversación fluye a través de la capa de confianza de Einstein al LLM. La Capa de confianza de Einstein se puede utilizar para enmascarar información de identificación personal (PII) antes de enviarla al LLM. Mediante el uso de técnicas de aprendizaje automático y coincidencia de patrones, la información de identificación personal (PII) en los mensajes se reemplaza con tokens genéricos y luego se desenmascara con valores originales en la respuesta. Para obtener más información sobre el enmascaramiento de PII, consulte Compatibilidad con el idioma de la región de Einstein Trust Layer(El enlace se abre en una ventana nueva) en la ayuda de Salesforce.
La respuesta regresa a través de Einstein Trust Layer para comprobar la toxicidad y desenmascarar los datos enmascarados. Debido a nuestras políticas de retención de datos cero implementadas con nuestros proveedores externos de LLM, cualquier dato enviado al LLM no se conserva y se elimina después de enviar una respuesta.
El resultado es una visualización, un cálculo o una descripción de recursos lista para su revisión.
Técnicas como esta garantizan que nuestros productos adopten la IA generativa de manera confiable. Al mismo tiempo, los datos de sus clientes no se utilizan para entrenar ningún modelo global.
¿Desea obtener más información sobre la capa de confianza de Einstein? Consulte Einstein Trust Layer: diseñada para la confianza(El enlace se abre en una ventana nueva) en la ayuda de Salesforce, o complete el módulo Einstein Trust Layer(El enlace se abre en una ventana nueva) módulo en Salesforce Trailhead.
Revisión de los resultados de la IA generativa
AI in Tableau es una herramienta que puede ayudarle a descubrir conocimientos rápidamente, tomar decisiones comerciales más inteligentes y ser más productivo. Esta tecnología no reemplaza el juicio humano. Usted es, en última instancia, responsable de los resultados generados por LLM que incorpore en su análisis de datos y comparta con sus usuarios.
Ya sea generando cálculos para usar en un flujo de Tableau Prep, resumiendo información sobre las métricas que sigue o creando visualizaciones a partir de sus datos o creando borradores de descripciones de sus recursos de datos, es importante verificar siempre que el resultado del LLM sea preciso y apropiado.
Concéntrese en la precisión y seguridad del contenido antes de incorporarlo a sus flujos, visualizaciones y análisis.
Exactitud: la IA generativa a veces puede “alucinar” (fabricar resultados que no se basan en hechos ni en fuentes existentes). Antes de incorporar cualquier sugerencia, verifique que los detalles clave sean correctos. Por ejemplo, ¿la sintaxis propuesta para un cálculo es compatible con Tableau?
Sesgo y toxicidad: debido a que la IA es creada por humanos y entrenada con datos creados por humanos, también puede contener prejuicios contra grupos históricamente marginados. En raras ocasiones, algunos resultados pueden contener lenguaje dañino. Verifique sus resultados para asegurarse de que sean apropiados para sus usuarios.
Si el resultado no cumple con sus estándares o necesidades comerciales, no es necesario que lo utilice. Algunas funcionalidades le permiten editar la respuesta directamente antes de aplicarla a sus datos y también puede intentar comenzar de nuevo para generar otro resultado. Para ayudarnos a mejorar el resultado, infórmenos sobre qué estaba mal utilizando los botones de aprobación y desaprobación cuando estén disponibles y proporcione comentarios.