Tableau AI y confianza

Es importante que sus datos permanezcan seguros mientras innova con nueva tecnología. Con Tableau AI, mantenemos la confianza como el valor número uno y nos esforzamos por garantizar que sus datos estén seguros y al mismo tiempo crear experiencias precisas y seguras.

Tableau AI y sus datos

Para mantener sus datos seguros, Salesforce tiene acuerdos con proveedores de grandes modelos de datos (LLM), como OpenAI. Las organizaciones pueden aprovechar las capacidades de IA generativa sin que se utilicen sus datos privados para entrenar el LLM.

IA generativa de confianza

Las soluciones de IA generativa Einstein de Salesforce están diseñadas, desarrolladas y entregadas de acuerdo con cinco principios para conseguir una IA generativa de confianza.

  • Exactitud: damos prioridad a la exactitud, la precisión y la recuperación en nuestros modelos, y respaldamos los resultados de nuestros modelos con explicaciones y fuentes siempre que sea posible. Recomendamos que un humano verifique la salida del modelo antes de compartirla con los usuarios finales.

  • Seguridad: trabajamos para detectar y mitigar sesgos, toxicidad y resultados dañinos de los modelos utilizados en nuestros productos a través de técnicas de detección y mitigación líderes en la industria.

  • Transparencia: Nos aseguramos de que nuestros modelos y funcionalidades respeten la procedencia de los datos y se basen en sus datos siempre que sea posible.

  • Empoderamiento: Creemos que nuestros productos deberían aumentar las capacidades de las personas y hacerlas más eficientes y decididas en su trabajo.

  • Sostenibilidad: nos esforzamos por crear modelos del tamaño adecuado que prioricen la precisión y reduzcan nuestra huella de carbono.

Para obtener más información sobre la IA de confianza, consulte Investigación de Salesforce: IA de confianza(El enlace se abre en una ventana nueva)

La capa de confianza de Einstein en acción

Tableau AI funciona con Einstein AI y hereda Einstein Trust Layer y los controles de seguridad.

Con Tableau Pulse, basamos los resúmenes de conocimientos que generamos utilizando conocimientos y valores en lenguaje natural basados en plantillas calculados mediante modelos estadísticos deterministas. Tableau Pulse también se basa en una capa de métricas que proporciona un espacio limitado y seguro para detectar información valiosa.

Tableau Pulse utiliza la IA generativa para mejorar y sintetizar el lenguaje de la información generada mediante Tableau. El resultado son conocimientos resumidos en un lenguaje fácil de entender con el que el usuario puede interactuar rápidamente.

Para permitir que Einstein Copilot para Tableau devuelva una visualización, un cálculo o una descripción de recursos, primero debemos conectar Einstein Copilot a sus datos.

Cuando inicia Einstein Copilot, consultamos la fuente de datos a la que está conectado y creamos un resumen de nombres de campo, descripciones, tipos de datos y los primeros 1000 valores de campo únicos (no numéricos) por campo. Este resumen se envía al modelo de lenguaje grande (LLM) para crear inserciones de vectores para que Einstein Copilot pueda comprender el contexto de sus datos. La creación del resumen ocurre dentro de Tableau y el LLM olvida los datos de contexto del resumen tan pronto como se crean las inserciones de vectores.

Cuando escribe una pregunta o solicitud en el panel de conversación en Einstein Copilot, un mensaje combinado que consta de la entrada del usuario, metadatos que describen el estado actual de la visualización (creación web) y el contexto histórico del panel de conversación fluye a través de la capa de confianza de Einstein al LLM. La información confidencial se detecta y se enmascara con texto de marcador de posición para mantener el contexto. Para obtener más información sobre el enmascaramiento de PII, consulte Compatibilidad con el idioma de la región de Einstein Trust Layer(El enlace se abre en una ventana nueva) en la ayuda de Salesforce.

La respuesta regresa a través de Einstein Trust Layer para comprobar la toxicidad y desenmascarar los datos enmascarados. Debido a nuestras políticas de retención de datos cero implementadas con nuestros proveedores externos de LLM, cualquier dato enviado al LLM no se conserva y se elimina después de enviar una respuesta.

El resultado es una visualización, un cálculo o una descripción de recursos lista para su revisión.

Técnicas como esta garantizan que nuestros productos adopten la IA generativa de manera confiable. Al mismo tiempo, los datos de sus clientes no se utilizan para entrenar ningún modelo global.

¿Desea obtener más información sobre la capa de confianza de Einstein? Consulte Einstein Trust Layer: diseñada para la confianza(El enlace se abre en una ventana nueva) en la ayuda de Salesforce, o complete el módulo Einstein Trust Layer(El enlace se abre en una ventana nueva) módulo en Salesforce Trailhead.

Revisión de los resultados de la IA generativa

Tableau AI es una herramienta que puede ayudarle a descubrir conocimientos rápidamente, tomar decisiones comerciales más inteligentes y ser más productivo. Esta tecnología no reemplaza el juicio humano. Usted es, en última instancia, responsable de los resultados generados por LLM que incorpore en su análisis de datos y comparta con sus usuarios.

Ya sea generando cálculos para usar en un flujo de Tableau Prep, resumiendo información sobre las métricas que sigue o creando visualizaciones a partir de sus datos o creando borradores de descripciones de sus recursos de datos, es importante verificar siempre que el resultado del LLM sea preciso y apropiado.

Concéntrese en la precisión y seguridad del contenido antes de incorporarlo a sus flujos, visualizaciones y análisis.

  • Exactitud: la IA generativa a veces puede “alucinar” (fabricar resultados que no se basan en hechos ni en fuentes existentes). Antes de incorporar cualquier sugerencia, verifique que los detalles clave sean correctos. Por ejemplo, ¿la sintaxis propuesta para un cálculo es compatible con Tableau?

  • Sesgo y toxicidad: debido a que la IA es creada por humanos y entrenada con datos creados por humanos, también puede contener prejuicios contra grupos históricamente marginados. En raras ocasiones, algunos resultados pueden contener lenguaje dañino. Verifique sus resultados para asegurarse de que sean apropiados para sus usuarios.

Si el resultado no cumple con sus estándares o necesidades comerciales, no es necesario que lo utilice. Algunas funcionalidades le permiten editar la respuesta directamente antes de aplicarla a sus datos y también puede intentar comenzar de nuevo para generar otro resultado. Para ayudarnos a mejorar el resultado, infórmenos sobre qué estaba mal utilizando los botones de aprobación y desaprobación cuando estén disponibles y proporcione comentarios.

¡Gracias por sus comentarios!Sus comentarios se han enviado correctamente. ¡Gracias!