Confiar a la IA generativa los secretos de su empresa y los datos de sus clientes y al mismo tiempo hacer balance de sus beneficios continúa siendo un desafío hoy en día. La capa de confianza de Einstein es una arquitectura de IA segura integrada en la plataforma de Salesforce. Se trata de un conjunto de acuerdos, tecnología de seguridad y controles de privacidad y datos que se utilizan para proteger a su empresa mientras explora las soluciones basadas en la IA generativa.
Tableau AI se basa en la capa de confianza de Einstein y hereda todas sus capacidades de seguridad, gobernanza y confianza.
![](Img/trust_layer_zero_data_retention_GAI.png)
| Política de cero retención de datos Ningún LLM de terceros retiene sus datos. Nos hemos asociado con Open AI y Azure Open AI para aplicar la política de cero retención de datos. No se utiliza ningún dato para entrenar el modelo LLM ni para mejorar el producto. Los datos no se almacenan fuera de Tableau. Nadie tiene acceso a los datos que se envían al LLM.
|
![Recuperación segura de datos](Img/trust_layer_secure_data_retrieval_GAI.png) | Base dinámica con recuperación segura de datos La información relevante de los datos de Tableau se fusiona con la instrucción para proporcionar contexto. La recuperación segura de los datos de Tableau proporciona una base para la instrucción en función de los permisos del usuario que la ejecuta. La recuperación segura de los datos mantiene todos los controles estándar basados en roles de Tableau para los permisos de usuario y la seguridad a nivel de campo a la hora de fusionar los datos básicos de su fuente de datos de Tableau.
|
![Protección de las instrucciones](Img/trust_layer_prompt_defense_GAI.png) | Protección de las instrucciones Las políticas del sistema contribuyen a limitar las alucinaciones y a disminuir la probabilidad de que el LLM produzca resultados no deseados o perjudiciales. El LLM no realiza ningún cálculo para generar una respuesta analítica. Las políticas del sistema pueden variar en función de las diferentes funciones y casos de uso de la IA generativa.
|
![Enmascaramiento de datos](Img/trust_layer_data_masking_GAI.png) | Enmascaramiento de datos |
![Puntuación de toxicidad](Img/trust_layer_toxicity_GAI.png) | Puntuación de toxicidad |
![Auditoría](Img/trust_layer_auditing_GAI.png) | Auditoría Disponible solo con Tableau Las indicaciones, respuestas y señales de confianza se registran y almacenan en Data Cloud. Los comentarios se pueden utilizar para mejorar las plantillas de mensajes. Proporciona informes y dashboards prediseñados para análisis.
|