Protección de datos de IA generativa con Amazon Bedrock

NOTA: Aún no se completó la actualización de la versión en español a v2, sugerimos usar la versión en Inglés por ahora.

Privacidad de la seguridad de los datos

La mayoría de las organizaciones que crean aplicaciones GenAI están preocupadas por cómo proteger los datos que utilizan para personalizar o entrenar sus modelos, no solo de los actores de amenazas que intentan realizar ataques como Prompt Inyection , sino también cómo proteger sus datos y mensajes de los proveedores del modelo fundamental que pueden utilizar sus datos para mejorar el modelo. Es posible que los términos y condiciones no sean una garantía suficiente para su organización. Amazon Bedrock no permite que ningún proveedor de modelos aprenda de sus datos o mensajes.

Seguridad de datos de forma predeterminada

Amazon Bedrock solo permite conexiones cifradas al servicio (cifrado en tránsito) y requiere que usted cifre los datos almacenados en la personalización del modelo (cifrado en reposo)

Puede acceder al punto de conexión de Bedrock directamente desde la VPC mediante un punto de conexión de VPC, sin viajar a través de Internet. Desde on-premise, puede acceder de forma privada mediante Amazon DirectConnect

Arquitectura de Amazon Bedrock

Al utilizar Bedrock, los proveedores de modelos solo pueden escribir su modelo en un S3 Bucket, no tienen acceso para ver sus prompts ni sus modelos personalizados.

Amazon Bedrock GuardRails

Amazon Bedrock Guardrails analiza el mensaje y su respuesta para redirigir la respuesta a “Lo siento, no puedo responder eso” si la solicitud o el resultado no son deseados.

Mitigación de riesgos

  • Los proveedores de modelos básicos pueden aprender de los mensajes o los datos utilizados para personalizar su modelo si acceden directamente.
  • Los modelos pueden confundirse mediante la inyección de indicaciones para proporcionar información que la organización no desea compartir con los usuarios, como opiniones sobre políticos, cómo cometer delitos, proporcionar asesoramiento sobre inversiones o proporcionar información interna o sensible. Guardrails mitigan ese riesgo mediante el análisis de la indicación y su respuesta.

Guía para evaluar su grado de alineación

  • ¿Está creando aplicaciones GenAI? ¿Qué está utilizando?
  • Si no utiliza Bedrock, ¿qué controles de seguridad existen para garantizar que sus datos no se utilicen para entrenar modelos?
  • Si utiliza Bedrock, ¿Ha configurado Guardrails ?

Top 10 de OWASP para aplicaciones LLM

https://owasp.org/www-project-top-10-for-large-language-model-applications/assets/PDF/OWASP-Top-10-for-LLMs-2023-v1_1.pdf

Precios