Llegamos a ustedes gracias a:



Noticias

Baffle lanza una solución de cifrado para proteger los datos de la IA generativa

[27/09/2023] La empresa de seguridad Baffle ha anunciado el lanzamiento de una nueva solución para proteger datos privados para su uso con IA generativa. Baffle Data Protection for AI se integra con los pipelines de datos existentes y ayuda a las empresas a acelerar los proyectos de IA generativa al tiempo que garantiza que sus datos regulados son criptográficamente seguros y conformes, según la firma.

La solución utiliza el algoritmo estándar de cifrado avanzado (AES) para cifrar los datos confidenciales en todo el proceso de IA generativa, de modo que los usuarios no autorizados no puedan ver los datos privados en texto claro, añade Baffle.

Los riesgos asociados al intercambio de datos confidenciales con la IA generativa y los grandes modelos lingüísticos (LLM, por sus siglas en inglés) están bien documentados. La mayoría se refieren a las implicaciones para la seguridad de compartir datos privados con algoritmos avanzados y públicos de aprendizaje automático, lo que ha llevado a algunas organizaciones a prohibir o limitar determinadas tecnologías de IA generativa, como ChatGPT.

Los servicios privados de IA generativa se consideran menos arriesgados, en concreto las implementaciones de generación aumentada por recuperación (RAG, por sus siglas en inglés) que permiten calcular localmente incrustaciones en un subconjunto de datos. Sin embargo, incluso con la RAG, no se han tenido plenamente en cuenta las implicaciones para la privacidad y la seguridad de los datos.

La solución anonimiza los valores de los datos para evitar la filtración de datos en texto claro.

Baffle Data Protection for AI cifra los datos con el algoritmo AES cuando se introducen en el canal de datos, explica la empresa en un comunicado de prensa. Cuando estos datos se utilizan en un servicio privado de IA generativa, los valores de los datos sensibles se anonimizan, por lo que no puede producirse una fuga de datos en texto claro ni siquiera con ingeniería inmediata o provocación adversaria, afirmó.

Según Baffle, los datos sensibles permanecen encriptados independientemente de dónde se muevan o transfieran en el proceso generativo, lo que ayuda a las empresas a cumplir requisitos de conformidad específicos, como el derecho al olvido del Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés), destruyendo la clave de encriptación asociada. Además, la solución evita que los datos privados queden expuestos también en los servicios públicos de IA generativa, ya que la información de identificación personal (IIP) se anonimiza.

"ChatGPT ha sido un disruptor corporativo, obligando a las empresas a desarrollar o acelerar sus planes para aprovechar la IA generativa en sus organizaciones, pero la seguridad de los datos y las preocupaciones de cumplimiento han estado sofocando la innovación", sostuvo Ameesh Divatia, fundador y CEO de Baffle.