Presentado por Capital One Programas
La tokenización se está convirtiendo en una piedra angular de la seguridad de datos moderna, ayudando a las empresas a separar el valor de sus datos de su riesgo. Durante este VB en conversaciónRavi Raghu, presidente de Capital One Software, habla sobre cómo la tokenización puede ayudar a reducir el valor de los datos vulnerados y preservar el formato y la usabilidad de los datos subyacentes, incluida la propia experiencia de Capital One aprovechando la tokenización a escala.
La tokenización, afirma Raghu, es una tecnología muy superior. Convierte datos confidenciales en un sustituto digital no confidencial, llamado token, que se asigna al original, que está protegido en una bóveda digital. El marcador de posición del token conserva el formato y la utilidad de los datos confidenciales y se puede utilizar en diversas aplicaciones, incluidos los modelos de IA. Debido a que la tokenización elimina la necesidad de administrar claves de cifrado o dedicar computación al cifrado y descifrado constantes, ofrece una de las formas más escalables para que las empresas protejan sus datos más confidenciales, añadió.
“La parte mortal, desde el punto de vista de la seguridad, cuando lo piensas en relación con otros métodos, si un mal actor obtiene los datos, obtiene los tokens”, explicó. “Los datos reales no permanecen en el token, a diferencia de otros métodos como el cifrado, donde los datos reales permanecen allí, esperando a que alguien obtenga una clave o use la fuerza bruta para llegar a los datos reales. Desde todos los ángulos, esta es la forma ideal de proteger los datos confidenciales”.
El diferenciador de la tokenización
La mayoría de las organizaciones solo están arañando la superficie de la seguridad de los datos, agregando seguridad al final, cuando se leen los datos, para evitar que un usuario final acceda a ellos. Como mínimo, las organizaciones deben centrarse en proteger los datos registrados tal como se almacenan. Pero las mejores organizaciones van aún más allá y protegen los datos desde su nacimiento, el momento en que se crean.
En un extremo del espectro de seguridad se encuentra un enfoque simple de bloqueo y llave que restringe el acceso pero deja intactos los datos subyacentes. Los métodos más avanzados, como enmascarar o modificar datos, alteran permanentemente su significado, lo que puede comprometer su utilidad. El cifrado a nivel de archivos ofrece una protección más amplia para grandes volúmenes de datos almacenados, pero cuando se llega al cifrado a nivel de campo (por ejemplo, un número de Seguro Social), se convierte en un desafío mayor. Se necesitan muchos cálculos para cifrar un solo campo y luego descifrarlo en el punto de uso. Y todavía hay un error fatal: los datos originales siguen ahí, sólo se necesita la clave para acceder a ellos.
La tokenización evita estos problemas al reemplazar los datos originales con un sustituto que no tiene valor intrínseco. Si el token es interceptado (ya sea por la persona equivocada o por la máquina equivocada), los datos en sí permanecen seguros.
El valor comercial de la tokenización
“Básicamente, estás protegiendo los datos, y eso no tiene precio”, dijo Raghu. “Otra cosa que no tiene precio: ¿se puede utilizar esto para fines de modelado más adelante? Por un lado, es una cuestión de protección y, por otro lado, es algo que permite el negocio”.
Debido a que la tokenización preserva la estructura y la ordinalidad de los datos originales, aún se puede utilizar para modelado y análisis, transformando la protección en un habilitador de negocios. Tomemos, por ejemplo, los datos de atención médica privada regidos por HIPAA: la tokenización significa que los datos pueden usarse para construir modelos de precios o para investigaciones de terapia génica sin dejar de cumplir con las normas.
“Si sus datos ya están protegidos, puede proliferar el uso de datos en toda la empresa y hacer que todos creen más y más valor a partir de los datos”, dijo Raghu. “Por otro lado, si no se tiene eso, hoy en día las empresas se muestran muy reticentes a que más personas accedan, o que más y más agentes de IA accedan a sus datos. Irónicamente, están limitando el alcance de la innovación. El impacto de la tokenización es enorme, y hay muchas métricas que se pueden utilizar para medirlo: impacto operativo, impacto en los ingresos y, obviamente, tranquilidad desde una perspectiva de seguridad”.
Derribar barreras a la adopción
Hasta ahora, el desafío fundamental de la tokenización tradicional ha sido el rendimiento. La IA requiere una escala y una velocidad sin precedentes. Este es uno de los principales desafíos que enfrenta Capital One con Databolt, su solución de tokenización sin bóveda, que puede producir hasta 4 millones de tokens por segundo.
“Capital One ha estado tokenizando durante más de una década. Comenzamos a hacerlo porque atendemos a nuestros 100 millones de clientes bancarios. Queremos proteger estos datos confidenciales”, dijo Raghu. “Comemos nuestra propia comida para perros con nuestra capacidad interna de tokenización, más de 100 mil millones de veces al mes. Tomamos ese conocimiento y esa capacidad, escala y velocidad, y los innovamos para que el mundo pueda aprovecharlos, para que pueda ser una oferta comercial”.
La tokenización sin bóveda es una forma avanzada de tokenización que no requiere una base de datos central (bóveda) para almacenar asignaciones de tokens. En cambio, utiliza algoritmos matemáticos, técnicas criptográficas y mapeo determinista para generar tokens dinámicamente. Este enfoque es más rápido, más escalable y elimina el riesgo de seguridad asociado con la gestión de una bóveda.
“Nos dimos cuenta de que, dadas las demandas de escala y velocidad que teníamos, necesitábamos desarrollar esta capacidad nosotros mismos”, dijo Raghu. “Hemos iterado continuamente para garantizar que pueda escalar hasta cientos de miles de millones de operaciones por mes. Toda nuestra innovación ha girado en torno a la creación de propiedad intelectual y la capacidad de hacerlo a una escala probada en batalla dentro de nuestra empresa con el fin de servir a nuestros clientes”.
Si bien los métodos convencionales de tokenización pueden implicar cierta complejidad y ralentizar las operaciones, Databolt se integra perfectamente con almacenes de datos cifrados, lo que permite a las empresas mantener una seguridad sólida sin ralentizar el rendimiento ni las operaciones. La tokenización ocurre en el entorno del cliente, lo que elimina la necesidad de comunicarse con una red externa para realizar operaciones de tokenización, lo que también puede disminuir el rendimiento.
“Creemos fundamentalmente que la tokenización debería ser fácil de adoptar”, dijo Raghu. “Tienes que ser capaz de proteger tus datos muy rápidamente y operar a la velocidad, escala y costos que tienen las organizaciones. Creo que esto ha sido una barrera crítica hasta ahora para la adopción a gran escala de la tokenización. En un mundo de IA, esto se convertirá en un gran facilitador”.
no te pierdas la conversación completa con Ravi Raghu, presidente de Capital One Software, aquí.
Los artículos patrocinados son contenidos producidos por una empresa que paga por la publicación o tiene una relación comercial con VentureBeat y siempre están claramente marcados. Para más información, póngase en contacto ventas@venturebeat.com.

















