Sin embargo, con esta adopción, existen crecientes preocupaciones sobre cómo se procesan, monitorean y protegen estos datos, y el 51% de las empresas en el Reino Unido e Irlanda están preocupadas por la privacidad de sus datos.

La plataforma de software hotelero impulsada por IA, Access Hospitality, realizó un nuevo estudio sobre IA y seguridad, encuestando a 1.000 empresas y 8.000 consumidores en seis mercados internacionales para comprender las actitudes de los operadores y consumidores hacia la privacidad de los datos y la adopción segura de la IA.

En respuesta a los hallazgos, Conor Whelan, director de TI de Access Group, y Diego Baldini, director de TI, ofrecen consejos a las empresas sobre cómo mantener seguros sus datos cuando utilizan herramientas de inteligencia artificial.

El 51% de los operadores del Reino Unido e Irlanda están preocupados por la seguridad de los datos cuando utilizan herramientas de IA

Al 45% de los operadores en el Reino Unido e Irlanda les preocupa compartir datos críticos de la empresa utilizando herramientas de inteligencia artificial, lo que pone de relieve una brecha de confianza a medida que aumenta la adopción.

Las mayores preocupaciones de los operadores son la seguridad y privacidad de los datos (51%) y las normas de protección de datos (38%). A esto le sigue casi un tercio (31%) de los operadores que están preocupados por su comprensión limitada de las herramientas de IA.

Las preocupaciones de las empresas de alimentación, bebidas y hoteles sobre compartir datos de la empresa con herramientas de IA se mantienen estables: 45% y 46%.

Las empresas con menos de 25 sedes son las más reticentes: más de la mitad están preocupadas por compartir datos, en comparación con sólo el 33% de las sedes más grandes. Esto puede sugerir que el acceso a marcos y experiencia internos influye en la confianza en la IA.

La privacidad de los datos es una de las mayores preocupaciones de los consumidores a medida que aumenta el uso de la inteligencia artificial en la industria hotelera

En promedio, casi un tercio de los consumidores globales teme que su información y sus hábitos personales puedan ser mal utilizados, y a otro 21% le preocupa sentirse monitoreado.

En el Reino Unido, el 28% de los consumidores teme que la IA pueda hacer un mal uso de su información o de sus hábitos personales, mientras que a 1 de cada 5 consumidores le preocupa sentirse monitoreado o monitoreado constantemente.

Estas preocupaciones sobre la privacidad contribuyen a generar sentimientos encontrados sobre el creciente uso de la IA en la hostelería: el 41% de los consumidores del Reino Unido están preocupados y el 37% entusiasmados.

“El mensaje a los operadores es claro. Con un 41% de los consumidores del Reino Unido escépticos sobre el creciente uso de la IA en la hostelería y un 28% preocupado por su privacidad, las empresas deben priorizar la transparencia y la seguridad para generar confianza”, añade Champa Magesh, directora general de Access Hospitality.

Medidas que las empresas pueden tomar para proteger sus datos mientras utilizan la IA

Cree una política clara de IA y comuníquesela a todos sus colegas
“Cree una política formal de IA que defina qué datos pueden y no pueden introducirse en los sistemas de IA, qué herramientas están aprobadas y quién es responsable de la supervisión”, aconseja Champa Magesh, director general de Access Hospitality.

Asegúrese de comunicar esto claramente a todos los empleados y asegúrese de que comprendan lo que significa la política.

Conor Whelan, director de TI de The Access Group, comenta: “La mayoría de las filtraciones de datos no son el resultado de ataques sofisticados: provienen de brechas cotidianas de las que cualquier organización puede ser víctima. Cuando se trata de IA, tener una política clara es importante, pero debe estar respaldada por los controles técnicos adecuados. Las personas necesitan saber qué pueden y qué no pueden poner en un sistema de IA, y la tecnología debe hacer cumplir estos límites, no solo confiar en las buenas intenciones. Esta combinación (política, controles y reevaluación regular) es la forma en que las empresas reducir el “Riesgo a propósito”.

Educar y capacitar a los empleados.
Ciampa cree que la industria necesita “educar y capacitar a los empleados sobre lo que constituye información comercial confidencial, los riesgos de introducir esta información en los sistemas de IA y las mejores prácticas para el uso de la IA”.

Utilice plataformas seguras de IA
“Evite ingresar información confidencial en herramientas de inteligencia artificial disponibles públicamente que no garantizan cómo se utilizará y almacenará la información”, aconseja Ciampa. “Los sistemas como OpenAI plantean graves riesgos para la confidencialidad y la seguridad de los datos cuando los utilizan personas que no saben cómo estos sistemas procesan la información”.

Elija plataformas seguras que protejan los datos y garanticen que permanezcan seguros y bajo su control.

Diego Baldini, CIO de The Access Group, comenta: “En el momento en que introduces datos empresariales confidenciales en una herramienta de IA disponible públicamente, pierdes el control sobre ella. No es un riesgo que valga la pena correr. Las empresas que utilizan la IA eligen correctamente plataformas construidas con la seguridad en su núcleo, donde los datos están protegidos, permanecen bajo su propiedad y no se utilizan para entrenar modelos sobre los que no tienen visibilidad. Esto es lo que los operadores estándar deberían exigir”.

Acceso a la hostelería (Parte de Access Group) ofrece productos y herramientas de gestión personalizados para ayudar a los operadores a lograr un crecimiento sostenible aumentando la afluencia, los ingresos, los márgenes, la reputación y la lealtad. Nuestro ecosistema de software inteligente ofrece resultados reales para más de 45.000 propiedades hoteleras en todo el Reino Unido y más de 100.000 lugares en todo el mundo.

Fuente