La inteligencia artificial progresa de manera exponencial en todos los campos y llega incluso al gran público. En las empresas, los empleados la utilizan incluso durante sus reuniones en línea. ¿Cuáles son los desafíos de la IA en términos de seguridad en las videoconferencias?
La inteligencia artificial se invita a tus reuniones en línea
Asistentes virtuales que comunican en tu lugar
Algunos proveedores de videoconferencias ofrecen hoy funciones de asistente virtual, basadas en inteligencia artificial generativa. Integrado en la solución, el asistente virtual puede transcribir, traducir, subtitular los intercambios de una reunión en línea o incluso hacer resúmenes textuales sintéticos.
¿El objetivo? Mejorar la productividad de los usuarios facilitándoles ciertas tareas, como las actas de reuniones, por ejemplo. El colaborador puede concentrarse más en el contenido de los intercambios mientras la IA realiza su trabajo de sintetizar las comunicaciones.
¿Cómo funciona?
El “modelo de lenguaje amplio” se utiliza generalmente para mejorar las videoconferencias con un asistente virtual. Este modelo de inteligencia artificial, bien conocido por el gran público con Chat GPT, permite comprender y generar texto de manera contextual y fluida. Así, se utiliza para transcribir textualmente intercambios en videoconferencias o crear respuestas automáticas. Su entrenamiento se basa en una amplia variedad de datos, lo que le permite comprender y producir lenguaje humano de manera muy precisa. Cuanto más datos procese este modelo, más eficiente será y ofrecerá nuevas respuestas.
La promesa de rendimiento plantea preguntas
En el contexto de una empresa, los datos intercambiados durante las videoconferencias pueden estar relacionados con la propiedad intelectual o contener datos personales de empleados. Cuando estos datos pasan por un asistente virtual, surge la cuestión de la confidencialidad.
En agosto pasado, el proveedor de videoconferencias estadounidense Zoom estuvo en el centro de una polémica. La razón fue una mención en sus términos de uso interpretada como una autorización tácita de usar los contenidos intercambiados durante las reuniones en línea para entrenar su herramienta de IA. Este caso fue rápidamente cerrado por el propio proveedor, que afirmó respetar la integridad de los datos. Sin embargo, las reacciones demostraron la aguda vigilancia de los usuarios en cuanto a la protección de su privacidad. La polémica también abrió el debate sobre la seguridad y la confidencialidad de las comunicaciones tratadas por la IA.
Los datos sensibles pueden estar expuestos
Posibilidades de ataques
Un informe publicado por Cyberhaven en febrero de 2023 indica que los datos sensibles representan el 11 % de lo que los empleados ingresan en ChatGPT. Sin embargo, los empleados tienen pocas garantías (si es que tienen alguna) sobre la protección de los datos que proporcionan a la IA. De hecho, ya en 2021, investigadores habían advertido sobre los “ataques de extracción de datos de entrenamiento“. En otras palabras, observaron la posibilidad de recuperar elementos textuales compartidos con Chat GPT-2 interrogando al sistema sobre elementos específicos que había aprendido anteriormente. Estas técnicas también podrían revelar información personal. En el contexto de las videoconferencias que integran IA generativa, se comparten datos como la recurrencia, los participantes o el tema de una reunión. A través de una serie de interrogaciones contextuales, individuos podrían intentar recuperar esta información del sistema de IA.
Algunos empleados preocupados por sus datos personales
El estudio Perspectivas del empleo de la OCDE proporciona cada año una evaluación de las principales evoluciones de los mercados laborales en los países miembros de la Unión Europea. En su edición 2023, la OCDE realiza un enfoque en el impacto de la inteligencia artificial para los empleados. Se aprende que el 57% de los empleados europeos en los sectores financiero y manufacturero están preocupados por la protección de su privacidad en la era de la IA.
Y con razón, “el volumen de datos personales procesados por los sistemas de IA es a menudo superior al de los datos recopilados por los humanos o por otras tecnologías”, indica también el análisis. Así, durante videoconferencias sensibles, como reuniones de dirección o comités ejecutivos, se pueden recopilar ciertos datos confidenciales. Esto con el objetivo de generar resúmenes, por ejemplo. Pero, ¿cómo asegurarse de que están bien protegidos y no serán reutilizados? Si la inteligencia artificial generativa aprende de los datos que se le proporcionan, ¿es posible que pueda reutilizarlos cuando ofrezca respuestas a otros usuarios?
Vías para asegurar más las comunicaciones con IA
Como destaca la OCDE, dentro de la UE, el Reglamento General de Protección de Datos (RGPD) garantiza la protección de los datos personales e impone obligaciones a las entidades que los procesan. Con la IA, los derechos para la recopilación y el tratamiento de datos se aplican en dimensiones particulares. El sistema debe garantizar la transparencia y el acceso a la información, la corrección, la supresión y la limitación del procesamiento.
En algunos países, proyectos de ley buscan obligar a informar a las personas que interactúan con la inteligencia artificial o a ser más transparentes sobre cómo esta produce datos.
Dentro de la UE, el AI Act surgió en 2021 como la primera regulación en materia de inteligencia artificial. Así, especifica que “iniciativas como la estrategia de ciberseguridad de la UE, la legislación sobre servicios digitales y la legislación sobre mercados digitales, así como la ley sobre gobernanza de datos, proporcionan la infraestructura adecuada para la implementación de tales sistemas“. También se han establecido niveles de riesgo para ajustar las medidas de seguridad a implementar.
La soberanía digital y europea: otro desafío importante
Para las soluciones de videoconferencia que incorporan IA generativa, la vigilancia es crucial. Primero, un alto nivel de seguridad de estas soluciones es indispensable para preservar la confidencialidad de los datos intercambiados. La videoconferencia y sus mecanismos de IA deben estar sujetos a regulaciones estrictas en materia de protección de datos, como el RGPD. Este desafío de soberanía es objeto de discusiones dentro del reciente comité interministerial francés sobre IA generativa. Este comité planea así desarrollar “una cadena de desarrollo soberana de modelos de IA“.
Finalmente, los proveedores de soluciones de videoconferencias deben ser transparentes y ofrecer garantías claras a los usuarios sobre el uso de sus datos. Cabe señalar que cuando estas soluciones no incluyen un verdadero sistema de cifrado de extremo a extremo, la protección de las comunicaciones que transmiten nunca está asegurada.