Você está aqui: Página Inicial / Noticias / ¿Pretendes usar inteligencia artificial? ¡Cuidado con el sigilo de datos!

¿Pretendes usar inteligencia artificial? ¡Cuidado con el sigilo de datos!

El uso de plataformas basadas en inteligencia artificial y machine learning, como chatbots y herramientas de inteligencia generativa, se está volviendo cada vez más común en diversos sectores. Cada vez más accesibles al público en general, esos recursos, de hecho, son capaces de ayudar a los profesionales en sus tareas cotidianas, automatizando tareas, facilitando la atención al cliente e incluso creando trechos enteros de códigos que se integrarán en productos comerciales.

Sin embargo, no todo son flores. Si esas herramientas se usan sin el debido cuidado, su uso puede conllevar muchos riesgos con respecto a la seguridad de la información. Una de las principales amenazas está relacionada al ingreso de datos sigilosos en esas plataformas. Recuerda que las inteligencias artificiales usan toda la información proporcionada por los usuarios para mejorar sus capacidades de respuesta. De esa forma, es posible que puedan transmitir esa información a terceros. 

Imaginemos un ejemplo simple. Al interactuar con un chatbot de inteligencia generativa, los usuarios pueden terminar compartiendo información confidencial, como números de cuenta bancaria, contraseñas, datos médicos o información personal y empresarial sensible. 

Si esos datos se almacenan o se usan de forma inadecuada para el entrenamiento de la plataforma, individuos malintencionados los pueden explotar, derivándose de eso violaciones de privacidad y hasta fraudes.

¿Y cuando la IA es mía?

Otro riesgo significativo es la filtración de datos provenientes de esas herramientas. Si el chatbot u otra herramienta de inteligencia artificial pertenecen a tu organización, esos recursos deben garantizar que la información recogida se almacene de forma segura y protegida contra accesos no autorizados. Como ya lo sabemos, la filtración de datos puede causar daños irreparables a la imagen de la empresa, además de acarrear consecuencias legales y financieras significativas.

Por último, se puede entrenar algoritmos de machine learning a partir de conjuntos de datos que reflejan sesgos e intolerancias existentes en la sociedad. Si esos algoritmos se utilizan en chatbots sin la debida revisión y mitigación, pueden perpetuar prejuicios y discriminaciones. Es fundamental que se realice un análisis criterioso y un monitoreo constante de los datos usados en el entrenamiento de esas herramientas para evitar que se reproduzcan sesgos discriminatorios.

Para mitigar esos riesgos a la seguridad de la información al utilizar herramientas de inteligencia artificial y machine learning, es esencial adoptar algunas medidas básicas. Algunas buenas prácticas incluyen obtener el consentimiento explícito de los usuarios antes de recoger cualquier información personal y eliminar información personal identificable de los conjuntos de datos utilizados en el entrenamiento de los modelos de inteligencia artificial.

También es interesante utilizar el cifrado para proteger los datos almacenados y transmitidos e implementar controles de acceso adecuados para garantizar que solo personas autorizadas puedan manipular los datos recogidos por las herramientas. Además, es necesario realizar revisiones regulares de los algoritmos y modelos utilizados por las herramientas con vistas a identificar y corregir posibles sesgos o comportamientos no deseados.

¡Quienes usan y manipulan datos necesitan entrenamiento!

Por último, el entrenamiento y la concienciación de los colaboradores también tienen un papel importantísimo en la mitigación de esos riesgos. La capacitación para el correcto aprovechamiento de esas tecnologías incluye no solo la transmisión de buenas prácticas, sino también la fácil identificación de amenazas como phishing u otros métodos de ingeniería social.

Artículo originalmente escrito en portugués por el Equipo de Contenido de Perallis Security: Vai usar inteligência artificial? Tome cuidado com o sigilo de dados! — Perallis Security