Você está aqui: Página Inicial / Noticias / Inteligencia artificial: ¿qué tiene que ver contigo y con la ciberseguridad?

Inteligencia artificial: ¿qué tiene que ver contigo y con la ciberseguridad?

Con la popularización de chatbots de inteligencia artificial, los gigantes de la tecnología empezaron a correr contra el tiempo para ofrecer herramientas que usen ese tipo de tecnología. Ahora, tenemos herramientas capaces de crear una variedad de contenidos a partir de unas pocas palabras del usuario.

¿Cómo funciona la IA?

En la práctica, la conversación mediada por IA tiende a ser una secuencia de pedidos (prompts) mediante los cuales se puede solicitar un artículo, guiones, letras de canciones y hasta códigos de programación.  La inteligencia artificial absorbe todo lo que recibe y forma una especie de repertorio creativo. Por eso, es necesario tener cuidado con lo que compartes, puesto que la IA puede usar la información que aprende contigo para dar respuestas más precisas a otros usuarios.

El mecanismo por detrás de esas herramientas de inteligencia artificial es el llamado machine learning (aprendizaje de máquina). Al contrario de las aplicaciones comunes, que tienen una programación específica diseñada por un ser humano, el algoritmo de la inteligencia artificial está hecho para encontrar asociaciones y probabilidades en grandes volúmenes de datos. La funcionalidad de la IA es un resultado de esas asociaciones y de las correcciones humanas a sus errores.

Conoce aquí algunos ejemplos de lo que la IA es capaz de hacer.

  • Reconocer objetos: la IA puede "aprender" qué es un gato procesando millones de fotos de gatos (y perros, humanos, autos...);

  • Comprensión del habla: la IA no tiene un código que interprete una lengua, pero compara infinitas horas de voces grabadas con su respectiva transcripción;

  • Asistente de programación: la IA puede "aprender" programación imitando los códigos que encuentra en repositorios en línea.

¿Cómo se usa la IA en el cibercrimen?

Debido al crecimiento explosivo y reciente de la inteligencia artificial, algunos ciberdelincuentes han empezado a usar IA para la creación de estafas. Algunos ejemplos son:

  • Deepfakes: la IA crea excelentes imitaciones probabilísticas, permitiendo generar contenido falso con la voz y la cara de personas reales. Es posible crear imágenes de desnudez o de actos explícitos totalmente falsos utilizando la cara de una persona que nunca estuvo en esa situación. 

  • Phishing: los e-mails de phishing generalmente usan un texto idéntico para miles o millones de personas, lo que facilita el bloqueo de los mensajes. Con la IA, los mensajes pueden pasar a ser diferentes e incluso más personalizados.

  • Envenenamiento de la IA: como la IA necesita procesar información, un delincuente puede inyectar datos maliciosos en la IA para perjudicar su uso.

¿Cuándo es peligroso usar la IA?

Las "IA generativas" son capaces de crear contenido aparentemente original, ya sean imágenes, textos, e-mails o resúmenes. También tienden a ser las más imprevisibles.

La IA trabaja con probabilidades, lo que significa que puede equivocarse o "alucinar". No hay garantía de que los datos incorporados a un artículo generado por IA estén correctos, por ejemplo. Es necesario verificarlo todo.

Y las imágenes generadas por IA pueden incluir contenido protegido por derechos de autor. Es difícil saber con seguridad cómo se “entrenó” a una IA. Esto quiere decir que la IA puede haber sido alimentada por imágenes protegidas y, por lo tanto, reproducir trechos de ese material. Las imágenes también pueden contener deformaciones inesperadas.

El mayor riesgo lo representa el hecho de que muchas IA se ofrecen en la forma de sitios o aplicaciones conectadas y comparten todos los datos de la sesión de uso. En la práctica, el uso de ese tipo de IA puede ser incompatible con leyes de protección a la privacidad o con contratos de confidencialidad, especialmente si no está disponible ninguna configuración de privacidad.

Durante el entrenamiento de la IA, los chats de las sesiones de uso quedan a la vista de humanos.

Algunas organizaciones están contratando servicios de IA dedicados y privados, pero hay empresas que restringen el uso de IA generativa remota para evitar infracciones.

¿Cuándo es seguro usar la IA?

La IA generativa se debe usar con cuidado y atención total a las configuraciones de privacidad de cada servicio.

En cambio, la IA se puede usar fácilmente y con seguridad en contextos no generativos. Algunas reconocen texto, lo que puede resultar muy útil para digitalizar documentos. También hay inteligencias artificiales que mejoran la calidad de vídeo y restauran imágenes, lo que puede ayudar a recuperar memorias grabadas en cintas o fotos dañadas por el tiempo. Actualmente, muchos smartphones perfeccionan sus fotos automáticamente mediante IA.

Muchas IA están imponiendo barreras para evitar su uso impropio y algunos gobiernos estudian proyectos de ley que obliguen a incluir marcas de agua en vídeos producidos con IA para inhibir el uso de deepfakes. Sin embargo, hasta el momento, el escenario sigue siendo bastante incierto.

Artículo originalmente escrito en portugués por el Equipo de Contenido de Perallis Security: Inteligência artificial: o que ela tem a ver com você e com a cibersegurança? — Perallis Security