Usar IA generativa para reducir costos podría aumentar ciberataques

Usar IA generativa para reducir costos podría aumentar ciberataques

Un reciente estudio publicado por un destacado científico computacional advierte que el uso de inteligencia artificial generativa para diseñar, entrenar o ejecutar pasos dentro de un sistema de aprendizaje automático podría aumentar significativamente los riesgos de seguridad cibernética. Michael Lones, profesor de la Escuela de Ciencias Matemáticas y Computacionales de la Universidad Heriot-Watt, argumenta en un nuevo artículo que la IA generativa podría exponer a organizaciones y al público a daños no intencionados.

¿Por qué la IA generativa puede ser peligrosa?

La investigación señala que, si bien la IA generativa ofrece eficiencias en costos y tiempos, su integración en sistemas de machine learning puede introducir vulnerabilidades imprevistas. Lones explica que los modelos generativos, al aprender de grandes volúmenes de datos, pueden replicar sesgos o generar resultados impredecibles que los atacantes podrían explotar.

Principales riesgos identificados

  • Falta de transparencia: Los modelos generativos a menudo actúan como ‘cajas negras’, dificultando la detección de comportamientos maliciosos.
  • Dependencia de datos de terceros: Al usar conjuntos de datos externos, se corre el riesgo de introducir puertas traseras o patrones manipulados.
  • Automatización de decisiones críticas: Delegar tareas de seguridad a la IA generativa sin supervisión humana puede llevar a errores catastróficos.

Implicaciones para empresas y usuarios

El estudio sugiere que las organizaciones que buscan reducir costos mediante la automatización con IA generativa deben sopesar cuidadosamente los riesgos. Lones recomienda implementar auditorías rigurosas y mantener la supervisión humana en procesos clave. Además, insta a los desarrolladores a priorizar la seguridad desde el diseño, en lugar de añadirla como una capa posterior.

Recomendaciones prácticas

  1. Evaluar los modelos generativos con pruebas de estrés y escenarios adversariales.
  2. Mantener registros detallados de las decisiones automatizadas para su revisión.
  3. Establecer equipos multidisciplinarios que incluyan expertos en ética y seguridad.

Un llamado a la acción

Lones concluye que, aunque la IA generativa tiene un enorme potencial, su adopción irresponsable podría tener consecuencias graves. ‘No se trata de rechazar la tecnología, sino de usarla con precaución y responsabilidad’, afirma el investigador. El artículo completo está disponible en la revista académica Computers & Security.

Otros artículos relacionados:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *