Robots rebeldes y fallos humanos: La IA en la ciberseguridad
Cuando la mayoría de la gente oye el término Inteligencia Artificial (IA) piensa en las películas de ciencia ficción que presentan robots que se vuelven locos e intentan aniquilar a los humanos. La verdad es que la IA es mucho más que eso. La combinación del aprendizaje automático en seguridad, las redes neuronales y la toma de decisiones puede llevar, y ha llevado, la tecnología a nuevas cotas.
Las primeras aplicaciones de la IA por ordenador se remontan a 1951, y se han producido importantes avances a medida que ha aumentado la potencia de cálculo de los ordenadores (Buchanan, AI Magazine, 2005). Hay personas que creen que la IA desempeñará un papel importante en el futuro de la ciberseguridad. Esto es evidente porque la IA y las redes neuronales pueden hacer más trabajo que los humanos en menos tiempo. Además, no necesitan vacaciones y no se enferman. Una vez programadas, tienen una tasa de error muy pequeña, y si hay un error, suele estar en la programación, que es un error humano.
El verdadero problema es que la IA siempre va a reaccionar ante un ciberincidente siguiendo un algoritmo específico, basado en el análisis del árbol de decisiones y los algoritmos que utiliza para la "lógica". Este es un defecto fundamental de todos los sistemas informáticos. Si un programa de software puede ser programado, entonces puede ser desprogramado. Se pueden encontrar fallos y debilidades para explotar un punto débil del sistema. Si se conoce este algoritmo, los piratas informáticos pueden trabajar para evitar las salvaguardias de seguridad que inician una respuesta cibernética y, por tanto, eludir y prolongar la reacción del sistema. La solución ideal es que los humanos y las máquinas trabajen juntos. Se ha documentado que los humanos tienen un profundo miedo/reticencia a trabajar con ordenadores si no saben cómo se espera que el ordenador reaccione (Rouse, Human Factors, 1988).
Creo que esta investigación está anticuada y que los individuos se están acostumbrando más a trabajar con ordenadores y a confiar en ellos. Con la incorporación de la IA y las redes neuronales, la mayoría de los expertos en ciberseguridad pueden no confiar en el algoritmo que se utiliza para tomar las decisiones de la IA; por lo tanto, la experiencia individual jugará un papel importante en la forma en que utilicen el resultado del ordenador. Yo sugeriría no poner al ordenador en la posición de respuesta final a un ciberincidente, sino permitirle sugerir respuestas que puedan ser llevadas a cabo por el socio humano en la relación. La IA podría ser programada para analizar grandes cantidades de datos en busca de anomalías o patrones específicos que ya se sabe que son un problema cibernético y luego reportar esa información a la contraparte humana. Si la contraparte humana se siente cómoda con los datos que la IA está produciendo, entonces tendría la opción de permitir que la IA responda automáticamente al incidente cibernético. Creo que esta opción llevará un tiempo para que se forme la relación de confianza. Una vez que se forme esta relación, los ciberincidentes se gestionarán de forma más eficiente.
La IA se utiliza en muchos ámbitos de la industria de la ciberseguridad. En los escenarios militares existe la necesidad de utilizar la robótica de IA para tomar decisiones en situaciones peligrosas. Poner un robot de IA en peligro es una alternativa mejor que arriesgar vidas humanas (Yeh, P. Z., & Crawford, J., AI Magazine, 2017). Utilizar robots de IA para inspeccionar la fabricación es una forma de automatizar el papel de un humano en la producción (Norman, D., Research-Technology Management, 2017).
Utilizar la IA en la fabricación significa que no tendremos tantos ingenieros de línea haciendo inspecciones de los productos. Los ordenadores y las cámaras harían las comprobaciones iniciales y luego un humano podría hacer un seguimiento si surgieran problemas. Por lo tanto, el papel de un ingeniero de línea debe ahora evolucionar hacia alguien que pueda leer y entender la salida del sistema informático. Lo mismo puede decirse de un ingeniero/analista de defensa de redes o de endurecimiento de infraestructuras: dejar que la IA robótica haga la primera pasada y ponga los cimientos. A continuación, que el humano compruebe que cumple las normas. Deje que las redes neuronales realicen el análisis de los datos e informen sobre los datos que quedan fuera. Así se agilizará la tarea diaria, al tiempo que se integran los ordenadores, la IA, la ciberseguridad y los humanos. El objetivo general debería ser ser más seguro si se integra la inteligencia artificial en los sistemas de seguridad.
Confiar plenamente en la IA para que se encargue de todas las tareas sería un empeño insensato y bien podría conducir a las historias de horror de la ciencia ficción. Utilizar la IA para realizar tareas que puedan acelerar la producción y el rendimiento de los humanos es una idea que da miedo a veces, pero que debería adoptarse a medida que la tecnología evoluciona.