1

Machine learning: ¿oportunidad o amenaza en ciberseguridad?

En la guerra que el resto del mundo lucha contra los hackers, el machine learning podría representar un cambio fundamental.

CIO AMÉRICA LATINA | Por Elibeth Eduardo | @ely_e

Frente a la opción de miles de nuevos malwares creados y diseminados en el mundo a cada segundo, la idea de que el machine learning puede crear mejores barreras de seguridad parece una respuesta a las plegarias.

Mejor aún si esta tecnología puede establecer el comportamiento del malware y crear algoritmos cambiantes de seguridad que, si no pueden impedir que el mismo ingrese a nuestros sistemas, puede “perderlo” o retrasarlo antes de que alcance la información sensible, valiosa y relevante.

Este es el tipo de desarrollos en el que han estado trabajando los más grandes laboratorios / empresas de seguridad global, con miras a que la “Era hackers” sea similar a la vikinga. Es decir, parte de una historia que pasó hace mucho tiempo.

El hecho de que, además, la computación cognitiva pueda contar con la potencia y capacidad de procesamiento de los ordenadores cuánticos es, para muchos, la noticia que faltaba para pensar en tiempos mejores.

A menos (claro) que alguien hackee a Watson o a Q. El mundo nunca más sería el mismo.

¿Se puede hackear a Skynet?

Justo en este punto (donde suelen ir los “peros”) recordamos que, en Terminator 3: La Rebelión de las máquinas, Skynet se “disfrazó” de virus y simuló ataques en todo el mundo para que lo activarán y tomar el control de las armas.

Sin el melodramatismo cinematográfico, ese temor podría comenzar a tener sentido si los ciberdelincuentes logran hackear al machine learning ANTES de que el algoritmo inicie el proceso de aprendizaje automático a favor de nuestra seguridad.

“La preocupación es encontrar un adversario (hacker) capaz de controlar nuestros sistemas inteligentes con un gran entorno de datos“, ha afirmado la responsable de la unidad de investigación de la NSA, Deborah Frincke,

En 2016, el profesor de la Universidad de Monash, Tom Drummond, hizo un hallazgo alarmante: las redes neuronales (enfoque fundamental del aprendizaje de máquina) pueden desviarse sin retorno, a menos que se les diga por qué están equivocadas.

¿Qué significa esto? Qué si la intervención del atacante ocurre en el momento correcto, el machine learning puede (y seguramente) será usado en nuestra contra.

Inteligencia para el mal

Este aterrador escenario (cercano a Skynet) es posible debido a que:

  • La defensa de la red es asimétrica y exige que la empresa (el defensor) detecte y cierre todas sus vulnerabilidades de seguridad.
  • En contraste, el atacante lo que requiere es girar las instrucciones en el momento preciso. Es decir, basta con que esté en el sitio correcto una sola vez.

Para contrarrestar esta amenaza, las empresas deben tener respaldos en nube que le permitan “deshacer” la programación.

Esto es mejor que reprogramar lo cual aumentaría la carga cognitiva del atacante, el cual podría jugar con sus sesgos cognitivos.

¿Seguro que no estamos hablando de Juegos de Guerra? Como sea, al parecer, el futuro de la ciberseguridad (de todas todas) va a ser de película.