Diay, maes, pongámonos serios un toque. Imagínese este escenario: usted le da las llaves de la RECOPE, del ICE y de todos los bancos del país a una Inteligencia Artificial súper avanzada y se va a dormir tranquilo. ¿Suena bien? Pues, según dos cargas en la materia, esa paz podría durar muy poco. En un conversatorio reciente, las expertas Maga Masís y Paula Brenes pusieron los puntos sobre las íes en una vara que nos afecta a todos: la ciberseguridad de nuestra infraestructura crítica. La conclusión es clara: usar IA para defendernos es indispensable, pero dejarla sola al volante es buscarse un problema mayúsculo. Necesitamos un modelo híbrido, con la máquina haciendo el brete pesado y un humano asegurándose de que no se jale una torta.
Paula Brenes, de la Fundación YOD, lo explicó sin pelos en la lengua. La única forma de ganarle a los ciberataques que usan IA es, irónicamente, con nuestra propia IA. Es como una carrera armamentista digital. El problema, dice ella, es que si le delegamos por completo las decisiones a un algoritmo sobre, digamos, la red eléctrica nacional, el riesgo es altísimo. Es como poner un wachimán robot que nunca duerme, lo cual suena genial, pero si se le safa un tornillo y confunde al técnico del ICE con un hacker ruso, ¡qué despiche se puede armar! Brenes está preocupada de que en esa confianza ciega es donde nos podemos ir al traste, porque un error de la IA en ese nivel no es que se le borra un archivo, es que deja a medio país sin luz o sin agua.
Por su lado, Maga Masís, que es una experta en derecho informático, le metió más leña al fuego. Dijo que, seamos honestos, hoy por hoy la mayoría de sistemas de seguridad todavía están en “modo reactivo”. O sea, andamos apagando incendios en vez de evitar que empiecen. Aunque ya existe una capa predictiva, Masís insiste en que no estamos ni cerca del punto en que podamos decirle a la IA: “ahí se lo dejo, me avisa cualquier vara”. Ella propone que tiene que haber un filtro humano, alguien que supervise, que entienda el modelo a fondo y que tenga el criterio para decir: “Mae, esto que la IA marcó como ataque es una falsa alarma” o, peor aún, “esto que la IA ignoró sí es un problema serio”. Ese humano no es un simple operador; es el traductor entre la lógica fría de la máquina y la caótica realidad.
Y aquí es donde la vara se pone más densa. Ambas profesionales alertaron sobre el peligro de los “falsos positivos”. Imagínese que el sistema de seguridad de un banco le grite “¡ATAQUE, ATAQUE!” cien veces al día por puras falsas alarmas. A la ciento uno, cuando el ataque sea de verdad, ya nadie le va a hacer caso. Es el cuento de Pedrito y el lobo, pero con código y millones de colones en juego. Brenes fue todavía más directa y soltó una bomba: en su opinión, mucha de la tecnología se está construyendo mal de fábrica, “no es segura por diseño”. El problema de fondo, según ella, es que quienes crean estos chunches no están pensando en la gente. Y si la base está mala, por más IA que le ponga encima, la estructura sigue siendo débil.
Al final, el meollo del asunto parece ser la confianza y el origen de los datos. Masís habló de volver al principio de “cero confianza” y de preguntarse siempre de dónde carajos vienen los datos con los que se entrena a estas inteligencias. Si usted entrena a su IA con datos sesgados o “envenenados”, los resultados van a ser un desastre. La vara no es tenerle miedo a la tecnología ni satanizarla, sino entender que es una herramienta increíblemente poderosa, pero una herramienta al fin y al cabo. Por ahora, parece que la combinación ganadora es la inteligencia de la máquina y la malicia (en el buen sentido) del ser humano. Una sin la otra, en temas tan críticos, suena a una sal que nadie quiere probar.
Paula Brenes, de la Fundación YOD, lo explicó sin pelos en la lengua. La única forma de ganarle a los ciberataques que usan IA es, irónicamente, con nuestra propia IA. Es como una carrera armamentista digital. El problema, dice ella, es que si le delegamos por completo las decisiones a un algoritmo sobre, digamos, la red eléctrica nacional, el riesgo es altísimo. Es como poner un wachimán robot que nunca duerme, lo cual suena genial, pero si se le safa un tornillo y confunde al técnico del ICE con un hacker ruso, ¡qué despiche se puede armar! Brenes está preocupada de que en esa confianza ciega es donde nos podemos ir al traste, porque un error de la IA en ese nivel no es que se le borra un archivo, es que deja a medio país sin luz o sin agua.
Por su lado, Maga Masís, que es una experta en derecho informático, le metió más leña al fuego. Dijo que, seamos honestos, hoy por hoy la mayoría de sistemas de seguridad todavía están en “modo reactivo”. O sea, andamos apagando incendios en vez de evitar que empiecen. Aunque ya existe una capa predictiva, Masís insiste en que no estamos ni cerca del punto en que podamos decirle a la IA: “ahí se lo dejo, me avisa cualquier vara”. Ella propone que tiene que haber un filtro humano, alguien que supervise, que entienda el modelo a fondo y que tenga el criterio para decir: “Mae, esto que la IA marcó como ataque es una falsa alarma” o, peor aún, “esto que la IA ignoró sí es un problema serio”. Ese humano no es un simple operador; es el traductor entre la lógica fría de la máquina y la caótica realidad.
Y aquí es donde la vara se pone más densa. Ambas profesionales alertaron sobre el peligro de los “falsos positivos”. Imagínese que el sistema de seguridad de un banco le grite “¡ATAQUE, ATAQUE!” cien veces al día por puras falsas alarmas. A la ciento uno, cuando el ataque sea de verdad, ya nadie le va a hacer caso. Es el cuento de Pedrito y el lobo, pero con código y millones de colones en juego. Brenes fue todavía más directa y soltó una bomba: en su opinión, mucha de la tecnología se está construyendo mal de fábrica, “no es segura por diseño”. El problema de fondo, según ella, es que quienes crean estos chunches no están pensando en la gente. Y si la base está mala, por más IA que le ponga encima, la estructura sigue siendo débil.
Al final, el meollo del asunto parece ser la confianza y el origen de los datos. Masís habló de volver al principio de “cero confianza” y de preguntarse siempre de dónde carajos vienen los datos con los que se entrena a estas inteligencias. Si usted entrena a su IA con datos sesgados o “envenenados”, los resultados van a ser un desastre. La vara no es tenerle miedo a la tecnología ni satanizarla, sino entender que es una herramienta increíblemente poderosa, pero una herramienta al fin y al cabo. Por ahora, parece que la combinación ganadora es la inteligencia de la máquina y la malicia (en el buen sentido) del ser humano. Una sin la otra, en temas tan críticos, suena a una sal que nadie quiere probar.