Maes, si ustedes creían que las cadenas de chismes en WhatsApp o los memes malintencionados eran lo peor que le podía pasar a la reputación de alguien, agárrense fuerte. La vara se acaba de poner a un nivel de película de ciencia ficción, pero de las que dan miedillo. Resulta que la Fiscalía General de la República acaba de soltar una bomba: en la dark web, ese barrio digital donde nadie quiere entrar, ya hay gente ofreciendo un nuevo tipo de sicariato, pero digital. El brete consiste en crear montajes—videos, audios, lo que sea—usando Inteligencia Artificial para hacerle la vida imposible a magistrados, jueces y políticos. Un despiche total.
El que tiró la alerta fue el propio Fiscal General, Carlo Díaz, y lo dijo con todas las letras. Le llegó información de inteligencia, o sea, le soplaron el dato de que hay “un grupo de trolls” vendiendo el servicio. Imagínense el chante: usted paga una buena harina y estos maes, usando lo último en tecnología de IA, le montan un video a un magistrado diciendo cualquier barbaridad. Lo más denso es que, según el ofrecimiento, esta tecnología “supuestamente no deja rastro”. Diay, el problema es que como por ahora es solo una oferta en un foro clandestino, la Fiscalía está con las manos atadas. No pueden abrir una investigación penal porque, legalmente, no se ha cometido un delito. ¡Qué torta! Tienen la información, saben que el peligro es real, pero tienen que esperar a que alguien se jale la torta para poder actuar.
Y ojo, que esta vara no es un simple susto o un cuento chino. El mismo Fiscal Díaz recordó que esto de las campañas sucias con plata de por medio ya ha pasado. ¿Se acuerdan del despiche con la ley Jaguar? Bueno, en su momento, Díaz denunció que alguien pagó 6 bitcoins (que en ese entonces eran como 200 melones de colones) solo para desprestigiarlo a él y a la Sala IV. O sea, ya hay gente dispuesta a soltar un platal para desestabilizar y manipular la opinión pública. Ahora, con estas nuevas herramientas de IA, el potencial para hacer daño es infinitamente mayor y, peor aún, más barato y más difícil de rastrear. La mala noticia es que la tecnología para el mal siempre parece ir un paso adelante.
Para que entiendan la gravedad del asunto, esto no es un juego. Según abogados penalistas que saben de la materia, como Julio Córdoba, los que ofrecen estos servicios se la están jugando con el delito de suplantación de identidad. El chistecito les puede costar de uno a tres años de cárcel. El toque es que la IA puede crear un engaño tan perfecto que es casi imposible para el ojo común darse cuenta de que es falso. Y aquí es donde la puerca tuerce el rabo, porque si un video falso se vuelve viral, el daño a la reputación de una persona o a la credibilidad de una institución ya está hecho. Para cuando se demuestra que era un montaje, el incendio ya se esparció por todo lado.
Y para rematar, existe un “chunche” específico para esto. No estamos hablando de usar el ChatGPT para hacer maldades, no. Hay una herramienta de IA creada específicamente para cibercriminales llamada Xanthorox. Los expertos la describen como una especie de “ChatGPT criminal”, sin filtros ni restricciones éticas. Este programa es una máquina de crear deepfakes hiperrealistas de voz y video, ideal para fraudes, campañas de desinformación y, por supuesto, ataques reputacionales como los que le ofrecieron a los “clientes” en Costa Rica. Así que el panorama es claro: la tecnología existe, el mercado negro está activo y nuestras instituciones están en la mira. La pregunta del millón es si estamos listos para lo que viene.
Maes, la verdad, ¿qué tan preparados estamos para este despiche? ¿Ustedes se creerían un video o un audio falso de un político si se ve 100% real? ¿Cómo diablos se pelea contra algo así? ¡Abro debate en el foro!
El que tiró la alerta fue el propio Fiscal General, Carlo Díaz, y lo dijo con todas las letras. Le llegó información de inteligencia, o sea, le soplaron el dato de que hay “un grupo de trolls” vendiendo el servicio. Imagínense el chante: usted paga una buena harina y estos maes, usando lo último en tecnología de IA, le montan un video a un magistrado diciendo cualquier barbaridad. Lo más denso es que, según el ofrecimiento, esta tecnología “supuestamente no deja rastro”. Diay, el problema es que como por ahora es solo una oferta en un foro clandestino, la Fiscalía está con las manos atadas. No pueden abrir una investigación penal porque, legalmente, no se ha cometido un delito. ¡Qué torta! Tienen la información, saben que el peligro es real, pero tienen que esperar a que alguien se jale la torta para poder actuar.
Y ojo, que esta vara no es un simple susto o un cuento chino. El mismo Fiscal Díaz recordó que esto de las campañas sucias con plata de por medio ya ha pasado. ¿Se acuerdan del despiche con la ley Jaguar? Bueno, en su momento, Díaz denunció que alguien pagó 6 bitcoins (que en ese entonces eran como 200 melones de colones) solo para desprestigiarlo a él y a la Sala IV. O sea, ya hay gente dispuesta a soltar un platal para desestabilizar y manipular la opinión pública. Ahora, con estas nuevas herramientas de IA, el potencial para hacer daño es infinitamente mayor y, peor aún, más barato y más difícil de rastrear. La mala noticia es que la tecnología para el mal siempre parece ir un paso adelante.
Para que entiendan la gravedad del asunto, esto no es un juego. Según abogados penalistas que saben de la materia, como Julio Córdoba, los que ofrecen estos servicios se la están jugando con el delito de suplantación de identidad. El chistecito les puede costar de uno a tres años de cárcel. El toque es que la IA puede crear un engaño tan perfecto que es casi imposible para el ojo común darse cuenta de que es falso. Y aquí es donde la puerca tuerce el rabo, porque si un video falso se vuelve viral, el daño a la reputación de una persona o a la credibilidad de una institución ya está hecho. Para cuando se demuestra que era un montaje, el incendio ya se esparció por todo lado.
Y para rematar, existe un “chunche” específico para esto. No estamos hablando de usar el ChatGPT para hacer maldades, no. Hay una herramienta de IA creada específicamente para cibercriminales llamada Xanthorox. Los expertos la describen como una especie de “ChatGPT criminal”, sin filtros ni restricciones éticas. Este programa es una máquina de crear deepfakes hiperrealistas de voz y video, ideal para fraudes, campañas de desinformación y, por supuesto, ataques reputacionales como los que le ofrecieron a los “clientes” en Costa Rica. Así que el panorama es claro: la tecnología existe, el mercado negro está activo y nuestras instituciones están en la mira. La pregunta del millón es si estamos listos para lo que viene.
Maes, la verdad, ¿qué tan preparados estamos para este despiche? ¿Ustedes se creerían un video o un audio falso de un político si se ve 100% real? ¿Cómo diablos se pelea contra algo así? ¡Abro debate en el foro!