Maes, vieras que la vara con la tecnología se está poniendo color de hormiga. Uno antes se preocupaba por un email de un príncipe nigeriano, pero ahora el asunto subió de nivel. Estamos hablando de que la Inteligencia Artificial (IA) ya no solo escribe poemas o crea imágenes vacilonas, sino que los ciberdelincuentes la están usando para clonar gente en video y audio de una forma que, sinceramente, asusta. A esta jugada le llaman deepfake, y el despiche que está armando es mundial.
Para que se hagan una idea del nivel, imagínense estar navegando en Instagram y toparse un video de Lionel Messi, el propio mae, diciéndole que se meta a una aplicación para ganar harina fácil. Suena tuanis, ¿verdad? ¡Pues es una torta! Usaron una entrevista real del futbolista, le montaron la voz con IA y lo pusieron a promocionar una app de estafas llamada “Wildcat Dive”. Y claro, si el mejor del mundo te lo recomienda, ¿cómo no vas a caer? Mucha gente perdió plata creyendo que era una inversión legítima. ¡Qué sal! Y no solo él, también han usado la cara de Elon Musk para estafas con criptomonedas que han movido más de 80 millones de dólares. Una locura.
Pero bueno, uno podría pensar: “Diay, eso le pasa a los famosos”. ¡Error! El verdadero susto es cuando esta vara llega al brete. A principios de año, un empleado financiero de Arup, una firma de arquitectura gigante, recibió una videollamada. ¿Al otro lado? Su jefe, el director financiero, y varios colegas más, todos pidiéndole que hiciera unas transferencias urgentes. El mae, obediente, mandó 15 transferencias por más de 25 millones de dólares. El problema es que toda la gente en la llamada era un deepfake. Se jalaron una torta monumental y cuando se dieron cuenta, la plata ya había volado. ¡Imagínense ese balde de agua fría!
Por dicha no todas las historias terminan tan mal. En Ferrari intentaron hacerles una parecida, clonando la voz del mero mero, el CEO, para pedir una transferencia. Pero ahí un empleado se la olió, hizo una pregunta trampa que la IA no supo contestar y paró el fraude en seco. Ese mae es un carga, la verdad, y le salvó el día a la compañía. Pero el peligro no es solo por la plata. En Baltimore, Estados Unidos, hicieron un deepfake de audio donde el director de una escuela supuestamente decía comentarios racistas. El audio se hizo viral, el tipo recibió amenazas de muerte y su vida se fue al traste por semanas hasta que la policía confirmó que todo era un montaje. Es una pesadilla.
Entonces, ¿qué hacemos ante este despiche? Según los expertos de ESET, la clave es volver a lo básico: la malicia indígena. Si una oferta es demasiado buena para ser verdad, probablemente es una trampa. Hay que ponerle ojo a los detalles en los videos: si la boca no sincroniza bien, si el parpadeo es raro o la imagen se ve medio plástica, dude. En el brete, especialmente si se maneja harina, hay que poner reglas: una llamada o un audio de WhatsApp jamás deberían ser suficientes para autorizar un pago millonario. Usen palabras clave, confirmen por otro medio, ¡algo! Al final, la mejor herramienta es no comer cuento y estar informado. Porque en este juego, el que se duerme, sale bien salado.
Y ustedes, ¿ya se han topado con algún video de estos que los ha hecho dudar? ¿Qué es lo que más les preocupa de esta nueva tecnología? ¡Los leo en los comentarios!
Para que se hagan una idea del nivel, imagínense estar navegando en Instagram y toparse un video de Lionel Messi, el propio mae, diciéndole que se meta a una aplicación para ganar harina fácil. Suena tuanis, ¿verdad? ¡Pues es una torta! Usaron una entrevista real del futbolista, le montaron la voz con IA y lo pusieron a promocionar una app de estafas llamada “Wildcat Dive”. Y claro, si el mejor del mundo te lo recomienda, ¿cómo no vas a caer? Mucha gente perdió plata creyendo que era una inversión legítima. ¡Qué sal! Y no solo él, también han usado la cara de Elon Musk para estafas con criptomonedas que han movido más de 80 millones de dólares. Una locura.
Pero bueno, uno podría pensar: “Diay, eso le pasa a los famosos”. ¡Error! El verdadero susto es cuando esta vara llega al brete. A principios de año, un empleado financiero de Arup, una firma de arquitectura gigante, recibió una videollamada. ¿Al otro lado? Su jefe, el director financiero, y varios colegas más, todos pidiéndole que hiciera unas transferencias urgentes. El mae, obediente, mandó 15 transferencias por más de 25 millones de dólares. El problema es que toda la gente en la llamada era un deepfake. Se jalaron una torta monumental y cuando se dieron cuenta, la plata ya había volado. ¡Imagínense ese balde de agua fría!
Por dicha no todas las historias terminan tan mal. En Ferrari intentaron hacerles una parecida, clonando la voz del mero mero, el CEO, para pedir una transferencia. Pero ahí un empleado se la olió, hizo una pregunta trampa que la IA no supo contestar y paró el fraude en seco. Ese mae es un carga, la verdad, y le salvó el día a la compañía. Pero el peligro no es solo por la plata. En Baltimore, Estados Unidos, hicieron un deepfake de audio donde el director de una escuela supuestamente decía comentarios racistas. El audio se hizo viral, el tipo recibió amenazas de muerte y su vida se fue al traste por semanas hasta que la policía confirmó que todo era un montaje. Es una pesadilla.
Entonces, ¿qué hacemos ante este despiche? Según los expertos de ESET, la clave es volver a lo básico: la malicia indígena. Si una oferta es demasiado buena para ser verdad, probablemente es una trampa. Hay que ponerle ojo a los detalles en los videos: si la boca no sincroniza bien, si el parpadeo es raro o la imagen se ve medio plástica, dude. En el brete, especialmente si se maneja harina, hay que poner reglas: una llamada o un audio de WhatsApp jamás deberían ser suficientes para autorizar un pago millonario. Usen palabras clave, confirmen por otro medio, ¡algo! Al final, la mejor herramienta es no comer cuento y estar informado. Porque en este juego, el que se duerme, sale bien salado.
Y ustedes, ¿ya se han topado con algún video de estos que los ha hecho dudar? ¿Qué es lo que más les preocupa de esta nueva tecnología? ¡Los leo en los comentarios!