¡Ay, Dios mío! Quién diría que la inteligencia artificial iba a meterse así en la política, ¿verdad? Pero ahí estamos, listos para darle batalla. Con las elecciones presidenciales de 2026 a la vuelta de la esquina, un experto nos está poniendo en cara que la cosa se va a poner movidita, porque ahora cualquiera podría armar un lío con videos falsos.
Según Ariel Ramos Ortega, de Codingraph y la Universidad Fidélitas, la IA ya no solo existe en las películas de ciencia ficción, sino que se ha convertido en un jugador más en este juego democrático –aunque no tenga papeletas ni votos, claro está. Esto significa que podemos esperar ver imágenes, audios y hasta videos manipulados tratando de influir en nuestra decisión al momento de elegir al próximo presidente. ¡Menuda bronca!
Ramos nos explica que la tecnología es poderosa, y con las habilidades correctas, alguien podría crear ‘deepfakes’ convincentes para desprestigiar candidatos o difundir información falsa. Imagínate un video donde el candidato X dice cosas que nunca dijo, o haciendo acciones que jamás hizo. ¡Un relajo! Eso sí, él mismo recalca que no debemos demonizar la tecnología, sino aprender a vivir con ella siendo más críticos y conscientes.
Y ¿cómo hacemos para distinguir si lo que vemos es real o una treta tecnológica? Ahí viene la parte interesante. Según el experto, hay algunas pistas a las que prestarle atención. Por ejemplo, los detalles visuales. Fíjate bien en las manos, los dedos, los ojos… esas cositas a veces salen bizcas en los ‘deepfakes’. También presta atención a los fondos, que suelen tener cosas raras, como texturas repetidas o elementos que no encajan.
Además, ten cuidado con las ofertas demasiado buenas para ser verdad o las declaraciones que te hagan rascar la cabeza. La IA se usa mucho para crear videos falsos prometiendo inversiones millonarias o mostrando situaciones increíbles, como animales salvando gente o artistas creando obras maestras imposibles. ¡Todo inventao, chunche!
Otro punto importante es que la IA puede replicar voces con asombrosa precisión. Así que, antes de compartir un audio comprometedor de algún político, asegúrate de que sea auténtico, diay. Porque ya tenemos varios ejemplos de cómo esta herramienta se ha usado para crear bullicio innecesario y sembrar la confusión entre la población. Es como buscar la aguja en el pajar, pero hay que estar pendientes.
Ahora bien, esto no quiere decir que debamos encerrarnos en nuestras casas y dejar de consumir información. Lo que sí necesitamos es desarrollar nuestro pensamiento crítico, cuestionar lo que vemos y escuchar diferentes puntos de vista. Hay que aprender a investigar, verificar las fuentes y no dejarnos llevar por la primera impresión. Es un brete, pero nadie dijo que sería fácil.
Así que, mi pana, vamos a prepararnos para este nuevo escenario electoral. Vamos a afinar nuestros sentidos, a no tragarnos todo entero y a exigir transparencia a los medios y a los candidatos. Ahora dime, ¿crees que la ciudadanía promedio estará preparada para detectar los ‘deepfakes’ y evitar caer en trampas de desinformación durante las elecciones de 2026, o será una pelea cuesta arriba contra la tecnología?
Según Ariel Ramos Ortega, de Codingraph y la Universidad Fidélitas, la IA ya no solo existe en las películas de ciencia ficción, sino que se ha convertido en un jugador más en este juego democrático –aunque no tenga papeletas ni votos, claro está. Esto significa que podemos esperar ver imágenes, audios y hasta videos manipulados tratando de influir en nuestra decisión al momento de elegir al próximo presidente. ¡Menuda bronca!
Ramos nos explica que la tecnología es poderosa, y con las habilidades correctas, alguien podría crear ‘deepfakes’ convincentes para desprestigiar candidatos o difundir información falsa. Imagínate un video donde el candidato X dice cosas que nunca dijo, o haciendo acciones que jamás hizo. ¡Un relajo! Eso sí, él mismo recalca que no debemos demonizar la tecnología, sino aprender a vivir con ella siendo más críticos y conscientes.
Y ¿cómo hacemos para distinguir si lo que vemos es real o una treta tecnológica? Ahí viene la parte interesante. Según el experto, hay algunas pistas a las que prestarle atención. Por ejemplo, los detalles visuales. Fíjate bien en las manos, los dedos, los ojos… esas cositas a veces salen bizcas en los ‘deepfakes’. También presta atención a los fondos, que suelen tener cosas raras, como texturas repetidas o elementos que no encajan.
Además, ten cuidado con las ofertas demasiado buenas para ser verdad o las declaraciones que te hagan rascar la cabeza. La IA se usa mucho para crear videos falsos prometiendo inversiones millonarias o mostrando situaciones increíbles, como animales salvando gente o artistas creando obras maestras imposibles. ¡Todo inventao, chunche!
Otro punto importante es que la IA puede replicar voces con asombrosa precisión. Así que, antes de compartir un audio comprometedor de algún político, asegúrate de que sea auténtico, diay. Porque ya tenemos varios ejemplos de cómo esta herramienta se ha usado para crear bullicio innecesario y sembrar la confusión entre la población. Es como buscar la aguja en el pajar, pero hay que estar pendientes.
Ahora bien, esto no quiere decir que debamos encerrarnos en nuestras casas y dejar de consumir información. Lo que sí necesitamos es desarrollar nuestro pensamiento crítico, cuestionar lo que vemos y escuchar diferentes puntos de vista. Hay que aprender a investigar, verificar las fuentes y no dejarnos llevar por la primera impresión. Es un brete, pero nadie dijo que sería fácil.
Así que, mi pana, vamos a prepararnos para este nuevo escenario electoral. Vamos a afinar nuestros sentidos, a no tragarnos todo entero y a exigir transparencia a los medios y a los candidatos. Ahora dime, ¿crees que la ciudadanía promedio estará preparada para detectar los ‘deepfakes’ y evitar caer en trampas de desinformación durante las elecciones de 2026, o será una pelea cuesta arriba contra la tecnología?