Maes, seamos honestos. Desde que ChatGPT y todas esas varas de Inteligencia Artificial se pusieron de moda, más de uno (y me incluyo) las ha usado para salvar una tanda, inspirarse para un ensayo o hasta para entender una materia que se las trae. Es el secreto a voces en pasillos y bibliotecas. Diay, por eso la noticia de que la Universidad de Costa Rica por fin sacó unos lineamientos para regular este chunche suena, de entrada, bastante tuanis. La pregunta del millón es: ¿llegan a tiempo o ya el tren nos dejó botados?
La vara es que la Rectoría se mandó con una resolución, la R-469-2025, que es básicamente el primer intento serio de la UCR por ponerle reglas claras al juego. Le llaman el "primer instrumento normativo institucional", que en tico significa que antes de esto, estábamos en el lejano oeste. El objetivo es crear un "Marco de Gobernanza y Gestión de la IA", un nombre rimbombante para algo súper necesario: una guía para que tanto estudiantes como profes y administrativos sepan a qué se enfrentan y cómo usar estas herramientas sin jalarse una torta monumental, ni ética ni académicamente.
Y claro, como era de esperarse, el documento viene cargado de buenas intenciones que suenan a cachete. Hablan de principios como la transparencia, la equidad, el respeto a los derechos humanos, la integridad académica y la protección de datos. ¡Qué chiva! En el papel, es perfecto. Quieren garantizar un uso "ético, responsable y seguro", con un enfoque humanista. El reto, como siempre, no está en escribirlo, sino en aplicarlo. Porque una cosa es decir "no discriminación" y otra muy distinta es auditar un algoritmo para asegurarse de que no prefiera a un estudiante sobre otro por sesgos que ni su creador entiende del todo. ¡Qué carga de brete se echaron encima!
Para manejar todo este despiche potencial, la UCR hizo lo que mejor sabemos hacer los ticos cuando una vara es compleja: montar un comité. Se llama el Comité Estratégico Institucional de Inteligencia Artificial (CEIIA), un nombre que seguro les tomó una tarde entera inventar. La misión de este grupo será coordinar todo el brete, escuchar las propuestas de la comunidad universitaria y, en teoría, asegurarse de que las reglas no se queden guardadas en una gaveta. Se supone que van a impulsar diálogos y consultas para entender los riesgos y las oportunidades que ve la gente. Ojalá que de verdad escuchen y no sea solo para la foto.
Al final del día, lo que esto significa para el estudiante de a pie es que la UCR está reconociendo que la IA ya es parte de nuestro día a día. La directriz insiste en que todo proyecto que use IA debe tener "supervisión humana efectiva", o sea, no podemos simplemente poner a una máquina a calificar exámenes y lavarnos las manos. Se busca integrar la IA en la docencia, la investigación y hasta en la gestión administrativa, pero con un ancla bien puesta en la ética. Este marco no es definitivo; dicen que lo van a revisar y actualizar periódicamente, porque ya sabemos que en tecnología, lo que hoy es nuevo, mañana es un vejestorio. Es un primer paso, uno necesario y que se aplaude, pero es apenas el inicio de una maratón.
Ahora la bola queda en nuestra cancha. Maes, ¿qué opinan ustedes? ¿Creen que la UCR está haciendo lo correcto al intentar regular la IA o es pura burocracia para una tecnología que ya nos pasó por encima? ¿Cómo la usan ustedes en el estudio o el brete y qué reglas le pondrían?
La vara es que la Rectoría se mandó con una resolución, la R-469-2025, que es básicamente el primer intento serio de la UCR por ponerle reglas claras al juego. Le llaman el "primer instrumento normativo institucional", que en tico significa que antes de esto, estábamos en el lejano oeste. El objetivo es crear un "Marco de Gobernanza y Gestión de la IA", un nombre rimbombante para algo súper necesario: una guía para que tanto estudiantes como profes y administrativos sepan a qué se enfrentan y cómo usar estas herramientas sin jalarse una torta monumental, ni ética ni académicamente.
Y claro, como era de esperarse, el documento viene cargado de buenas intenciones que suenan a cachete. Hablan de principios como la transparencia, la equidad, el respeto a los derechos humanos, la integridad académica y la protección de datos. ¡Qué chiva! En el papel, es perfecto. Quieren garantizar un uso "ético, responsable y seguro", con un enfoque humanista. El reto, como siempre, no está en escribirlo, sino en aplicarlo. Porque una cosa es decir "no discriminación" y otra muy distinta es auditar un algoritmo para asegurarse de que no prefiera a un estudiante sobre otro por sesgos que ni su creador entiende del todo. ¡Qué carga de brete se echaron encima!
Para manejar todo este despiche potencial, la UCR hizo lo que mejor sabemos hacer los ticos cuando una vara es compleja: montar un comité. Se llama el Comité Estratégico Institucional de Inteligencia Artificial (CEIIA), un nombre que seguro les tomó una tarde entera inventar. La misión de este grupo será coordinar todo el brete, escuchar las propuestas de la comunidad universitaria y, en teoría, asegurarse de que las reglas no se queden guardadas en una gaveta. Se supone que van a impulsar diálogos y consultas para entender los riesgos y las oportunidades que ve la gente. Ojalá que de verdad escuchen y no sea solo para la foto.
Al final del día, lo que esto significa para el estudiante de a pie es que la UCR está reconociendo que la IA ya es parte de nuestro día a día. La directriz insiste en que todo proyecto que use IA debe tener "supervisión humana efectiva", o sea, no podemos simplemente poner a una máquina a calificar exámenes y lavarnos las manos. Se busca integrar la IA en la docencia, la investigación y hasta en la gestión administrativa, pero con un ancla bien puesta en la ética. Este marco no es definitivo; dicen que lo van a revisar y actualizar periódicamente, porque ya sabemos que en tecnología, lo que hoy es nuevo, mañana es un vejestorio. Es un primer paso, uno necesario y que se aplaude, pero es apenas el inicio de una maratón.
Ahora la bola queda en nuestra cancha. Maes, ¿qué opinan ustedes? ¿Creen que la UCR está haciendo lo correcto al intentar regular la IA o es pura burocracia para una tecnología que ya nos pasó por encima? ¿Cómo la usan ustedes en el estudio o el brete y qué reglas le pondrían?