«La inteligencia artificial (IA) está transformando significativamente la educación universitaria, ofreciendo tanto oportunidades como desafíos». Esta es la respuesta que obtengo en tiempo récord formulada pregunta al nuevo programa y/o aplicación Copilot dispuesto en mi paquete de Microsoft 365 UBU sobre la interacción entre inteligencia artificial y universidad. A mayor abundamiento se añade que «la IA tiene el potencial de revolucionar la educación universitaria, pero es fundamental abordarla de manera responsable para maximizar sus beneficios y minimizar sus riesgos». Por cierto, como uno de los riesgos se señala precisamente «la dependencia excesiva de la IA», pudiendo ello «afectar al desarrollo del pensamiento crítico y la investigación académica». Por ello, dejo ahora mismo de utilizar la susodicha aplicación a riesgo de que la originalidad de este artículo se vea seriamente afectada.
Faltaría además añadir que tales oportunidades y desafíos de la IA en el panorama universitario se ofrecen tanto a estudiantes como a profesorado en el ejercicio de sus tareas docentes e investigadoras, además con igualdad de riesgos para unos y otros, debiendo ser, a mi juicio, a ambos colectivos aplicables las mismas condiciones éticas en su empleo. Existe así mucha preocupación en el colectivo docente sobre el (ab)uso en la aplicación de los sistemas de IA en el estudio curricular por parte del colectivo estudiantil -así, léase, fundamentalmente y quizás, por ser el más conocido, el famoso ChatGPT, acrónimo de Chat Generative Pre-Trained Transformer, diseñado en 2022 por OpenAI-, pero no ha de olvidarse que el mismo también resulta sumamente útil para la realización de trabajos en el seno de la investigación desarrollada por el profesorado. ¿Hasta dónde llegan los límites entonces de la IA a fin de no contaminar autoría y originalidad? Cualesquiera que sean, debieran ser así aplicables a uno y otro estamento universitario en su quehacer cotidiano.
Ciertamente, no puede pretenderse que universitarios y universitarias permanezcamos inmunes al auge de la IA, el que alcanza cada vez mayor número de sectores profesionales, para bien y para mal. No en vano, su empleo incorrecto ocasiona también disgustos y juega malas pasadas, con la consiguiente reprimenda social y aún disciplinaria. Así, por ejemplo, ha tenido lugar en el seno de la abogacía en nuestro país y otros a la luz de diferentes noticias de las que se han hecho eco varios medios de comunicación en los últimos tiempos. Por ello la necesidad de establecer límites o, en suma, un código ético que ahonde en el correcto manejo de los instrumentos de IA a fin de que los mismos no provoquen o induzcan al fraude tan denunciado hoy día en centros universitarios.
Hasta donde yo sé, ya tiene lugar en el mundo anglosajón desde ciertas reputadas y prestigiosas editoriales la inclusión de cláusulas contractuales específicas relativas al empleo de IA por parte de autores/autoras en exigencia del compromiso de no utilizar la denominada AI generativa (generative AI tools) y declarar aquella de carácter asistencial (assistive AI tools). Por cierto, excepción expresa en ambos casos de aquellas herramientas en beneficio de ortografía y gramática, que, no sólo se permiten, sino que, añadiría yo, se agradecen. Así, no fuera malo que las mismas acompañaran igualmente la elaboración de trabajos universitarios por nuestros/as queridos/as estudiantes.
Por tanto, uso y no abuso de la IA. Estudiantes y profesorado, mutatis mutandis.