Meta, la gigantesca empresa tecnológica y de redes sociales a la que hasta hace poco se conocía como Facebook, ha llegado a Burgos. No es que hasta ahora no lo hubiera hecho, pues tiene miles de usuarios en esta provincia, al igual que en el resto del mundo, que la utilizan para contarse la vida unos a otros, no en vano incluye empresas como WhatsApp, Instagram o Messenger. La novedad es que un grupo de investigadores de la Universidad de Burgos (UBU) se han incorporado como socios del negocio de Mark Zuckerberg en una iniciativa singular que lleva ya varios años de trabajo y que trata de incluir la perspectiva que tiene del mundo la gente común y corriente haciendo cosas a la tecnología más puntera. El proyecto se llama ARIA y su objetivo es que la realidad aumentada y la inteligencia artificial (IA) tengan un punto de vista profundamente humano, es decir, que a la hora de ofrecer sus servicios tecnológicos parezcan por completo 'de verdad' y eso pasa por darle a los modelos de IA una comprensión de cómo los humanos llevan a cabo sus actividades.
La idea es recoger información desde la perspectiva del usuario, es decir, egocéntrica en el mejor sentido del término, realizando todo tipo de tareas ordinarias, y para ello han creado un sofisticado ordenador con forma de gafas (que apenas pesan unos gramos y son muy vistosas) que incluye cinco cámaras, siete micrófonos, dos sensores inerciales que capturan los movimientos, un barómetro, wifi y bluetooth. Con este equipamiento ya hay miles de investigadores en diferentes países registrando cómo es el mundo visto por una persona 'de verdad' porque graban el vídeo y el audio del usuario que se las pone, y registran toda la información de la ubicación y del seguimiento de sus ojos. Ahora, además, tendrán una visión diferente.
Porque el Grupo de Investigación Interdisciplinar DINper (Diseño Inclusivo Personalizado) de la UBU se ofreció a META con una novedad. Si alguien mira las webs donde la gran tecnológica explica este proyecto se va a encontrar a gente corriendo, andando, paseando... sobre sus dos piernas. Pero... ¿qué pasa con quienes tienen dificultades de movilidad, van en silla de ruedas o sufren cualquier otra discapacidad?, ¿cómo será para estas personas la experiencia de la realidad virtual y la inteligencia artificial?, ¿les podrá pasar como en el mundo real, en el que muchas veces no tienen rampas con las que subir con sus sillas a un escenario o los micrófonos en los eventos no están a su altura? Las respuestas a todas estas preguntas desde la experiencia contrastada de más de una década de DINper en la tecnología al servicio de la gente con discapacidad ha supuesto un grado, META así lo ha entendido y les ha incluido en el Proyecto ARIA.
Este equipo, que es interdisciplinar porque incluye a docentes de Ingeniería y Educación, tiene en su haber una larga trayectoria en aplicar la tecnología a la discapacidad y a las necesidades educativas especiales y es la que quieren incorporar a los 'otros mundos'. Recientemente han recibido las famosas gafas inteligentes cuya misión es registrar todo lo que ocurre alrededor de quien las lleva y, de momento, solo las han usado en el laboratorio aunque Pedro Sánchez, profesor del departamento de Ingeniería Electromecánica e investigador principal del proyecto, reconoce que no pudo resistirse a pasear alrededor de la Catedral con ellas puestas: «Si esto llega a buen puerto, podremos incorporar a la gran base de datos que ya existe cómo son los accesos a un monumento como este, la señalización, las salidas, etc., para mejorar la accesibilidad».
Diferenciar objetos. El proyecto incorporado a la UBU no ha hecho más que empezar y Sánchez explica que se irán recogiendo y documentando situaciones ordinarias para que el sistema, una vez entrenado, «diferencie, por ejemplo, una impresora de cualquier otro objeto, y que sepa distinguir que se trata de algo que no se encontraría en una cocina». Las gafas no grabarán nunca en espacios privados, destaca, ni expondrán la identidad de nadie porque de forma automática este singular ordenador vela los rostros de las personas y las matrículas de los coches como ya hacen otras tecnologías. «Todos estos aspectos están muy bien regulados y la privacidad y seguridad son aspectos que se van a cumplir muy rigurosamente durante las pruebas».
Los investigadores consideran este contrato con META una auténtica oportunidad que encaja perfectamente con sus intereses y sus líneas de trabajo: discapacidad motórica (en concreto, parálisis cerebral), discapacidad auditiva y sordera, educación especial, educación infantil, sistemas de comunicación alternativa y aumentativa e interfaces hombre-máquina.
El equipo, que coordina Rosa María Santamaría, está compuesto por Beatriz Núñez, Fernando Rivas, José María Cámara, Nieves Goicoechea, Marta Fonfría, Rafael Calvo de León, el propio Pedro Sánchez e Isabel Ferrándiz como colaboradora. Además, cuentan con las alumnas Malena Pérez, que hizo en su laboratorio las prácticas obligatorias y ahora está contratada, y Marina Martín.