Ni a corto ni a medio plazo

SPC
-

Los expertos avisan de que los coches autónomos están muy lejos de la realidad debido a las limitaciones de la tecnología y la inteligencia artificial

Ni a corto ni a medio plazo - Foto: Volvo

Diversos expertos mundiales aseguran que la conducción autónoma total no se va a implementar ni a corto ni a medio plazo en los automóviles dirigidos al gran público y advierten acerca de las limitaciones que marca la tecnología actual.
Bryan Reiner, investigador del Centro de Transporte y Logística del MIT, Mary L. Cummings, profesora en la George Mason University de Ingeniería Mecánica, Ingeniería Eléctrica e Informática y Ciencias de la Computacióny Rodney Brooks, que fue jefe del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, señalan que aunque se publicite en las noticias y en los medios todo el tiempo, el impacto a corto y medio plazo de la conducción autónoma es bastante limitado y que está mucho más allá de los retos en los que se están enfocando los ingenieros actualmente. Tampoco creen que la inteligencia artificial actual esté preparada para resolver todos los problemas a los que se enfrenta una conducción autónoma total.

1. El horizonte actual lo marcan los límites

Las investigaciones actuales sobre conducción autónoma se centran en sistemas de conducción autónoma de nivel 4, en los que el sistema solo funciona en una determinada zona geolocalizada. Actualmente, los coches autónomos en funcionamiento se mueven en entornos operativos del tamaño de un barrio, que en el futuro podría llegar a tener el tamaño de una ciudad entera. Los desafíos de ingeniería y los despliegues económicos necesarios para salir de esas zonas delimitadas son inmensos.

2. La IA no va a resolver la conducción autónoma

Para Cummings, la falta de comprensión técnica en la industria y el gobierno sobre la IA  la conducción autónoma es alarmante. «La gente no entiende que la IA que controla los vehículos se basa en los principios que ChatGPT y otros grandes modelos de lenguaje (LLM). Esas inteligencias artificiales usan razonamiento estadístico para adivinar cuál debe ser la siguiente palabra o frase, o la siguiente acción a realizar por un coche. Ninguna IA puede entender la situación, el contexto, o cualquier factor no observado que una persona consideraría en una situación similar. La diferencia es que, mientras un modelo de lenguaje puede responderte una tontería, un coche autónomo puede provocar un accidente», explica.
Según advierte Cummings, «los errores humanos en la conducción son reemplazados por errores humanos en la codificación. Además, cualquiera que haya trabajado en el desarrollo de software sabe que el código es propenso a errores, y el problema solo crece a medida que los sistemas se vuelven más complejos. La IA no elimina el papel del error humano en los accidentes. Ese papel se ha trasladado del final de la cadena de eventos que provocan un siniestro».
Asimismo, explica que los fallos de la IA son difíciles de predecir. «Un módulo de conducción autónoma interpreta la escena y decide cómo sortear los obstáculos haciendo conjeturas similares, basadas en una base de datos de imágenes proporcionadas durante el entrenamiento. Pero no se puede modelar cada posibilidad, por lo que los innumerables modos de error son difíciles de predecir. Por ejemplo, un coche autónomo puede comportarse de manera muy diferente en el mismo tramo de carretera en diferentes momentos del día, posiblemente debido a los ángulos variables del sol».
Cummings alerta de que mantener la IA es tan importante como crearla. «Las redes neuronales solo pueden ser efectivas si se entrenan con grandes cantidades de datos relevantes. En entornos dinámicos como la conducción, los modelos deben actualizarse constantemente para reflejar nuevos tipos de vehículos, zonas de construcción, patrones, y demás. Por ejemplo, si una flota de coches autónomos opera en una ciudad con un tipo de autobús y luego la flota se traslada a otra ciudad con tipos de autobuses diferentes, es probable que el modelo subyacente de detección de autobuses se desvíe, lo que podría tener graves consecuencias».
Por último, la IA tiene implicaciones a nivel de sistemas que no se pueden ignorar. Por ejemplo, los coches autónomos han sido diseñados para detenerse en seco en el momento en que ya no pueden razonar ni resolver la incertidumbre. Y esto puede provocar accidentes o bloquear carreteras. También dependen de la conectividad inalámbrica y ¿qué sucede cuando esa conectividad se pierde?

3. Siempre habrá factor humano

Por otro lado, un coche sin conductor no significa que circule sin humanos. Hay personas implicadas en todo el sistema, y no solo en el desarrollo de la ingeniería de software. Hay una gran cantidad de seres humanos controlando todos los sistemas y operaciones necesarias para que un coche autónomo pueda funcionar. Por ejemplo, muchas de las cámaras y sensores necesarias para el funcionamiento de un coche autónomo están instalados sobre el parabrisas. Cuando se sustituye un parabrisas, hay que desmontar las cámaras del cristal roto, montarlas en el nuevo y recalibrarlas para que ofrezcan una información fiable al sistema. 

4. El factor económico: costes e ingresos

Los desarrollos a nivel mundial han necesitado de una ingente cantidad de recursos económicos. Y el modelo de ingresos de esta tecnología  no está claro. Además, el costo de mantener la infraestructura, la base de código y las complejidades relacionadas, es similar al de la construcción del sistema.

5. Falta de legislación

Otro de los problemas clave es la ausencia de una infraestructura regulatoria armonizada a nivel internacional, nacional y local.

6. Rechazo del usuario

Más del 70% de la población estadounidense no cree que los coches autónomos sean tan seguros como los conductores humanos. El sentimiento hacia ellos solía ser optimista en San Francisco, pero ahora ha tomado un giro negativo debido al volumen de problemas que la ciudad está experimentando. 

7. Problemas de sesgo

Finalmente, la IA tiene implicaciones que no pueden ser ignoradas, como los problemas de sesgo. Éticamente no podemos aceptar que los robots tomen decisiones que sí estamos dispuestos a aceptar en humanos. Y como sociedad no estamos preparados para aceptar que un robot sea el responsable de un accidente grave.