La interacción entre peatones y carros autónomos constituye uno de los aspectos más complejos de cara a lograr la popularización (o la mera aprobación legal) de estos últimos.
Los investigadores responsables de los sistemas de conducción autónoma suelen quejarse del comportamiento imprevisible de los humanos.
Por eso, resulta crucial para los fabricantes desarrollar una tecnología que permita que los carros circundantes, reaccionen (o incluso se anticipen) en consecuencia.
Pese a la gran cantidad de trabajos académicos publicados sobre la detección y/o predicción de comportamientos de los peatones, hay pocas compañías que se dediquen específicamente a desarrollar tecnología que aborde esta tarea.
Pero algunas empiezan a despuntar en este campo.
Humanising Autonomy, una startup londinense, es una de ellas, y aspira a convertir su tecnología en un componente omnipresente no ya sólo en los carros autónomos que recorran las carreteras del planeta, sino en general de todos los sistemas de visión por computador enfocados al seguimiento de personas.
Según explican en su web,
“Queremos ver ciudades donde [los vehículos autónomos] tengan en cuenta a los usuarios vulnerables de la carretera fuera de los mismos, no sólo la experiencia interior: los peatones, ciclistas y otros usuarios de la carretera deberían poder interactuar con estos vehículos, y éstos deberán comprenderlos para poder navegar de manera segura y eficiente en entornos urbanos complejos”.
Con este fin, la compañía ha logrado recaudar 5,3 millones de dólares aportados por un grupo de “inversores internacionales” liderados por Anthemis Group, para reforzar tecnología de inteligencia artificial.
Dicha tecnología se basa en el uso de un conjunto de módulos de machine learning, entrenados con el fin de identificar cada uno de ellos los diferentes comportamientos que puedan estar adoptando los peatones, detectando si están a punto de cruzar la calle, si han establecido contacto visual con el vehículo o, por el contrario, si están con la vista fija en la pantalla de su móvil.
Según la compañía, una de las claves de su sistema radica en la variedad de sus datos y de las fuentes de donde los extrae: cámaras en los autos, de circuitos cerrados de televisión, con mayor o menor resolución, etc.
También ha establecido alianzas con diversas instituciones (como gobiernos municipales) para que aporten sus propios videos.
El equipo de Humanising Autonomy se ha centrado ante todo en adquirir y analizar imágenes de accidentes, pues son las que más información pueden aportar sobre los patrones de conducta que desembocan en las situaciones que se buscan evitar.
Curiosamente, sus modelos se basan únicamente en datos RGB (luz y color), renunciando a cualquier información sobre distancias y profundidades que pudiera proporcionar un sistema lídar o similar.
Según explica Maya Pindeus, CEO de la compañía, no es incompatible usar ambas fuentes de datos, pero ésta última no es tan frecuente como la primera (de cara a entrenar la IA) ni, por lo que han podido detectar, tan relevante aportando información.
Pindeus también destaca que la estructura modular de su tecnología permitirá también personalizarla según la capacidad de procesamiento de cada vehículo, uno de los obstáculos que han de afrontar todos los desarrollos de tecnologías de IA para vehículos autónomos.
Fuente: Xataca
La masa de los átomos que le componen y por tanto su masa tiene un…
Científicos están probando una píldora dietética vibratoria que, tras ser ingerida, es capaz de engañar…
A pesar de los importantes avances en el campo de la generación de energía renovable,…
Investigadores, dirigidos por el profesor Andrew Forbes de la Universidad Wits, han utilizado con éxito…
Un equipo internacional de investigadores ha identificado los procesos específicos a través de los cuales…
Ingenieros han diseñado un sistema que detecta la velocidad de vehículos que circulan en una…