Categorías: Tecnología

Llevan un razonamiento similar al humano a la navegación en automóviles autónomos

Comparta este Artículo en:

Investigadores del MIT crean un sistema de control autónomo que utiliza solo mapas simples y datos visuales para permitir que los automóviles sin conductor naveguen por entornos nuevos y complejos.

El sistema de control autónomo “aprende” a usar mapas simples y datos de imágenes para navegar por rutas nuevas y complejas.

Con el objetivo de brindar un razonamiento más humano a los vehículos autónomos, investigadores del MIT han creado un sistema que utiliza solo mapas y datos visuales simples para permitir que los autos sin conductor naveguen rutas en nuevos entornos complejos.

Los conductores humanos son excepcionalmente buenos para navegar por carreteras en las que no han conducido antes, usando la observación y herramientas simples.

Simplemente comparamos lo que vemos a nuestro alrededor con lo que vemos en nuestros dispositivos GPS para determinar dónde estamos y hacia dónde debemos ir.

Los autos sin conductor, sin embargo, luchan con este razonamiento básico.

And now, other prominent players like Piramal Asset Management, Kotak Realty, Macquarie, Brookfield Asset Management cheap viagra donssite.com and Milestone are shopping for commercial properties. Your company is always prompt and professional, and cialis for sale online every time. It is very beneficial in controlling the excessive pain instantly uk levitra that is caused after the injury. It is boon for people searching for a miraculous medication to maintain their masculinity viagra cialis for their loving partners.

En cada área nueva, los autos primero deben mapear y analizar todas las carreteras nuevas, lo que requiere mucho tiempo.

Los sistemas también se basan en mapas complejos, generalmente generados por escaneos 3D, que son computacionalmente intensivos para generar y procesar sobre la marcha.

En un documento presentado en la Conferencia Internacional de Robótica y Automatización, los investigadores del MIT describen un sistema de control autónomo que “aprende” los patrones de dirección de los conductores humanos a medida que recorren las carreteras en un área pequeña, utilizando solo datos de las tomas de video y un simple mapa parecido a un GPS.

Luego, el sistema entrenado puede controlar un automóvil sin conductor a lo largo de una ruta planificada en un área completamente nueva, imitando al conductor humano.

De manera similar a los conductores humanos, el sistema también detecta cualquier desajuste entre su mapa y las características de la carretera.

Esto ayuda al sistema a determinar si su posición, sensores o mapeo son incorrectos para corregir el rumbo del auto.

Para entrenar el sistema inicialmente, un operador humano controló un Toyota Prius automatizado, equipado con varias cámaras y un sistema de navegación GPS básico, para recopilar datos de las calles suburbanas locales, incluidas varias estructuras de carreteras y obstáculos.

Cuando se implementó de forma autónoma, el sistema navegó con éxito el automóvil a lo largo de un camino preplanificado en un área boscosa diferente, designada para pruebas de vehículos autónomos.

“Con nuestro sistema, no es necesario entrenar en todos los caminos de antemano”, dice el primer autor Alexander Amini, un estudiante graduado del MIT.

“Puede descargar un nuevo mapa para que el automóvil navegue por carreteras que nunca antes ha visto”.

“Nuestro objetivo es lograr una navegación autónoma que sea robusta para conducir en nuevos entornos”, agrega la coautora Daniela Rus, directora del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y profesora de Ingeniería Eléctrica y Ciencias de la Computación Andrew y Erna Viterbi. .

“Por ejemplo, si entrenamos un vehículo autónomo para conducir en un entorno urbano como las calles de Cambridge, el sistema también debería poder conducir sin problemas en el bosque, incluso si ese es un entorno que nunca antes se ha visto”.

Los sistemas de navegación tradicionales procesan datos de sensores a través de múltiples módulos personalizados para tareas como localización, mapeo, detección de objetos, planificación de movimiento y control de dirección.

Durante años, el grupo de Rus ha estado desarrollando sistemas de navegación de “extremo a extremo”, que procesan los datos sensoriales ingresados ​​y los comandos de dirección de salida, sin necesidad de módulos especializados.

Hasta ahora, sin embargo, estos modelos estaban estrictamente diseñados para seguir de forma segura la carretera, sin ningún destino real en mente.

En el nuevo documento, los investigadores avanzaron su sistema de extremo a extremo para conducir de un objetivo a otro, en un entorno que no se había visto anteriormente.

Para hacerlo, los investigadores entrenaron a su sistema para predecir una distribución de probabilidad completa sobre todos los posibles comandos de dirección en cualquier momento mientras se conduce.

El sistema utiliza un modelo de aprendizaje automático denominado red neuronal convolucional (CNN), comúnmente utilizado para el reconocimiento de imágenes.

Durante el entrenamiento, el sistema observa y aprende cómo conduce un conductor humano.

La CNN correlaciona las rotaciones del volante con las curvaturas de la carretera que observa a través de cámaras y un mapa ingresado.

Eventualmente, aprende el comando de dirección más probable para varias situaciones de manejo, como carreteras rectas, intersecciones de cuatro vías o en forma de T, horquillas y rotondas.

“Inicialmente, en una intersección en forma de T, hay muchas direcciones diferentes en las que el automóvil podría girar”, dice Rus.

“El modelo comienza pensando en todas esas direcciones, pero a medida que ve más y más datos sobre lo que hace la gente, verá que algunas personas giran a la izquierda y otras a la derecha, pero nadie va en línea recta.

El avance en línea recta se descarta como una posible dirección, y el modelo aprende que, en las intersecciones en forma de T, solo puede moverse hacia la izquierda o hacia la derecha “.

En las pruebas, los investigadores ingresaron el sistema con un mapa con una ruta elegida al azar.

Al conducir, el sistema extrae las características visuales de la cámara, lo que le permite predecir las estructuras de las carreteras.

Por ejemplo, identifica una señal de alto distante o saltos de línea en el costado de la carretera como signos de una intersección próxima.

En cada momento, utiliza la distribución de probabilidad predicha de los comandos de dirección para elegir la más probable para seguir su ruta.

Es importante destacar que, según los investigadores, el sistema utiliza mapas que son fáciles de almacenar y procesar.

Los sistemas de control autónomos generalmente utilizan exploraciones LIDAR para crear mapas masivos y complejos que toman aproximadamente 4,000 gigabytes (4 terabytes) de datos para almacenar solo la ciudad de San Francisco.

Para cada nuevo destino, el automóvil debe crear nuevos mapas, lo que equivale a toneladas de procesamiento de datos.

Los mapas utilizados por el sistema de los investigadores, sin embargo, capturan el mundo entero utilizando solo 40 gigabytes de datos.

Durante la conducción autónoma, el sistema también hace coincidir continuamente sus datos visuales con los datos del mapa y observa cualquier desajuste.

Esto ayuda al vehículo autónomo a determinar mejor dónde se encuentra en la carretera.

Y garantiza que el automóvil permanezca en el camino más seguro si se alimenta con información de entrada contradictoria: si, por ejemplo, el automóvil se desplaza en una carretera recta sin giros, y el GPS indica que el automóvil debe girar a la derecha, el automóvil sabrá que debe mantenerse en línea recta o detenerse.

“En el mundo real, los sensores fallan”, dice Amini.

“Queremos asegurarnos de que el sistema sea robusto a diferentes fallas de diferentes sensores al construir un sistema que pueda aceptar estas entradas ruidosas y aún así navegar y localizarse correctamente en la carretera”.

Fuente: MIT

Editor PDM

Entradas recientes

Herramienta de detección de sesgos de IA para combatir la discriminación en los modelos

Los modelos de IA generativa como ChatGPT se entrenan con grandes cantidades de datos obtenidos…

11 hours hace

NVIDIA presenta su supercomputador compacto de IA generativa

El kit para desarrolladores NVIDIA Jetson Orin Nano Super está diseñado tanto para aficionados como…

11 hours hace

Google presenta una IA que genera videos 4K de hasta 2 minutos

Google ha presentado Veo 2, una IA que supera a Sora al generar videos realistas…

11 hours hace

Whisk, la nueva IA de Google para crear imágenes a partir de otras imágenes

La nueva IA de Google es capaz de generar diseños de cualquier tipo sin necesidad…

11 hours hace

El buscador con IA SearchGPT ahora es gratuito y busca competir con el de Google

Han pasado casi cinco meses desde el lanzamiento de SearchGPT. La prometedora función de búsqueda…

11 hours hace

Desarrollan dispositivo que fusiona funciones de detección y computación

En los últimos años, los ingenieros han intentado crear sistemas de hardware que soporten mejor…

1 day hace
Click to listen highlighted text!