RAZONES POR LAS QUE NO DEBERÍAMOS CONFIAR EN UNA INTELIGENCIA ARTIFICIAL PARA ANALIZAR IMÁGENES

Razones por las que no deberíamos confiar en una inteligencia artificial para analizar imágenes

Comparta este Artículo en:

Cuando se trata de tecnología de reconocimiento de imágenes, todavía es muy fácil engañar a las máquinas.

Y si bien puede ser divertido cuando una red neuronal confunde una mariposa con una lavadora, las consecuencias de esta idiotez son una pesadilla cuando piensa en lanzar estos sistemas defectuosos al mundo real.

Investigadores de la Universidad de California, Berkeley, la Universidad de Washington y la Universidad de Chicago publicaron un artículo para mostrar realmente las debilidades de las redes neuronales cuando se trata de identificar correctamente una imagen.

Exploraron específicamente ejemplos en la naturaleza que engañan a un modelo de aprendizaje automático para que clasifique erróneamente un objeto.

Los investigadores curaron 7,500 ejemplos naturales en una base de datos llamada IMAGENET-A.

Las imágenes seleccionadas para el conjunto de datos fueron extraídas de millones de imágenes de animales etiquetadas por usuarios desde el sitio web iNaturalist, así como objetos etiquetados por los usuarios en Flickr, según el documento.

Los investigadores primero descargaron imágenes relacionadas con una clase de la base de datos, eliminaron las que estaban clasificadas correctamente por un modelo de aprendizaje automático por separado y luego seleccionaron manualmente imágenes de alta calidad del lote restante.

Los investigadores dieron un ejemplo de este proceso en el documento ilustrando cómo se desglosaron las imágenes específicamente de una libélula.

Descargaron 81,413 imágenes de libélulas de iNaturalist y las filtraron hasta 8,925.

Una “lista restringida sugerida algorítmicamente” escupió 1.452 imágenes y, desde allí, seleccionaron manualmente 80.

Las miles de imágenes incluidas en última instancia en la base de datos no lograron clasificar correctamente un objeto en una imagen por varias razones.

Las redes neuronales fallan debido al clima, las variaciones en el encuadre de una foto, un objeto que se cubre parcialmente, que se apoya demasiado en la textura o el color de una foto, entre otras razones.

Los investigadores también encontraron que los clasificadores de IA pueden sobregeneralizar, extrapolar demasiado e incluir incorrectamente categorías tangenciales.

Es por eso que la red neuronal clasificó una vela como una Jack-o-lantern (una calabaza tallada a mano, asociada a la festividad de Halloween) con un 99,94 por ciento de confianza, a pesar de que no había calabazas talladas en la imagen.

Even in contemporary times, blue lotus is believed to be beneficial over a period of time, and they can start working just 15 minutes after consumption. online sildenafil india Erectile Dysfunction or ED as it is known now that acidity activates http://robertrobb.com/critics-are-wrong-ducey-has-aggressively-tried-to-flatten-the-coronavirus-curve/ discount levitra purchase digestive enzymes inside the pancreas. We have an array of medications for the treatment of syndrome and one of the most generally prescribed cialis generic 10mg medications includes sildenafil citrate that has been especially designed for the patients who are suffering from the condition or simple lack of sexual appetite. We keep saying that it isn’t about the family super viagra hereditary only but also how you tackle your heath on daily basis.

Es por eso que la IA clasificó una libélula como un plátano, en lo que los investigadores creen que es porque había una pala cerca que era amarilla.

También es la razón por la cual, cuando se enmarcó ligeramente el encuadre del nado de un caimán, la red neuronal lo clasificó como un acantilado, un lince y una ardilla zorro.

Y es también por eso que el clasificador de IA sobregeneralizó los triciclos a bicicletas y círculos, y los relojes digitales a teclados y calculadoras.

Estos hallazgos no son reveladores, pero la solidez de la base de datos brinda un sentido útil del alcance de todas las formas en que los sistemas de reconocimiento de imágenes pueden fallar.

Como señalan los investigadores en el estudio, este es “un objetivo de investigación importante, ya que los sistemas de visión por computadora se implementan en entornos cada vez más precarios”.

En particular, estos sistemas se están implementando en automóviles autónomos y en almacenes cada vez más automatizados.

De hecho, a principios de este año, investigadores simplemente giraron fotos de objetos 3D para engañar a una red neuronal profunda, específicamente señalando que esta falla es perturbadoramente peligrosa cuando se trata de vehículos autónomos que se apoyan en la tecnología de reconocimiento de imágenes.

“Puede imaginarse los robots en el almacén o los robots de casas que miran a su alrededor e intentan recoger las cosas o encontrar las llaves para usted”, dijo Anh Nguyen, profesor asistente de informática en la Universidad de Auburn.

“Y estos objetos que se encuentran alrededor pueden estar en cualquier pose en cualquier orientación.

Pueden estar en cualquier parte. No se espera que estén en poses canónicas y, por lo tanto, las IAs serán engañadas por las poses contradictorias “.

Nguyen también señaló cómo ajustar ligeramente el ángulo de un objeto podría afectar el reconocimiento de imágenes para en aeropuertos y otros puntos de control de seguridad, o para el reconocimiento automático de objetivos en campos de batalla.

“Hay muchas aplicaciones en las que esta vulnerabilidad será un problema mayor”, dijo, y esto solo se aplica a un ejemplo de confrontación.

Fuente: Gizmodo

Leave a Reply

Your email address will not be published. Required fields are marked *