El robo de 200.000 dólares tras hacerse pasar por el director general de la empresa pone de relieve la capacidad de la inteligencia artificial para replicar incluso la voz humana.
La suplantación de identidad es una de las mayores preocupaciones de los ciudadanos.
En una era en la que cualquiera puede abrirse un perfil en redes sociales para hacerse pasar por otra persona, los algoritmos de inteligencia artificial han alcanzado una notable perfección que, aplicado a contenidos multimedia, ha dado paso a un preocupante fenómeno que ya se conoce como « deep fakes».
El problema es que se pueden manipular no solo videos con un sorprendente índice de realismo sino también la voz humana.
Un truculento caso ha permitido dar la voz de alarma ante una posible tendencia que, según los expertos, tiene todos los atributos para generalizarse en el futuro.
Según desveló el «The Wall Street Journal», un grupo de cibercriminales empleó un software basado en inteligencia artificial para hacerse pasar por la voz de un director ejecutivo y transferir, de manera fraudulenta, unos 220.000 euros de una empresa energética británica.
La estafa se produjo en marzo, pero no ha sido recientemente cuando ha trascendido.
Un ejecutivo de la compañía afectada pensó que estaba hablando por teléfono con su jefe, un director ejecutivo de la empresa matriz ubicada en Alemania cuyo nombre no ha trascendido.
El ciberdelincuente le instó a enviar los fondos a un proveedor en Hungría.
Se logró cometer la estafa a partir de la creación de voces sintéticas que replican las mismas ondas de una voz original.
La estafa se pudo acometer también dado que la llamada telefónica coincidió con un correo electrónico enviado previamente que anticipaba la operación financiera.
Aunque tiene margen para perfeccionarse, según informa «La Vanguardia», este tipo de manipulaciones ha empezado a despertar las preocupaciones de ciudadanos y empresas de todo tipo.
This is termed as an important factor because the pill needs to be stored at a try address cialis sale pace of room temperature. So, people looking for medicines like viagra in the uk can be extremely helpful when it comes to remaining erect. Why Kamagra for ED Cure? * Kamagra canada tadalafil 10mg 100mg grants harder erection which lasts for four hours. The generic word for the kamagra drug resembles the presence of lovemaking excitement . discount viagra canada is the perfect ED treatment answer and with all these types of qualities it is extremely clear it is the top and best marketing medicine in the entire of the anti-impotence marketplace.Estimaciones de la firma de seguridad Symantec apuntaron en julio un aumento de los ataques por medio de esta técnica de suplantación de voz.
El pasado año, Google presentó una tecnología propia, Duplex, que es capaz de conversar con personas por teléfono.
El objetivo con el que nació era ahorrar a sus usuarios el esfuerzo de llamar directamente.
El software era capaz de imitar los principales atributos de la voz humana, desde el color, el acento, la entonación o la modulación.
Los expertos creen que estas técnicas van a crecer en los próximos años y, acompañados de la viralidad que brindan las redes sociales, puede anticipar la llegada de audios manipulados que pueden llegar a cambiar la interpretación de los hechos noticiosos.
Sin embargo, apuntan a que a diferencia de los «deep fakes» de video se requiere de conocimientos avanzados y una tecnología muy sofistifada que no está al alcance de cualquiera.
Este tipo de sistemas funciona a partir de una inteligencia artificial que toma las principales características de la voz transformándola en una onda interpretable por un software.
A partir de entonces es capaz de replicar desde la modulación, el timbre, el color o el sexo para generar una voz sintética que puede repetir palabras pregrabadas o producir frases desde cero.
«Hay que tener mucho cuidado con las imágenes y audio porque no puedes creer lo que vemos», advierte a este diario Stella Luna, experta en seguridad informática y directora general de Pentaquark Consulting, quien asegura que los «deep fakes» de audio requieren de un soporte tecnológico que, en general, están al alcance por el momento de empresas.
En su opinión, dado que la sofisticación de la tecnología presenta diferencias notables entre las manipulaciones de video y audio, el impacto también es distinto.
No obstante, esta experta pronostica que este tipo de fraudes van a ir a más pero espera que los métodos de seguridad y de detección «vayan en paralelo».
Fuente: ABC