Estafas con inteligencia artificial: especialistas alertan ante un nuevo método

 Estafas con inteligencia artificial: especialistas alertan ante un nuevo método

La ciberdelincuencia es conocida por reinventarse constantemente y descubrir nuevos métodos para continuar realizando estafas. Recientemente, especialistas descubrieron una nueva modalidad donde las víctimas perjudicadas terminan perdiendo todos sus ahorros.

En el marco de las nuevas tecnologías, la Inteligencia Artificial (IA) como el ChatGPT, parece ser una herramienta que se está usando cada vez más en diferentes rubros, y los estafadores no se quedaron atrás. Si bien la suplantación de identidad haciéndose pasar por un familiar o amigo es muy común en el mundo de los engaños, ahora la técnica se sofisticó con el avance del esta tecnología.

En esta ocasión se usa una IA para replicar la voz de las personas. Los delincuentes se hacen pasar por un "conocido" que pide con un tono desesperado y alarmante un pago urgente en criptomonedas o tarjetas de regalo para luego evitar ser identificados por sus víctimas.

La Inteligencia Artificial que utilizan los hackers tiene la función de recrear los tonos de voz de una persona. En ese sentido los ciberdelincuentes toman un fragmento de voz de cualquier video que está publicado en redes sociales y el software termina de estudiar el audio enviado.

El Banco Central de la República Argentina (BCRA) tiene una serie de recomendaciones para evitar estafas virtuales:

Por otro lado cabe destacar que si bien los audios generados por la Inteligencia Artificial son bastante precisos, las personas contamos con la ventaja de conocer muy bien a la supuesta persona a la que se imita. En ese sentido uno puede identificar ciertas rasgos del habla que no corresponden con nuestro familiar o conocido.

Recomendar A Un Amigo
  • gplus
  • pinterest
Commentarios
No hay comentarios por el momento

Tu comentario