Noticias » Ciencia y tecnología » Diez consejos para evitar estafas telefónicas por clonación de voz con inteligencia artificial

Diez consejos para evitar estafas telefónicas por clonación de voz con inteligencia artificial

by Gacetín Madrid

La suplantación de voz por inteligencia artificial ya es una amenaza más del mundo digital. Conocer cómo identificar este tipo de fraudes es tan determinante como aprender a prevenir estafas asociadas a esta práctica. Profesionales del área de ciberinteligencia aportan diez claves para mantenernos seguros online.

Las tecnologías de clonación de voz con inteligencia artificial (IA) replican patrones que permiten identificar voces humanas mediante métodos de entrenamiento y aprendizaje complejos para, posteriormente, utilizarlas en contextos específicos. Con su desarrollo proliferan riesgos asociados, especialmente, a obtener un beneficio económico.

Entre otros, están la realización de fraudes y estafas telefónicas sofisticadas, campañas de ciberespionaje, desprestigio y desinformación, proliferación de fake news, extorsión y chantaje a terceros vinculados con la persona suplantada, intrusión en sistemas que utilicen mecanismos de autenticación por voz, y un largo etcétera.

Por este motivo es importante saber detectar, por ejemplo, cuándo puedes estar ante una llamada de voz clonada por Inteligencia Artificial y cómo prevenir estafas vinculadas. Raquel Puebla e Itxaso Reboleiro, analistas de ciberinteligencia de Entelgy Innotec Security, explican cómo hacerlo a continuación.

Cuatro formas de identificar una llamada de voz clonada por IA

Para lograr identificar una llamada telefónica fraudulenta en la que se utilice una voz clonada a través de inteligencia artificial, los usuarios pueden atender a una serie de indicadores básicos, como los siguientes:

  1. Que la llamada en cuestión se realice desde un número de teléfono desconocido.
  2. Que quien presuntamente realiza la llamada (familiar, conocido u otro agente) posea una voz ligeramente robótica, sin pausas en su discurso, y que este parezca aprendido de memoria”, explican estas profesionales.
  3. Que tenga lugar una ligera pausa después de cada respuesta de la víctima. “Esto es así debido a que la máquina que realiza la llamada fraudulenta necesita un breve periodo de tiempo para poder procesar la información recibida”, añaden.
  4. Que quien realice la llamada tenga un comportamiento poco usual, utilizando expresiones dramáticas y alentando a la víctima a tomar decisiones urgentes y precipitadas sobre alguna cuestión (como envío de datos personales o transferencias de dinero inmediatas).

Seis maneras de prevenir estafas por voz con inteligencia artificial

  1. Los usuarios que sospechen que puedan estar siendo víctimas de una de estas estafas pueden asegurarse colgando la llamada y acto seguido llamando o escribiendo personalmente a la persona que supuestamente estaba contactando con ellos.
  2. “Que la persona que esté recibiendo la llamada trate de obtener datos concretos que solamente podrían ser conocidos por el interlocutor real, como, por ejemplo, una vivencia entre ambos y que no haya sido expuesta de manera pública”, explican Puebla y Reboleiro.
  3. De manera preventiva se pueden configurar restricciones en el terminal móvil para que no se acepten llamadas provenientes de contactos no incorporados en su lista.
  4. Es conveniente incrementar la seguridad y privacidad de nuestras redes sociales“pues aquella información que esté pública podrá ser empleada para incrementar la credibilidad de la interlocución”.
  5. En el caso de accesos a servicios sensibles como, por ejemplo, la banca online, siempre es conveniente incorporar mecanismos de autenticación multifactor (MFA) para hacerle el proceso más difícil al ciberdelincuente.
  6. Evita descolgar el teléfono y responde con: ‘Sí’ o, ‘Sí, dígame’, puesto que esta simple respuesta puede ser la llave para fraudes por parte de ciberdelincuentes que, al grabar nuestras voces, tienen la posibilidad de utilizar posteriormente esa respuesta para autorizar procesos.

You may also like

Leave a Comment