Uso de voces clonadas con IA para perpetrar estafas telefónicas utilizando voces familiares
La inteligencia artificial (IA) se está utilizando para realizar llamadas en las que se imitan las voces de personas conocidas para estafar al destinatario. Estas llamadas utilizan la tecnología de IA generativa, que crea copias realistas de voces a partir de datos de audio de la persona en cuestión. Los deepfakes, que son falsificaciones profundas, se han vuelto más comunes y representan un riesgo de desinformación y estafas. La disponibilidad de tecnologías de IA plantea retos importantes, ya que las llamadas con IA pueden ser utilizadas para engañar a las personas, haciéndoles creer que están hablando con un amigo o familiar cuando en realidad es un estafador. Es necesario mantenerse cauteloso y verificar la autenticidad de las llamadas inesperadas.
La creación de una copia realista de la voz de alguien requiere una gran cantidad de datos de entrenamiento para el algoritmo, los cuales podrían estar fácilmente disponibles en las redes sociales. Esto aumenta el riesgo de desinformación y manipulación de la opinión pública. Las estafas de secuestro virtual, en las que los estafadores engañan a las víctimas haciéndoles creer que un ser querido está en peligro y exigen un rescate, se han vuelto más personales y persuasivas con el uso de la tecnología de IA. Aunque existen herramientas para detectar estas falsificaciones, como los espectrogramas, es importante mantener una actitud escéptica y verificar la autenticidad de las llamadas sospechosas antes de tomar cualquier acción.
A medida que la IA continúa avanzando, las fronteras entre la realidad y la ficción se vuelven más difusas, lo que requiere que las personas sean más cautelosas. Ante una llamada inesperada que solicite dinero u otras peticiones inusuales, es recomendable devolver la llamada o enviar un mensaje de texto a la persona para confirmar su identidad. La conciencia y la precaución son clave para protegerse de las estafas y la manipulación en un entorno donde la tecnología de IA puede imitar perfectamente las voces de las personas conocidas. Aunque no es posible detener completamente esta tecnología, es fundamental mantenerse alerta y verificar la autenticidad de las comunicaciones en situaciones sospechosas.
Noticias relacionadas
- Tragedia en el norte paceño: familia muere al caer su vehículo a un río
- Rosalía: de víctima de un ataque canino en El Alto a graduada con honores en EE. UU.
- Mes de la Concientización sobre la Ciberseguridad: Protejamos nuestro mundo
- Arce exige justicia estricta contra quienes provocan incendios
- La Cámara Agropecuaria del Oriente rechaza ataques a directivos ganaderos