Estados Unidos prohíbe las llamadas que utilizan clonación de voz

Las estafas mediante la clonación de voz son cada vez más comunes en todo el mundo, la inteligencia artificial requiere de segundos de grabación para imitar cualquier tipo de voz, este tipo de estafas pueden surgir a través de cualquier red social, pues los cibercriminales se actualizan constantemente.

Los ciberdelincuentes se aprovechan de la inteligencia artificial para cualquier tipo de engaños, es por ello que Estados Unidos ha declarado la guerra mediante el llamado “deepfake” y ha prohibido las llamadas que utilizan la clonación de voz mediante la inteligencia artificial.

Conoce la guerra al deepfake

En algunas ocasiones los expertos en ciberseguridad han hecho llamados al respecto, pues la clonación por voz puede tener múltiples usos, pero algunos de ellos son mal intencionados, por ejemplo este tipo de tecnología permite imitar la voz de cualquier persona, pues solo escuchando una grabación de pocos segundo, usualmente se nota en el ambiente comercial, seguramente se ha observado en diferentes anuncios.

La guerra al deepfake indica que a partir de ahora todo el mundo debe ser más escéptico al momento de creer en lo que escucha sobre todo si no desea caer en estafas que están a la orden del día y que gracias a la inteligencia artificial pueden lograrlo con mayor facilidad.

La Comisión Federal de Comunicaciones de Estados Unidos se ha mostrado preocupada por el incremento de este tipo de delitos en diferentes estados, pues ya son miles de personas que han padecido este timo.

Por consiguiente, la reacción del país ante este tipo de hechos es contundente, pues han declarado ilegales todas las llamadas automáticas que utilizan la clonación de voz generada por la inteligencia artificial con el fin de engañar a las personas y sacarles dinero.

El riesgo de la clonación por voz mediante la IA

Es posible que en algún momento haya visto comerciales por televisión en lo que utilizan voces y en algunos casos la apariencia de famosos pues es considerada una buena estrategia de marketing, pues los ciberdelincuentes hacen un proceso parecido pero en muchos casos se hacen pasar por un ser querido.

Hay que tener en cuenta que gracias a la inteligencia artificial cualquier persona puede imitar la voz de otra sin tener que ser un genio en informática, en muchos casos los estafadores hablan simulando ser un hijo o algún familiar en apuros con la intención de pedir una fuerte suma de dinero para darle solución a su situación económica.

Este tipo de práctica se ha convertido en un tema habitual, por lo que se espera que más países tomen medidas similares, pues la inteligencia artificial genera diferentes posibilidades en temas personales y laborales, pero también amenazan a la ley que deben enfrentarse, las autoridades lo advierten con frecuencia y por ello que muchos países están tomando en consideración algunas medidas al respecto.

Finalmente, es importante que como usuarios también se tomen las medidas pertinentes ante cualquier tipo de ciberestafa, ya sea por medio de una llamada por voz o mensajería, siempre es recomendable verificar que todo sea real.

error: Content is protected !!