Ahora, estafan con voces e imágenes clonadas por IA

Desde la Fiscalía de Cibercrimen y Ciberdelitos, se advirtió sobre la detección de casos en los que se utiliza la inteligencia artificial para clonar voces e imágenes de personas con el objetivo de cometer estafas virtuales. Ya se utiliza para suplantar la identidad de familiares y amigos y pedir dinero a cambio. Es necesario escuchar la calidad del sonido y la pronunciación de algunas palabras para detectar falencias.

16 ABR 2025 - 11:51 | Actualizado 16 ABR 2025 - 12:04

El fiscal general Fernando Rivarola advirtió sobre los avances que se vienen detectando de casos en los que se utiliza la inteligencia artificial para clonar voces e imágenes de personas con el objetivo de cometer estafas virtuales. Afirmó que por el momento este fenómeno delictivo no es generalizado por lo costoso que significa para los delincuentes la operación de los software que permiten su aplicación.

Rivarola es el jefe de la Unidad Fiscal Especializada en Cibercrimen y Ciberdelito del Ministerio Público Fiscal del Chubut. Periódicamente, desde esa Unidad se realizan campañas de concientización y prevención de las modalidades de estafas virtuales y sus mutaciones, a la par de los avances tecnológicos y el ingenio de quienes utilizan esas herramientas para delinquir.

Dijo que se trata del uso de inteligencia artificial generativa, en la que se imitan voces e imágenes, tal el caso de artistas fallecidos, y el uso artificial de registros para producir nuevos productos artísticos.
“Por suerte, todavía resulta costoso estafar con estas ventajas tecnológicas, pero ya se empiezan a utilizar con fines delictuales. No solo hace más fácil y creíble la estafa, sino que también resulta más difícil de investigar”, afirmó el funcionario judicial.

Afirmó que las redes sociales son el reservorio desde donde los estafadores obtienen las imágenes de sus víctimas. “Es muy fácil ingresar a cualquiera de las redes sociales que utilizamos y que obtengan nuestras voces y nuestras imágenes. Generalmente, las estafas se realizan por wasap, y por el momento desconfiamos de los mensajes de textos que nos envían. Pero ahora también se hace necesario desconfiar de las imágenes y audios que recibimos”, indicó.

Recomendaciones

La inteligencia artificial ya se utiliza para suplantar la identidad de familiares y amigos y pedir dinero a cambio.

Para detectar videos hechos con esta tecnología, es necesario prestar atención a la sincronización de los labios con la voz. También en audios es necesario escuchar la calidad del sonido y la pronunciación de algunas palabras para detectar falencias.

Aunque en la Argentina la inteligencia artificial no es un recurso utilizado de forma masiva por los ciberdelincuentes, es necesario estar atentos para no caer en un engaño de este tipo.

La inteligencia artificial generativa permite crear piezas a través del análisis de muchos datos. En este caso, para clonar la voz se necesitan varios segundos de grabación de audio capturados de una persona.

Es más sencillo hacerlo con personajes públicos, como políticos o celebridades: en internet hay decenas de audios de diversos famosos, que permiten recopilar información para producir los audios falsos. Pero es más difícil hacerlo en el caso de alguien

16 ABR 2025 - 11:51

El fiscal general Fernando Rivarola advirtió sobre los avances que se vienen detectando de casos en los que se utiliza la inteligencia artificial para clonar voces e imágenes de personas con el objetivo de cometer estafas virtuales. Afirmó que por el momento este fenómeno delictivo no es generalizado por lo costoso que significa para los delincuentes la operación de los software que permiten su aplicación.

Rivarola es el jefe de la Unidad Fiscal Especializada en Cibercrimen y Ciberdelito del Ministerio Público Fiscal del Chubut. Periódicamente, desde esa Unidad se realizan campañas de concientización y prevención de las modalidades de estafas virtuales y sus mutaciones, a la par de los avances tecnológicos y el ingenio de quienes utilizan esas herramientas para delinquir.

Dijo que se trata del uso de inteligencia artificial generativa, en la que se imitan voces e imágenes, tal el caso de artistas fallecidos, y el uso artificial de registros para producir nuevos productos artísticos.
“Por suerte, todavía resulta costoso estafar con estas ventajas tecnológicas, pero ya se empiezan a utilizar con fines delictuales. No solo hace más fácil y creíble la estafa, sino que también resulta más difícil de investigar”, afirmó el funcionario judicial.

Afirmó que las redes sociales son el reservorio desde donde los estafadores obtienen las imágenes de sus víctimas. “Es muy fácil ingresar a cualquiera de las redes sociales que utilizamos y que obtengan nuestras voces y nuestras imágenes. Generalmente, las estafas se realizan por wasap, y por el momento desconfiamos de los mensajes de textos que nos envían. Pero ahora también se hace necesario desconfiar de las imágenes y audios que recibimos”, indicó.

Recomendaciones

La inteligencia artificial ya se utiliza para suplantar la identidad de familiares y amigos y pedir dinero a cambio.

Para detectar videos hechos con esta tecnología, es necesario prestar atención a la sincronización de los labios con la voz. También en audios es necesario escuchar la calidad del sonido y la pronunciación de algunas palabras para detectar falencias.

Aunque en la Argentina la inteligencia artificial no es un recurso utilizado de forma masiva por los ciberdelincuentes, es necesario estar atentos para no caer en un engaño de este tipo.

La inteligencia artificial generativa permite crear piezas a través del análisis de muchos datos. En este caso, para clonar la voz se necesitan varios segundos de grabación de audio capturados de una persona.

Es más sencillo hacerlo con personajes públicos, como políticos o celebridades: en internet hay decenas de audios de diversos famosos, que permiten recopilar información para producir los audios falsos. Pero es más difícil hacerlo en el caso de alguien