“Alguien agarró una foto mía en la playa, que yo había subido a Instagram, le metieron inteligencia artificial... y me quitaron la ropa”, explico Villalobos en un video publicado en su cuenta de Twitter. Y agregó: “Es mi cara, pero no es mi cuerpo”,
El caso de Villalobos pone de manifiesto un tema que no es nuevo, pero que volvió a ser materia de debate y preocupación: el uso sin consentimiento de imágenes de celebridades para generar contenido falso para adultos.
Les dejó el contexto de esta porquería. pic.twitter.com/Vto8xPGvuj
— Johanna Villalobos ?? (@johavillam) May 23, 2023
Con el advenimiento de las herramientas de inteligencia artificial, esta tarea inmoral se ha vuelto mucho más rápida y sencilla. Y casi está al alcance de cualquiera con acceso a la red.
Este tipo de aplicaciones se ha desarrollado a tal punto de ser capaz de crear, no solamente piezas inéditas, sino que los más básicos generadores de imágenes ya pueden componer imágenes hiperrealistas falsas.Los ejemplos sobran: fotos del expresidente de Estados Unidos siendo arrestado, los virales del papa Francisco vistiendo ropa de diseñador y un camperón blanco, y ahora, el desnudo de la influencer de Costa Rica.
Más allá de probar las herramientas de inteligencia artificial, llevarlas hasta lo imposible y sorprendernos con los resultados, su uso plantea de nuevo el dilema moral de si está bien compartir fotos falsas de personas reales.
Actualmente, la imagen tiene un poder sin precedentes. Sumado a los problemas de derechos, uso indebido de imágenes personales y demás cuestiones ligadas a la intimidad y dignidad de las personas, no son pocos quienes temen que la inteligencia artificial se convierta en una herramienta que sirva a la desinformación.
El desafió está planteado. La solución debería llegar desde el mismo sector: el problema lo deberá resolver la tecnología, para evitar que se llegue al punto en que no se pueda distinguir entre lo que es real y lo que no.
“Alguien agarró una foto mía en la playa, que yo había subido a Instagram, le metieron inteligencia artificial... y me quitaron la ropa”, explico Villalobos en un video publicado en su cuenta de Twitter. Y agregó: “Es mi cara, pero no es mi cuerpo”,
El caso de Villalobos pone de manifiesto un tema que no es nuevo, pero que volvió a ser materia de debate y preocupación: el uso sin consentimiento de imágenes de celebridades para generar contenido falso para adultos.
Les dejó el contexto de esta porquería. pic.twitter.com/Vto8xPGvuj
— Johanna Villalobos ?? (@johavillam) May 23, 2023
Con el advenimiento de las herramientas de inteligencia artificial, esta tarea inmoral se ha vuelto mucho más rápida y sencilla. Y casi está al alcance de cualquiera con acceso a la red.
Este tipo de aplicaciones se ha desarrollado a tal punto de ser capaz de crear, no solamente piezas inéditas, sino que los más básicos generadores de imágenes ya pueden componer imágenes hiperrealistas falsas.Los ejemplos sobran: fotos del expresidente de Estados Unidos siendo arrestado, los virales del papa Francisco vistiendo ropa de diseñador y un camperón blanco, y ahora, el desnudo de la influencer de Costa Rica.
Más allá de probar las herramientas de inteligencia artificial, llevarlas hasta lo imposible y sorprendernos con los resultados, su uso plantea de nuevo el dilema moral de si está bien compartir fotos falsas de personas reales.
Actualmente, la imagen tiene un poder sin precedentes. Sumado a los problemas de derechos, uso indebido de imágenes personales y demás cuestiones ligadas a la intimidad y dignidad de las personas, no son pocos quienes temen que la inteligencia artificial se convierta en una herramienta que sirva a la desinformación.
El desafió está planteado. La solución debería llegar desde el mismo sector: el problema lo deberá resolver la tecnología, para evitar que se llegue al punto en que no se pueda distinguir entre lo que es real y lo que no.