Advierten sobre los riesgos de usar ChatGPT para convertir sus fotos al estilo ‘Studio Ghibli’

Advierten sobre los riesgos de usar ChatGPT para convertir sus fotos al estilo ‘Studio Ghibli’

En los últimos días, miles de usuarios han utilizado ChatGPT, a través de su integración con generadores de imágenes como DALL·E, para convertir sus fotos al estilo Studio Ghibli. Sin embargo, pocos se detienen a analizar cuáles son los riesgos que esta práctica implica.

A diferencia de otras plataformas que recolectan imágenes desde internet, el uso de generadores como DALL·E desde ChatGPT implica una cesión voluntaria y explícita de los datos por parte del usuario.

Esto tiene implicaciones directas en términos legales y técnicos. Bajo el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, el consentimiento explícito permite a empresas como OpenAI almacenar y procesar esta información con más libertad, en comparación con métodos que apelan al “interés legítimo”.

El problema es que la mayoría de las imágenes subidas son personales, únicas, y no han sido expuestas previamente en espacios públicos. Pero, realmente, ¿cuáles son los riesgos de usar ChatGPT para convertir tus fotos al estilo Ghibli?

El Centro de Análisis y Estudio de la Comunicación (CAESCO) advirtió que, más allá del resultado visual, estas herramientas pueden extraer información personal de las imágenes que reciben.

Al tratarse de plataformas que procesan información biométrica, los datos recopilados van más allá de un simple archivo JPG.

Entre los riesgos de usar ChtaGPT para convertir tus fotos al estilo Ghibli más relevantes se encuentran:

  • Reconocimiento facial: uso de los rasgos únicos del rostro para identificar personas de forma automatizada.
  • Análisis emocional: detección de expresiones faciales para inferir emociones o estados de ánimo.
  • Perfiles digitales: construcción de patrones de comportamiento a partir de las imágenes entregadas.
  • Rastreo en línea: asociación de la identidad visual con perfiles en otras plataformas o redes sociales.
  • Uso en deepfakes: posible incorporación del rostro del usuario en videos generados artificialmente.

Estos riesgos no son nuevos. Plataformas como Snapchat o TikTok han sido señaladas por prácticas similares, especialmente al ofrecer filtros con funciones de mapeo facial. Sin embargo, la sofisticación de los modelos actuales eleva el nivel de exposición.

Infobae