Google cambió silenciosamente las políticas de la plataforma para permitir que los usuarios realicen nuevos tipos de denuncias.
02 de julio 2024, 08:17hs
En silencio y sin anuncios a los cuatro vientos, YouTube realizó cambios en sus políticas de uso con la intención de frenar la circulación de videos no consentidos, generados con inteligencia artificial. En su variante generativa, esas tecnologías ahora en auge ponen a las plataformas digitales —en especial a las redes sociales— frente a nuevos desafíos. ¿Cómo incluir esos contenidos, sin ir en desmedro de la seguridad, la privacidad y las buenas costumbres?
¿Por qué la IA generativa produce contenido que estorba?
Tal como hemos revisado en Inteligencia artificial generativa: los miedos y las esperanzas que asoman a la espera de las regulaciones, estos avances —que tienen a ChatGPT como paradigma— traen consigo encantos y también una serie de riesgos asociados a su uso. Entre estos últimos se destaca la problemática de la desinformación, además de posibles difamaciones con deepfakes.
Leé también: Europa quiere que la publicación de deepfakes pornográficas se penalice como un acto delictivo
Las deepfakes son falsificaciones profundas. Pueden ser fotografías, videos y/o audios, en ocasiones combinados entre sí. Debido a su alto grado de realismo, podrían ser tomados como reales. Un ejemplo recordado es la imagen que circuló en las redes que mostraba al Papa Francisco vistiendo una larga campera blanca. Muchos creyeron que era real, hasta que su creador —que usó un sistema relativamente simple de IA generativa— reconoció el origen de la imagen.
El plan de YouTube para frenar al contenido no consentido generado con inteligencia artificial
Según informa TechCrunch, el cambio silencioso en las políticas de uso de YouTube se concretó el mes pasado. ¿Qué cambia para los usuarios del portal? La revisión permite a los usuarios solicitar la eliminación de contenido generado con IA que simule su voz o su rostro.
Esta movida por parte de Google es una muestra más de que las normativas corren por detrás de las experiencias de la práctica. Es, huelga decir, una expansión de cambios que YouTube había instaurado en noviembre del año pasado. Ahora, en lugar de peticiones de eliminación de contenido por tratarse de engaños; la plataforma establece la posibilidad de solicitar la baja de ese material como una violación a la privacidad.
Siguiendo a la fuente, hay que tener en cuenta que el simple hecho de enviar la solicitud de eliminación no significa necesariamente que el contenido se eliminará. Al respecto, YouTube advierte que emitirá su propio juicio sobre la queja basándose en una variedad de factores. Por ejemplo, habrá salvedades, como las parodias o las sátiras. También contemplarán la relevancia pública del contenido denunciado.
Leé también: Cómo funciona la nueva opción de YouTube que usa IA para crear fondos instrumentales
Además, YouTube señala le dará a quien subió el contenido 48 horas para actuar sobre la queja. Si se elimina antes de que transcurra ese tiempo, se cierra la denuncia. De lo contrario, el responsable de la plataforma iniciará una revisión.
Inteligencia artificial, dilema para los gigantes de la tecnología
Sabemos que Google no está en contra del uso de la IA: de hecho, es uno de los animadores del sector, que ha reaccionado al boom de ChatGPT con su propio modelo, Gemini.
Además de oportunidades, la IA generativa implica desafíos. Las grandes compañías que participan en ese ámbito han propuesto, como solución, el etiquetado de contenido sintético. En criollo, son marcas que explicitan que se uso un sistema de inteligencia artificial para su creación.
YouTube —que es parte integral de Alphabet y Google— tampoco es ajeno a la movida. Tal como observa TechCrunch, el portal de videos ha experimentado con su propia IA generativa, con una herramienta que resume comentarios, otra para crear fondos musicales, y una para hacer preguntas sobre un video u obtener recomendaciones. En ese marco, el gigante de las búsquedas advirtió anteriormente que simplemente etiquetar el contenido de IA como tal no necesariamente lo protegerá de la eliminación, ya que aún tendrá que cumplir con las pautas de la comunidad.