Skip to content

Opinión: El Papa fake y la violencia digital

papa fake
Opinión: El Papa fake y la violencia digital

Opinión: El Papa fake y la violencia digital

Por Paulina Ibarra Araya, directora ejecutiva de Fundación Multitudes

Reacciones dispares causó una imagen que circuló durante el pasado fin de semana que mostraban al Papa Francisco utilizando un muy chic atuendo invernal, consistente en una parka blanca. Mientras algunos felicitaron al sumo pontífice por estar a la altura de las nuevas tendencias de la moda, otros no dudaron en criticar la vestimenta, que consideraron rebajaba la dignidad del cargo. Pero toda esa discusión era estéril. Era un deepfake, una imagen hábilmente manipulada por inteligencia artificial (AI en sus siglas en inglés).

Este ejemplo es sólo un botón de muestra de lo feble que son los controles y regulaciones en las redes sociales y sobre todo en el uso de las tecnologías de avanzada. Lo de la autoridad eclesiástica puede ser tomada como una humorada, pero las posibilidades que esta práctica sea algo común, y que genere un daño irreparable a figuras públicas, es proporcionalmente alta en la medida que la tecnología siga avanzando (y eso ocurre todos los días, minuto a minuto). La violencia digital es un hecho y nadie se está haciendo cargo.

De hecho, el controvertido magnate Elon Musk, y un grupo importante de expertos, empresarios y líderes de opinión, está pidiendo ponerle pausa al desarrollo de AI, por lo menos por un tiempo, de manera tal de que se puedan generar los marcos legales y tecnológicos necesarios para evitar que esto se convierta en una ola incontrolable. Chat GTP, creada hace 4 meses, ya está generando estragos y temores de varios tipos, debido a la amenaza que significa no poder distinguir claramente qué es generado por la mente humana y qué es lo creado por una máquina.

Pero el fenómeno no es nuevo. El deepfake, que es como se le denomina a las manipulaciones con AI para crear imágenes, audio y video con la intención de engañar, como ocurrió con el Papa, fue acuñado por un usuario de Reddit de 2017, que subió pornografía de celebridades femeninas populares con intercambio de rostros artificialmente. O sea, hace por lo menos 6 años que se está dando cuenta de ese fenómeno y recién hoy se siente real la posibilidad de un perjuicio irremontable.

En el caso de la arena política, los deepfakes dirigidos a dirigentes y discursos representan menos del 5% de los que circulan en línea, pero la profundidad del daño puede ser mayor si se considera como verdades estas noticias falsas. Como ya lo hemos venido advirtiendo desde hace tiempo en Fundación Multitudes, el daño a las democracias es latente y es necesario ponerle atajo a la desinformación. En efecto, salvo excepciones, las redes sociales y el acceso a AI es prácticamente masivo y sin costo, por lo que su penetración a distintas capas sociales, que no sepan cotejar una información, se vuelve pernicioso para la reputación de autoridades e instituciones.

Por lo tanto, la pregunta que uno se hace -a la luz de todos estos antecedentes- es si ya hemos regulado tantas fuentes productivas, servicios y rubros, ¿por qué nos cuesta tanto regular la industria de las redes sociales, y ahora de inteligencia artificial, que está demostrando ser tan nociva y que profita en base a nuestros intereses, ánimo y percepción propia y de otros? Regular no significa sancionar.

Que a la máxima autoridad de la Iglesia le pongan una chaqueta puede ofender a los creyentes y ser motivo de burla para los no creyentes, pero inventar imágenes que afecten la dignidad de personas, en especial si son figuras públicas, es un atentado a la sociedad en su conjunto y una amenaza para la democracia. Es momento de avanzar con paso firme hacia estrategias holísticas de prevención de la violencia digital política, incluida la desinformación, donde las redes sociales tengan responsabilidades claras de transparencia y rendición de cuentas. Solo así podremos evitar nuevos Papa fake.

Columna publicada en Cooperativa.cl

Otras noticias / apariciones en prensa

© 2023. Fundación Multitudes. Todos los derechos reservados.