Inteligencia artificial: Otra forma de violencia de género en redes sociales

Por Constanza López Guzmán 

¿Qué es la inteligencia y para qué se ocupa? 

Inteligencia artificial (IA), según el algoritmo de la inteligencia artificial de CHATGPT, es un “campo de estudio y desarrollo que se centra en la creación de sistemas y programas capaces de realizar tareas que normalmente requerirían inteligencia humana. La idea es diseñar máquinas que puedan simular y ejecutar procesos cognitivos, como el aprendizaje, la percepción, el razonamiento y la toma de decisiones”. 

En los últimos meses se ha podido observar en directo la rapidez y mejora de la IA, ya que se ha convertido en una herramienta que ha aportado en diferentes campos y se implementa según la utilidad que se les quiera dar. En la medicina, por ejemplo, se ha usado para investigaciones de fármacos, analizar datos clínicos e imágenes médicas. 

También se ha expandido en la astrofísica, química, finanzas, automóviles, educación, marketing, alimentación, seguridad y vigilancia; además, creó nuevos campos como la bioética, magísteres en IA, ética de la IA, entre otros. 

Por otro lado, el desarrollo y aplicación de la inteligencia artificial se observa en muchos aspectos de la vida cotidiana también. Siri, Alexa, recomendadores de contenidos en redes sociales, reconocimiento facial y voz, traductores y mucho más.

Sin embargo, así como es un aporte para tantos ámbitos, también puede ser peligroso dependiendo de su uso.

¿Qué es el deepfake?

El deepfake es una técnica que se usa para crear contenido visual y auditivo manipulado para que parezca real. Inicialmente, los deepfakes se popularizaron por su capacidad para generar videos pornográficos falsos con actrices, principalmente.

Los deepfakes pueden ser convincentes y difíciles de detectar en ocasiones, motivo que siembra dudas sobre su uso para difamar y desinformar a través de noticias, fotos y voces falsas a través de softwares. 

Patricia Peña, académica e investigadora de la Facultad de Comunicación e Imagen de la Universidad de Chile, indica que es son “softwares capaces de hacer un reconocimiento de voz y un reconocimiento facial, lo que se llama biométrico”. 

Patricia Peña, académica e investigadora de la Facultad de Comunicación e Imagen de la Universidad de Chile

Explica que una imagen biométrica es una foto facial de una persona. Es algo que se logró identificar hace cuatro años, aproximadamente, y se han levantado alertas. Como todo tipo de tecnología, “se puede desarrollar con un muy buen propósito, pero eso no significa que no hayan malos usos que, efectivamente, sean perjudiciales, y eso tiene que ver con una cuestión de ética”. 

Ahora, en esta era, todo se puede falsificar.

**

Cuando la IA se vuelve peligrosa para las mujeres

El porno deepfake es un tipo de pornografía que se crea alterando un video pornográfico con el rostro de, principalmente, personalidades públicas femeninas. Hay miles de páginas con el mismo contenido y no se limita a videos, sino también a fotos. 

Un informe publicado en octubre de 2019, Deeptrace, empresa holandesa de ciberseguridad, estimaron que el 96% de todo el deepfake era pornográfico. Las publicaciones recibieron más de 134 millones de visitas. 

Deeptrace también revela que encontraron 20 comunidades de creadores de videos adulterados con casi 100 mil miembros repartidos en diversos sitios porno falsos.

Algunos ejemplos han sido Emma Watson, Scarlett Johansson y Greta Thumberg. En 2018, Johansson manifestó que no intentaría eliminar el contenido, porque es una causa perdida. 

Las figuras públicas se pueden refugiar en su propia fama y tienen la plataforma para defenderse, sin embargo, esto también es una inminente amenaza para las mujeres que no tienen estos factores a su favor. Sus reputaciones pueden ser profundamente dañadas por la pornografía de venganza, práctica que ya se ha repetido, pero con la IA puede ser aún más dañino. 

Carolina Gainza, subsecretaría de Ciencia, Tecnología, Conocimiento e Innovación, señala a Súbela News que “es necesario abordar la reproducción de sesgo de género”. En el mundo de la tecnología es donde hay menos mujeres, entonces, cuando se genera este contenido, es principalmente hecho por hombres que “tienden a reproducir sesgos de género”. 

Carolina Gainza, subsecretaría de Ciencia, Tecnología, Conocimiento e Innovación

“Es importante que nos hagamos esta pregunta: ¿Cómo la inteligencia artificial está reproduciendo sesgos de género? Los ayudantes de voz como Alexa o Siri son mujeres (...) eso ya nos dice algo, que ejercen incluso labores de cuidados”, agrega la subsecretaria. 

Uno de los ejemplos más cercanos es lo ocurrido en Salta, Argentina. Una investigación realizada por The Wire dio a conocer en 2018 que se aprobó un proyecto para crear un algoritmo para identificar a las niñas adolescentes de sectores vulnerables que, eventualmente, podrían tener un embarazo adolescente en los próximos cinco años. El algoritmo estaba basado en edad, etnia, país de origen, si es que estaban en situación de discapacidad o si las niñas tenían agua caliente en el baño. 

Activistas llamaron la atención de los medios de comunicación nacionales sobre cómo se estaba utilizando una tecnología no probada ni regulada para violar los derechos de niñas, adolescentes y adultas. “La idea de que los algoritmos pueden predecir el embarazo adolescente antes de que se produzca es la excusa perfecta para que los activistas contrarios a las mujeres y a los derechos sexuales y reproductivos declaren innecesarias las leyes sobre el aborto”, maniestaron Paz Peña y Joana Varón, académicas feministas. 

Es muy difícil que esta tecnología no tenga sesgos, porque de por sí se entiende que lleva los sesgos de las personas que la pensaron, que la diseñaron y crearon”, sostuvo.

Las mujeres siguen siendo vulnerables en redes sociales. En un estudio realizado por el Observatorio Contra el Acoso Callejero en 2019, denunciaron que el 77,2% de las 1.300 mujeres encuestadas entre 18 y 26 años, habían sufrido algún tipo de violencia en redes sociales. 

Karen Vergara, vicepresidenta de la ONG Amaranta y Magíster en Estudios de Género, sostiene que diariamente estamos alimentando el algoritmo con fotografías y contenido que hace que este tipo de situaciones se vayan replicando. 

Karen Vergara, vicepresidenta de la ONG Amaranta y Magíster en Estudios de Género

Hace algunos meses con la plataforma de inteligencia artificial que creaba versiones tuyas de animación o fantasía, se empezó a descubrir que el algoritmo cuando buscaba imágenes asociadas a rostros con una tipología más bien femenina, se ha asociado también a fotografías que iban abordando cada vez más lo erótico hasta crear deepfake de tu rostro con un cuerpo en una posición sexual o sugerente”. Además, añade que, las inteligencias artificiales como están programadas, tienen sesgos de género.

La situación en Chile

En Chile no hay legislaciones ni marcos que limiten el uso de IA y además de cómo se usa. 

Existen campañas contra la violencia de género en redes sociales, pero es “generar mayores controles de cómo se usa la tecnología y para que eso no pase a llevar derechos que ya habíamos ganado y que muchas veces en el mundo digital se pierden”, señala Gainza. 

Karen Vergara señala que, si bien no hay una legislación que permita abordar estos casos, “hay un proyecto de ley en la actualidad que presentó la diputada Maite Orsini que aborda las conductas que constituyen violencia digital con una especial énfasis en género, sin embargo, todavía se encuentra en discusión, a la espera de ser aprobada”.

En Chile, de acuerdo a la subsecretaria Gainza, ya se están tomando medidas junto al Ministerio de la Mujer sobre cómo eliminar los sesgos de género. 

“Muchas de las cosas que ocurren hoy día, en materia de desigualdades de género, se traspasan a las tecnologías y eso es lo que tenemos que cuidar nosotros como ministerio”, plantea Gainza 

El 23 y 24 de octubre de este año se realizará la cumbre para la ética de la inteligencia artificial en Santiago de Chile donde asistirán autoridades de Latinoamérica y el Caribe. “Tenemos que pensar que estamos en una revolución”, concluye Carolina Gainza.  




Constanza López Guzmán