“Todos representamos parcialmente el mundo y la realidad que percibimos desde nuestro subjetivo punto de vista. El problema es que aquellos en posiciones estructuralmente superiores, toman estas representaciones parciales y las establecen como regla general”
Ricardo Baeza-Yates y Catherine Muñoz, 2021
En la última década, la expansión de la tecnología digital y la conectividad en línea han tenido un impacto masivo en la vida de las personas en todo el mundo. Según Fernández (2022), para el año 2022, aproximadamente el 90% de la población mundial ya poseía al menos un smartphone, y casi dos tercios de los habitantes del planeta estaban conectados a internet. Estas cifras son impresionantes y reflejan el profundo alcance de la revolución digital en la sociedad contemporánea.
Durante la pandemia de la COVID-19, la necesidad de mantenerse conectado y acceder a información en línea se hizo aún más evidente. Según datos recopilados por Lewis (2020), en tan solo un minuto del año 2020, se produjeron actividades en línea asombrosas: se enviaron 59 millones de mensajes a través de plataformas como WhatsApp o Messenger, se despacharon 190 millones de correos electrónicos, se descargaron 400,000 aplicaciones y se realizaron 4 millones de búsquedas en Google. Además, en ese mismo minuto se publicaron 195,000 tuits, se visualizaron 695,000 fotos en Instagram, se crearon 2.5 millones de Snaps y se reprodujeron 4.7 millones de vídeos en YouTube. Sorprendentemente, se consumieron un total de 764,000 horas de contenido en Netflix durante ese breve período de tiempo.
La explosión de información en línea es innegable, y detrás de este auge subyacen cuestiones éticas fundamentales que no pueden pasarse por alto. Como menciona Del Castillo (2019), existe un riesgo inherente en la presentación sesgada y parcial de la información, careciendo de los filtros necesarios de veracidad, neutralidad y equilibrio. Esta abundancia de información puede complicar la búsqueda de la verdad y erosionar la confianza en las fuentes.
Es precisamente en este contexto caótico de información constante donde la inteligencia artificial (IA) emerge como una herramienta crucial. La IA, a través de algoritmos que funcionan como motores de recomendación, tiene la capacidad de analizar las preferencias individuales de los usuarios y proporcionar contenido personalizado basado en sus perfiles (Lee, 2018). Esto plantea la pregunta esencial: ¿Puede la IA, a través de sus algoritmos de recomendación, ser verdaderamente una guía imparcial que dirija a las personas hacia la información relevante y de interés?
De acuerdo con la UNESCO, (disponible en enlace), se señala que al realizar una búsqueda de imágenes utilizando el término "colegiala", es probable que se muestre una página repleta de mujeres y chicas con disfraces altamente sexualizados. Sorprendentemente, si en su lugar se busca "colegial", los resultados mostrarán principalmente imágenes de jóvenes estudiantes comunes, con pocas o ninguna representación sexualizada de chicos. Estos ejemplos ejemplifican de manera clara los sesgos de género presentes en la inteligencia artificial, los cuales son el resultado de representaciones estereotipadas profundamente arraigadas en nuestras sociedades.
Es importante destacar que estos sesgos no se limitan a limitaciones técnicas o datos incompletos, sino que a menudo reflejan decisiones conscientes tomadas por quienes diseñan y desarrollan estos sistemas. La Inteligencia Artificial, en muchos casos, no es tan objetiva y neutral como se podría suponer.
La IA se desarrolla en un contexto histórico de desigualdades sociales y discriminación, lo que inevitablemente influye en su diseño y desarrollo. Esta tecnología a menudo se crea desde una perspectiva particular, y aquellos que ocupan posiciones dominantes en el campo tecnológico pueden imponer representaciones parciales de la realidad como normas generales.
El reconocimiento facial, por ejemplo, ha sido objeto de críticas debido a su falta de precisión y su potencial para la discriminación. Estos sistemas se basan en datos históricos que a menudo están sesgados y no representan adecuadamente la diversidad de la población. Además, se han utilizado inapropiadamente para predecir rasgos y características basados en pseudociencia, lo que plantea serios problemas éticos y de derechos humanos (Baeza-Yates, 2021).
En la era de la inteligencia artificial, la lucha contra los estereotipos de género y los sesgos discriminatorios se vuelve esencial. Según "Las recomendaciones sobre la ética de la inteligencia artificial" (Unesco, 2021), la IA puede exacerbar la discriminación y la desigualdad, así como amenazar la diversidad cultural y los derechos humanos. La IA, en su búsqueda de eficiencia y precisión, corre el riesgo de crear brechas digitales y de exclusión si no se abordan adecuadamente estos problemas.
Los Estados Miembros reconocen la importancia de no permitir que estos prejuicios se arraiguen en los sistemas de IA y abogan por una acción proactiva en su detección y corrección. Esto no solo es crucial para promover la igualdad de género, sino también para prevenir la violencia y el acoso, especialmente en línea, contra mujeres, niñas y grupos insuficientemente representados.
En un mundo donde la información digital impulsa cada vez más nuestras vidas, la alfabetización mediática e informacional se convierte en una necesidad apremiante. La economía digital, por su parte, nos presenta desafíos importantes, pero también abre un amplio abanico de oportunidades. Estas oportunidades son particularmente relevantes para los países en desarrollo que aspiran a aprovechar al máximo la inteligencia artificial y forjar economías digitales sólidas y sostenibles.
Si bien la ética no debe obstaculizar la innovación, sino más bien guiarla, la consideración de los riesgos éticos puede llevar a una investigación y desarrollo de la IA que refuerce los derechos humanos, los valores y los principios fundamentales, promoviendo una reflexión moral y ética en la aplicación de estas tecnologías. La IA es una herramienta poderosa, y su evolución debe ir de la mano con una conciencia ética sólida.
Referencias
Del Castillo, Carlos (26 de noviembre de 2019). Google Discover: las fake news inundan los móviles Android en plena lucha contra la desinformación. eldiario.es Recuperado de: http://bit.ly/2pUcksC [Consultado el 9 de agosto 2023].
Lee, Kai-Fu (2018). AI Superpowers. China, Silicon Valley and the New World Order. Boston: Houghton Mifflin Harcourt.
Lewis, Lori (10 de marzo de 2020). Infographic: What Happens in an Internet Minute 2020. All Access. Recuperado de: https://bit.ly/3bz7D9N [Consultado el 9 de agosto 2023].
Fernández, Rosa (9 de agosto de 2023). Industria mundial de smartphones – datos estadísticos. Recuperado de: https://es.statista.com/temas/10145/industria-y-consumo-mundial-de-smartphones/#topicOverview [Consultado el 9 de agosto 2023].
Baeza-Yates, Ricardo (2021) Los sesgos en inteligencia artificial, el reflejo de una sociedad injusta. Recuperado de: https://theconversation.com/los-sesgos-en-inteligencia-artificial-el-reflejo-de-una-sociedad-injusta-160820 [Consultado el 9 de agosto 2023].
Baeza-Yates Ricardo; Muñoz Catherine (2021) Académicos viendo Netflix: Sesgos Codificados. Recuperado de: https://www.ciperchile.cl/2021/05/08/academicos-viendo-netflix-sesgos-codificados/ [Consultado el 9 de agosto 2023].
Comments