Implicancias de la equidad
algorítmica en la inteligencia artificial
Implications of algorithmic fairness in artificial
intelligence
Augusto Parcemón Cortez
Vásquez
Autora
corresponsal: acortezv@unmsm.edu.pe
Orcid: https://orcid.org/0000-0002-5188-7962
Universidad Nacional Mayor de San Marcos, Lima, Perú.
María Manyari Monteza
Universidad Nacional Mayor de San Marcos, Lima, Perú.
Gilberto
Salinas Azaña
Orcid:
https://orcid.org/0000-0003-3591-1202
Universidad Nacional Mayor de San Marcos, Lima, Perú.
Jorge
Luis Chávez Soto
Orcid:
https://orcid.org/0000-0002-9408-9266
Universidad Nacional Mayor de San Marcos, Lima, Perú.
Correspondencia:
acortezv@unmsm.edu.pe
DOI:
https://doi.org/10.31381/perfilesingenieria.v21i22.7056
RECIBIDO: 01 de noviembre de 2024
ACEPTADO: 15 de diciembre de 2024
Cómo
citar
A. P. Cortez Vásquez, M. Manyari
Monteza, G. Salinas Azaña, y J. L. Chávez Soto, «Implicancias de la equidad
algorítmica en la Inteligencia artificial», Perfiles_Ingenieria, vol. 21,
n.º 22, pp. 141–153, dic. 2024.
RESUMEN
El uso de algoritmos de inteligencia artificial no
se limita, como a veces se supone, a procedimientos efectivos. El uso de este
vocablo plantea varias concepciones, interpretaciones y problemas. Con el fin
de no distraernos en este laberinto lingüístico, hemos tomado posición por
una caracterización muy común en sentido psicológico que consiste en concebirla
como una capacidad poseída por ciertos organismos/mecanismos para adaptarse a
situaciones nuevas utilizando para tal efecto el conocimiento adquirido en el
curso de anteriores procesos de adaptación. La irrupción de la inteligencia
artificial (IA) se integra cada vez más en la sociedad y generalmente se
utiliza para la toma de decisiones oportunas que afectan a la sociedad y
por ende a las personas, en diferentes ámbitos. En el desarrollo de algoritmos
de la IA, pueden ocurrir errores sistémicos y repetibles en un sistema
informático que crean resultados injustos, como privilegiar a un grupo
arbitrario de usuarios frente a otros. Estos algoritmos denominados sesgados se
caracterizan generalmente por la existencia de prejuicios o distorsiones en los
datos de entrenamiento. La comunidad científica e instituciones gubernamentales
han lanzado propuestas para combatir estos riesgos que buscan reducir su
impacto negativo en la sociedad. Es imperativo resolver aspectos que van contra
la ética, la justicia, la transparencia y la equidad de los datos, algoritmos y
sus predicciones. El presente trabajo pretende sensibilizar que el desarrollo
de algoritmos para tomar decisiones debe cumplir tres requisitos: primero,
garantizar el equilibrio entre el conjunto de datos utilizados y la
programación del algoritmo con equidad que evite la discriminación y el sesgo;
segundo, garantizar condiciones de transparencia en los resultados, es decir,
el resultado obtenido debe ser explicable a cualquier usuario de forma clara y
sencilla. No debe soslayarse la regulación de requisitos para el desarrollo y
uso de la IA, debe alinearse a la no afectación de los derechos humanos
fundamentales.
Palabras claves: algorítmica, equidad algorítmica, inteligencia
artificial, equidad de datos, sesgos algorítmicos.
ABSTRACT
The use of Artificial Intelligence algorithms is not limited, as is
sometimes assumed, to effective procedures; the use of this vocabulary raises
several conceptions, interpretations and problems. In order not to get
distracted in this linguistic labyrinth, we have taken a position on a very
common characterization in the psychological sense that consists of conceiving
it as a capacity possessed by certain organisms/mechanisms to adapt to new
situations using for this purpose the knowledge acquired in the course. . from previous adaptation processes. The emergence of
artificial intelligence (AI) is increasingly integrated into society and is
generally used to make timely decisions that affect society and therefore
people, in different areas. In the development of AI algorithms, systemic and
repeatable errors can occur in a computer system that create unfair results,
such as privileging an arbitrary group of users over others. These so-called
biased algorithms are generally characterized by the existence of biases or
distortions in the training data. The scientific community and government
institutions have launched proposals to combat these risks that seek to reduce
their negative impact on society. It is imperative to resolve aspects
that go against Ethics, justice, Transparency and Equity of data, algorithms
and their predictions. The present work aims to raise awareness that the
development of algorithms to make decisions must meet three requirements:
first, guarantee the balance between the set of data used and the programming
of the algorithm with fairness that avoids discrimination and bias, second,
guarantee conditions of transparency in the results, that is, the result
obtained must be explainable to any user in a clear and simple way. The
regulation of requirements for the development and use of AI should not be
ignored, it must be aligned with the non-affecting of fundamental human rights
Keywords: Algorithmic, algorithmic fairness, artificial
intelligence, data fairness, algorithmic
biases.
1.
Problemática
La IA presenta un panorama que incluye un conjunto de problemas que son
inherentes a su construcción, comportamiento y resultados. A esta problemática
puede añadirse que los algoritmos, lejos de eliminar las desigualdades, está
reproduciendo, sistematizando y amplificando los sesgos. Esto se debe en gran
medida a un desequilibrio entre los datos utilizados y la programación del
algoritmo con atributos de sesgo y discriminación. Al mismo tiempo, se soslayan
condiciones de transparencia en las que no se explica a los usuarios los
resultados obtenidos ni la forma como se obtuvieron. La profesora titular de Esade, Anna Ginès i Fabrellas [1], afirma que
los problemas presentados al inicio de la IA no han desaparecido; por el
contrario, los equipos encargados de desarrollar esta tecnología son
responsables de decisiones discriminatorias, en la que se magnifican
sesgos y estereotipos de género.
La
CEPAL, consciente de esta problemática y de su rol como promotor de un
crecimiento económico equitativo a largo plazo, la generación y asignación
eficiente de recursos financieros para apoyar el desarrollo y la igualdad en
los países de América Latina y el Caribe, considera que se requiere redefinir
los patrones de desarrollo de la región que tenga como columna vertebral la
equidad, vale decir, la reducción de la desigualdad social en sus diferentes
formas. Este es el instrumento para medir la calidad del desarrollo [2]
Cundo
se habla de equidad algorítmica se refiere claramente al diseño de soluciones
basadas en IA, lo que incluye a aquellos de aprendizaje automático (ML),
sustentados en la justicia, transparencia, el respeto, la no discriminación y
oportunidad equitativa, explica Marco Creatura, científico de datos en
BBVA AI Factory [4]:
La
preocupación principal es que estos sistemas no reproduzcan, refuercen ni
amplifiquen los sesgos sociales existentes. La equidad en este contexto se
define como la ausencia de sesgos, que en el campo de la toma de
decisiones se define como cualquier prejuicio o favoritismo hacia un individuo
o grupo basado en sus características inherentes o adquiridas.
La
discriminación algorítmica, también denominada como sesgo algorítmico, hace
referencia al hecho de que los algoritmos de IA y ML involucran un conjunto de
prejuicios y sesgos humanos existentes en los datos utilizados en su
entrenamiento. Estos prejuicios afectan una amplia gama de derechos humanos que
incluyen el derecho a comunicar o recibir información libremente [5]
Los algoritmos tienen una dimensión política en la medida en que
intervienen en el orden social y estructuran nuestras decisiones. “La injusticia, en cualquier parte,
es una amenaza a la justicia en todas partes”, señalaba Martin Luther King en
relación a los derechos civiles en los años 70. Por su parte, NIKKEN [7]
señalaba que la noción de derechos humanos se alinea con la afirmación de la
dignidad de la persona frente al Estado. En ese sentido, el poder público se
debe ejercer como un servicio dirigido a conseguir el bienestar del ser humano.
Por lo tanto, no se puede ni debe ser empleado como instrumento para ofender
cualidades inherentes al ser humano. Por el contrario, debe ser un vehículo que
permita vivir en sociedad en consonancia con la misma dignidad.
Paradójicamente,
pese a ser de vital importancia sus usos y decisiones por el impacto directo que
tiene en la vida de las personas y en sus derechos, los organismos que los
utilizan desarrollan e implementan sistemas de algoritmos con bajos niveles de
transparencia, conocimiento público y medidas de supervisión o responsabilidad
[8]
El sesgo
algorítmico ocurre cuando en un sistema se soslaya el equilibrio en los datos y
la construcción de los algoritmos con criterios no transparentes y subjetivos:
“Sistemas y predicciones que benefician sistemáticamente a un grupo de
individuos frente a otro, resultando así injustas o desiguales” [9]
Estos algoritmos
aprenden mediante distintos paradigmas de aprendizaje. Uno de los más
utilizados es el de aprendizaje supervisado, en la que se someten a proceso de
entrenamiento guiado (supervisado) por anotaciones o etiquetas, con el
fin de alinear características o patrones propios de los datos con las
correspondientes etiquetas. Se analizan los datos con la intención de encontrar
patrones distintivos que permitan diferenciar las categorías. El propósito
de este método es que, a través del entrenamiento, los sistemas aprendan a
encontrar patrones en estas características y asociarlas con las correspondientes
categorías. Probablemente en un inicio las asociaciones encontradas serán
incorrectas. No obstante, durante el proceso de entrenamiento, el modelo se irá
ajustando y mejorará su desempeño.
Para
resolver estos problemas se debe considerar dos aspectos. En primer lugar, debe
existir un equilibrio entre el conjunto de datos utilizados y la programación
del algoritmo que evite la discriminación y el sesgo, lo que maximizará el
nivel de equidad. En segundo lugar, el algoritmo utilizado debe cumplir
condiciones de transparencia que permitan explicarlo a cualquier usuario de
forma clara y sencilla [10]
2. Sesgos en
sistemas de reconocimiento facial
Los sistemas de
reconocimiento facial presentan sesgos algorítmicos. Se han presentado casos
para reconocer adecuadamente a personas de diferentes razas y etnias, sobre
todo en aquellos con tonos de piel más oscuros. La razón más común es que los
algoritmos utilizados en estos sistemas suelen basarse en conjuntos de datos
desequilibrados y poco representativos, derivándose de ello en un trato injusto
y discriminación hacia ciertos grupos. IBM presentó un caso en el que hubo
muchas críticas. Su sistema de reconocimiento facial mostró un sesgo racial al
tener dificultades para reconocer adecuadamente a personas de piel más
oscura [11].
2.1.
Discriminación laboral
Cuando se utilizan
sistemas para selección de personal, estos pueden basarse en algoritmos con
tendencias a discriminación en el análisis de sus datos. Pueden presentar
sesgos que favorezcan ciertos perfiles y excluyan a personas de diferentes
orígenes o con trayectorias no convencionales. Esto hace que se refuercen las
desigualdades, se favorezcan preferencias y se dificulte la diversidad en los
centros laborales.
2.2.
Sesgos en la publicidad en línea
Muchas empresas utilizan
soluciones que usan algoritmos que favorecen estereotipos de género y raza.
Esto excluye a ciertos grupos de oportunidades comerciales, laborales o
educativas, lo que refuerza las desigualdades y limita las opciones
disponibles. Los anuncios o contenido generados contribuyen a la segregación
ocupacional y limitan la representación en diversas áreas. El resultado es la
reducción de las oportunidades de ciertos grupos.
2.3.
Asistentes de voz y estereotipos de género
Los asistentes de voz más
populares, como Siri, Alexa y Google Assistant, a menudo tienen voces femeninas
y están diseñados para responder con un tono servicial, lo que puede reforzar
los estereotipos de género y perpetuar la desigualdad de género.
2.4.
Sesgos en los algoritmos de recomendación
Las redes sociales y
plataformas en línea utilizan algoritmos para personalizar la experiencia del
usuario, pero es importante tener en cuenta que estos algoritmos pueden limitar
la exposición a diferentes perspectivas y crear burbujas de filtro que
reafirman los prejuicios y estereotipos existentes.
2.5. Discriminación algorítmica en la concesión de
créditos
Los algoritmos que
evalúan el crédito pueden orientarse hacia la exclusión financiera de ciertos
grupos, lo que impide su acceso a préstamos y oportunidades económicas.
2.6.
Chatbots y atención al cliente automatizado
Los chatbots y
sistemas de atención al cliente automatizados pueden perpetuar la
discriminación si no se considera la diversidad y las necesidades de diferentes
grupos de usuarios. Es posible que estos sistemas no tengan la capacidad de comprender
acentos, empatía cultural, o lidiar con situaciones que requieran sensibilidad
cultural. Esta limitación puede generar experiencias negativas para algunos
usuarios.
2.7.
Tecnologías biométricas y privacidad
Las tecnologías
biométricas, como el reconocimiento facial y de huellas dactilares, pueden ser
utilizadas de manera inadecuada. Esta situación plantea preocupaciones en
cuanto a la privacidad y la discriminación. Si no se considera la diversidad y
las necesidades de diferentes grupos de usuarios, estas tecnologías pueden
llevar a la vigilancia masiva y la recolección de datos sensibles. Así, podría
tener impactos negativos en comunidades minoritarias y grupos vulnerables.
2.8.
Aplicaciones de citas y sesgos raciales
Las apps de
citas en línea pueden ser propensas a sesgos raciales y reforzar estereotipos.
Algunas de estas apps han sido criticadas por la discriminación
racial presente en la elección de parejas.
2.9.
Automatización y pérdida de empleo
La automatización puede
ser una herramienta efectiva para aumentar la eficiencia y la productividad,
pero también puede tener efectos negativos en la diversidad y la igualdad
laboral. Según algunos estudios, los trabajadores de bajos ingresos y las
personas mayores podrían ser los más afectados por la pérdida de empleos debido
a la automatización, lo que podría empeorar las desigualdades existentes.
Es muy importante tomar
en cuenta la diversidad en todos los aspectos, y especialmente en el desarrollo
de tecnología como la IA, que puede reflejar y amplificar sesgos y prejuicios
presentes en los datos utilizados para entrenarla. Por eso, es esencial que los
equipos que crean tecnología estén formados por colaboradores con diferentes
pensamientos, identidades y formaciones, para aportar diversas perspectivas al
producto o servicio. De esta manera, podremos aprovechar todo el potencial de
la tecnología para construir un futuro más justo y diverso.
La justicia
algorítmica en modelos de aprendizaje se refiere a la aplicación de principios
éticos y de equidad en el desarrollo y uso de algoritmos de aprendizaje
automático. Estos algoritmos son utilizados para hacer predicciones o tomar
decisiones sobre la base de los datos, y pueden tener un impacto significativo
en la vida de las personas, como en el ámbito de la selección de candidatos
para empleos, la aprobación de préstamos, la evaluación del riesgo de incidir
en delitos, entre otros. La justicia algorítmica busca evitar la discriminación
y el sesgo en la toma de decisiones basadas en los datos. Sin embargo, existen
múltiples definiciones y perspectivas sobre lo que significa la justicia
algorítmica y cómo se puede lograr. Estas definiciones pueden ser tan
heterogéneas que puede ser imposible obtener dos o más de estas simultáneamente
en una misma estimación [12]
Además, los
algoritmos de IA generativa presentan una complejidad mayor que los
clásicos de machine learning, cuya salida es generalmente una
puntuación o una probabilidad. Según Clara Higuera en [4]:
Los
grandes modelos de lenguaje se entrenan con inmensas cantidades de datos en
formato texto generalmente extraídos de internet, que no necesariamente han
sido curados y que pueden contener estereotipos, representaciones sesgadas de
la sociedad, lenguaje excluyente, denigrante o despectivo con respecto a
ciertos grupos sociales y grupos vulnerables. La complejidad radica en que el
lenguaje es en sí mismo una tecnología que captura normas sociales y
culturales.
La
detección de sesgos en IA generativa es un campo nuevo, todavía en fase de
exploración, y ya se están utilizando aspectos como la construcción de
guardarraíles o herramientas para detectar esos mismos sesgos [4]. De hecho,
según un estudio de la UNESCO [13], los modelos de lenguaje empleados por la IA
generativa pueden reproducir prejuicios de género, raciales y homófobos
que colaboran a la desinformación.
3. Producción
de sesgos, los grandes obstáculos de la equidad algorítmica
Los
sesgos son diversos y pueden manifestarse en diferentes etapas, tal y como se
apunta en un artículo de MIT Technology Review [14]:
3.1. La definición del
problema
Los
desarrolladores comienzan estableciendo el objetivo del algoritmo que están
diseñando. Esto implica convertir en métricas aspectos tan difusos como la
‘eficacia’, un concepto difuso y subjetivo abierto a interpretaciones que no
siempre son imparciales. Por ejemplo, si el algoritmo de una plataforma de
contenidos de ‘streaming’ busca maximizar el tiempo de visualización de los
espectadores, podría derivar en recomendaciones que refuercen sus intereses
previos en lugar de diversificar sus experiencias con otros contenidos.
3.2. Durante la recogida
de datos
Existen
dos posibles razones para este fenómeno: o los datos recopilados no son
representativos de la realidad o reflejan prejuicios ya existentes. Por
ejemplo, si un algoritmo recibe más fotos de caras de piel clara que de piel
oscura, el reconocimiento facial será menos preciso en el segundo caso. Otro
ejemplo es lo que ha sucedido con algunas herramientas de contratación, que descartaban a las mujeres
para puestos técnicos debido a que el algoritmo se había entrenado con
decisiones de contratación históricamente sesgadas.
3.3. En la preparación
de los datos
A
menudo se seleccionan y preparan los atributos que el algoritmo utilizará para
tomar decisiones, como la edad o el historial de sus acciones. Estos atributos
pueden introducir sesgos en herramientas de evaluación, ya sean socioeconómicos
o relacionados con el género. Estos sesgos también se pueden introducir cuando
se etiquetan los datos que posteriormente utilizarán los algoritmos, especialmente
cuando se llevan a cabo tareas de anotación de datos. Esto se debe a que los
anotadores pueden traer sus propios sesgos; de ahí la importancia de escribir
guías claras de anotación.
4. Tipos
de sesgos para propiciar la equidad algorítmica
Los
sesgos que pueden presentar los algoritmos pueden manifestarse en diversas
formas y tipos. Para desarrollar sistemas de IA, debe tenerse en consideración
aspectos esenciales, como mitigar con el propósito de que el tratamiento, tanto
en su generación como en el uso de la IA, sea justo y beneficioso para todos
los usuarios. Así, se asegurarán decisiones equitativas y aumentará la
confianza en las tecnologías emergentes, según [4]. Algunos de ellos, de
acuerdo con Google, son:
4.1. Sesgo de selección
Se
manifiesta cuando el conjunto de datos de entrenamiento contiene instancias
(ejemplos) con poca representatividad en el mundo real. No se puede entrenar a
un algoritmo con todo el universo de los datos; por tanto, se debe elegir una
muestra sin soslayar el contexto. Una muestra no representativa del conjunto, o
una desequilibrada hacia un colectivo, remitirá a resultados igualmente
sesgados.
4.2. Sesgo de
automatización
Se
manifiesta cuando se cree ciegamente todo lo que resulta de los sistemas
automatizados sin considerar la tasa de error que pueda existir, más aún cuando
se toman decisiones en tiempos muy cortos, se soslaya un análisis exhaustivo y
se da por válida información que no ha sido formalmente contrastada. Se resalta
el hecho de depender en exceso de los sistemas automatizados, incluso cuando estos cometen
errores. “Cuando la gente tiene que tomar decisiones en plazos
relativamente cortos, con poca información, ahí es cuando tiende a confiar en
cualquier consejo que les proporcione un algoritmo”, indica [15] Ryan
Kennedy.
4.3. Sesgo de
correspondencia
Se
manifiesta cuando los algoritmos evalúan aspectos y/o criterios que generalizan
solo su pertenencia a un grupo en particular, y soslayan sus características
individuales. Por ejemplo, cuando se asume que todas las personas que han
asistido a la misma universidad tienen el mismo nivel de conocimiento para un
trabajo, se está calificando a la universidad y no a la persona.
4.4. Sesgo implícito
Se
manifiesta cuando los desarrolladores de los algoritmos asumen posiciones
subjetivas sobre situaciones y experiencias personales que no se aplican en
forma general. Este sesgo podría afectar su modelización y entrenamiento, ya
que podrían introducirse soterradamente o inconscientemente sus propios
prejuicios.
5. Iniciativas
y propuestas para alcanzar la equidad algorítmica
Frente
a los diversos tipos de sesgos que se dan en desarrollo de los algoritmos de
IA, así como en el uso de las aplicaciones que usan estos algoritmos, se
propician también iniciativas y normativas para promover la práctica de la
equidad algorítmica y mitigar estas situaciones de injusticia. “Los gobiernos y
organizaciones han comenzado a implementar directrices y normativas para
asegurar que las tecnologías de IA sean justas y responsables. Esto incluye la
creación de marcos éticos y legislación específica sobre el uso de IA para
proteger contra la discriminación”, se afirma en [4], en referencia al Reglamento de Inteligencia Artificial (IA Act) de la Unión
Europea.
De
hecho, la Unión Europea también cuenta con un proyecto (Marco jurídico europeo) que
incluye propuestas para que los desarrolladores, implementadores y usuarios
puedan intervenir solo en caso de que las leyes no cubran (Reglamento General
de Protección de Datos (RGPD) y con diferentes requisitos de transparencia. De ese modo, garantizan que
disponen de las mejores prácticas de confianza y seguridad, lo que asegura que
la IA funciona de manera inclusiva.
En
España, [4] señala que la Agencia Española de Protección de Datos (AEPD) ha
difundido algunas normas con el propósito de auditar sistemas de IA con un
apartado específico para el control del sesgo en las fuentes de datos
utilizadas. Señala que “Las investigaciones actuales se centran en métodos para
corregir sesgos en los datos y en los modelos. Esto incluye técnicas de
recolección de datos más representativos, ajustes en los algoritmos y
modificaciones en el posprocesamiento de los resultados para asegurar decisiones
más justas”.
Se
realizan permanentemente métricas de equidad para de evaluar
modelos de machine learning con el propósito de garantizar que los
modelos de IA sean más transparentes y multidisciplinares. Aunque es
dificultoso, por ejemplo, cuando se define un problema, convertir en métricas
conceptos tan difusos y subjetivos como la eficacia que da la posibilidad de
interpretaciones subjetivas que podrían ser imparciales.
Para
conseguir equidad en los algoritmos, no resulta suficiente involucrar a
científicos de datos y desarrolladores. También es menester incluir a expertos
en ética, sociólogos y representantes de los grupos vulnerados. Basta revisar
los proyectos como la Liga de la Justicia Algorítmica, fundada
por Joy Buolamwini [16], quien señala que, aunque las nuevas herramientas
son prometedoras, es imperativo promover el desarrollo de una IA equitativa y
responsable.
Las
empresas y los desarrolladores de algoritmos de IA generativa, en su propósito
de fomentar una IA sin prejuicios y responsable, vienen usando técnicas como
los guardarraíles en calidad de elemento de seguridad: “Son directrices y
herramientas para supervisar, controlar y guiar el comportamiento de los
modelos de IA generativa. Pueden ser desde una simple instrucción en el ‘prompt’
(ejemplo: contesta educadamente y respetuosamente sin insultar a nadie) hasta
la detección de una respuesta formulada en lenguaje inapropiado”.
La
equidad algorítmica se ha constituido en un desafío crucial. La comunidad
científica e instituciones gubernamentales vienen poniendo énfasis y
concienciación en todos los niveles comprometidos en el ciclo de desarrollo de
la IA, desde ‘seniors leaderships’ hasta ‘data scientists’, con el propósito de
desarrollar sistemas realmente justos y transparentes. Como subraya Clara
Higuera [17]
6.
Conclusión
La IA enfrenta serios
desafíos, como crear explicaciones que sean completas e interpretables, aunque
es difícil lograr la interpretabilidad y la integridad al mismo tiempo. Sin
embargo, se permitirá solucionar la aplicabilidad y la integridad de cualquier
decisión cuando no se consideren como cajas negras y la decisión venga
acompañada con una argumentación y justificación de esta que incluirá la
ausencia de discriminación y sesgo. De esta manera, se sentarán las bases de la
certificación ética.
Aunque parezcan posiciones antagónicas, impulsar la
investigación y la industria basada en la IA, y tomar conciencia de los enormes
riesgos y desafíos que conlleva es posible. Se pretende, y en eso están de
acuerdo diversas personalidades investigadoras de la IA, incluso políticos,
conseguir un acuerdo equilibrado entre estos dos aspectos importantes. Se busca
propiciar un lugar donde la IA prospera desde el laboratorio hacia el mercado,
con criterios inclusivos, de un beneficio plural, con respeto a los derechos
humanos fundamentales.
Los requisitos legales que se establezcan para el uso de la
tecnología de IA deben estar acordes a los riesgos de afectación de los
derechos humanos fundamentales. A mayor riesgo, mayores condiciones de
legalidad.
Para mitigar los efectos de falta de
equidad algorítmica y minimizar los sesgos inconscientes en
la fase de desarrollo, se
recomienda formar equipos de desarrollo inclusivos. Deberán estar conformados
de manera diversa en cuanto a género, etnia y
procedencia con el propósito de aportar perspectivas variadas.
[2] CEPAL,
«https://repositorio.cepal.org/server/api/core/bitstreams/a5fcd682-bdec-4b63-9621-693d36c497f8/content,»
2024.
[3] U. EUROPEA,
«https://digital-strategy.ec.europa.eu/es/policies/european-approachartificialintelligence#:~:text=El%20enfoque%20de%20la%20UE,seguridad%20y%20los%20derechos%20fundamentales.,»
2023.
[4] A. Grigore, «Derechos humanos e inteligencia artificial,» 2022.
[5] J. Itumendi, «La discriminación algorítmica y su impacto en la
dignidad de la persona y los derechos humanos,» vol. 12, 2023.
[6] D. Inneraraty, «Women evolution,» 2023. [En línea]. Available:
https://womenevolution.es/igualdad-algoritmica/.
[7] C. Araya, «Transparencia algorítmica ¿un problema normativo o
tecnológico?,» Santiago, 2021.
[8] ASLAM, «Solución para medir la ética, equidad e integridad de
los algoritmos de IA,» 20213.
[9] INECO, «Observatorio, inteligencia artificial y diversidad,»
Universitat Politecnica de valencia, 18 setiembre 2024. [En línea]. Available:
https://fundaciondiversidad.com/observatorio-de-inteligencia-artificial-y-diversidad/.
[10] UNESCO, «DICTAMEN – Justicia Algorítmica. Una
Inteligencia Artificial ética para América Latina y el Caribe,» Ecuador, 2024.
[11] X. d. Galicia, «Igualdad laboral e inteligencia
artificial,» 2023. [En línea]. Available:
https://aigualdadelaboral.gal/igualdad-laboral-e-inteligencia-artificial/.
[12] C. Bernal, «Justicia algorítmica y sus limitaciones,»
2023.
[13] BBVA, «Equidad algorítmica, clave para crear una
inteligencia artificial responsable,» 2024.
[14] A. Montesinos, «inteligencia artificial en la justicia,
con perspectiva de género, amenazas y oportunidades,» 2024.
[15] C. Higuera, «IA responsable, retos, avances y
oportunidades,» 2024.
Trayectoria
académica
Augusto
Parcemón Cortez Vásquez
Universidad
Nacional Mayor de San Marcos, Lima, Perú
Maestría
en Ciencias de la Computación en la Facultad de Ciencias Matemáticas. Estudios
culminados de doctorado en filosofía en la Facultad de Letras y Ciencias
Humanas de la UNMSM. Segunda especialidad en Psicopedagogía en la Universidad
Ricardo Palma.
Autora
corresponsal: acortezv@unmsm.edu.pe
Orcid: https://orcid.org/0000-0002-5188-7962
María Manyari Monteza
Universidad
Nacional Mayor de San Marcos, Lima, Perú
Docente
en la Universidad Nacional Mayor de San Marcos.
Gilberto Salinas Azaña
Universidad
Nacional Mayor de San Marcos, Lima, Perú
Docente
en la Universidad Nacional Mayor de San Marcos.
Orcid:
https://orcid.org/0000-0003-3591-1202
Jorge Luis Chávez Soto
Universidad
Nacional Mayor de San Marcos, Lima, Perú
Docente
en la Universidad Nacional Mayor de San Marcos.
Orcid:
https://orcid.org/0000-0002-9408-9266
Contribución
de autoría
Augusto
Parcemón Cortez Vásquez
Coordinación
trabajos de campo y ensayos de laboratorio, análisis y discusión de resultados,
redacción de artículo.
María Manyari Monteza
Coordinación
y acompañamiento en los trabajos de campo, discusión en los ensayos de
laboratorio e interpretación de resultados.
Gilberto Salinas Azaña
Coordinación de
trabajos de campo, participación en los ensayos de campo y de laboratorio,
procesamiento de información y registro de ensayos por muestras evaluadas.
Jorge Luis Chávez Soto
Coordinación de
trabajos de campo, participación en los ensayos de campo y de laboratorio,
procesamiento de información y registro de ensayos por muestras evaluadas.
Conflicto
de intereses
Los
autores declaran que no existen conflictos de intereses en el desarrollo de la
presente investigación.
Responsabilidad
ética y legal
El
desarrollo de la investigación se realizó bajo la conformidad de los principios
éticos del conocimiento, respetando la originalidad de la información y su
autenticidad.
Declaración
sobre el uso de LLM (Large Language Model)
Este artículo
no ha utilizado para su redacción textos provenientes de LLM (ChatGPT u otros).
Financiamiento
La
presente investigación ha sido realizada con el financiamiento con los recursos
propios de los autores.
Correspondencia: acortezv@unmsm.edu.pe