Implicancias de la equidad algorítmica en la Inteligencia artificial
DOI:
https://doi.org/10.31381/perfilesingenieria.v21i22.7056Palabras clave:
Algoritmica, Equidad algoritmica, inteligencia artificial, equidad de datosResumen
El uso de algoritmos de Inteligencia artificial no se limita como a veces se supone a procedimientos efectivos, el uso de este vocablo plantea varias concepciones, interpretaciones y problemas. Con el fin de no distraernos en este laberinto lingüístico, hemos tomado posición por una caracterización muy común en sentido psicológico que consiste en concebirla como una capacidad poseída por ciertos organismos/mecanismos para adaptarse a situaciones nuevas utilizando para tal efecto el conocimiento adquirido en el curso de anteriores procesos de adaptación. La irrupción de la inteligencia artificial (IA) se integra cada vez más en la sociedad y generalmente se utiliza para la toma de decisiones oportunas que afectan a la sociedad y por ende a las personas, en diferentes ámbitos. En el desarrollo de algoritmos de la IA, pueden ocurrir errores sistémicos y repetibles en un sistema informático que crean resultados injustos, como privilegiar a un grupo arbitrario de usuarios frente a otros. Estos algoritmos denominados sesgados, se caracterizan generalmente por la existencia de prejuicios o distorsiones en los datos de entrenamiento. La comunidad científica e instituciones gubernamentales han lanzado propuestas para combatir estos riesgos que buscan reducir su impacto negativo en la sociedad. Es imperativo resolver aspectos que van contra la Ética, la justicia, la Transparencia y la Equidad de los datos, algoritmos y sus predicciones. El presente trabajo pretende sensibilizar que desarrollo de algoritmos para tomar decisiones deben cumplir tres requisitos: en primer lugar, garantizar el equilibrio entre el conjunto de datos utilizados y la programación del algoritmo con equidad que evite la discriminación y el sesgo, segundo, garantizar condiciones de transparencia en los resultados, es decir, el resultado obtenido debe ser explicable a cualquier usuario de forma clara y sencilla. No debe soslayarse la regulación de requisitos para el desarrollo y uso de la IA, debe alinearse a la no afectación de los derechos humanos fundamentales
Descargas
Citas
ASLAM. (20213). Solución para medir la ética, equidad e integridad de los algoritmos de IA. Obtenido de https://aslan.es/solucion-para-medir-la-etica-equidad-e-integridad-de-los-algoritmos-de-ia/
BBVA. (2024). Equidad algorítmica, clave para crear una inteligencia artificial responsable. Obtenido de https://www.bbva.com/es/innovacion/accesibilidad-neuromarketing-e-inteligencia-artificial-startups-que-ayudan-a-mejorar-la-experiencia-de-usuario/
Bernal, C. (2023). Justicia algoritmica y sus limitaciones. Obtenido de https://quantil.co/es/blog/justicia-algoritmica-y-sus-limitaciones-un-teorema-de-imposiblidad/
CEPAL. (2024). https://repositorio.cepal.org/server/api/core/bitstreams/a5fcd682-bdec-4b63-9621-693d36c497f8/content. Obtenido de https://repositorio.cepal.org/server/api/core/bitstreams/a5fcd682-bdec-4b63-9621-693d36c497f8/content
EUROPEA, U. (2023). https://digital-strategy.ec.europa.eu/es/policies/european-approach-artificial-intelligence#:~:text=El%20enfoque%20de%20la%20UE,seguridad%20y%20los%20derechos%20fundamentales. Obtenido de https://digital-strategy.ec.europa.eu/es/policies/europeanapproachartificialintelligence#:~:text=El%20enfoque%20de%20la%20UE,seguridad%20y%20los%20derechos%20fundamentales.
Frabellas, A. (2023). Han desaparecido realmente los problemas de discriminación y sesgo que plagaban la IA temprana? Obtenido de https://dobetter.esade.edu/es/algoritmos-desigualdad
Grigore, A. (2022). Derechos humanos e inteligencia artificial. Obtenido de https://revistascientificas.us.es/index.php/ies/article/view/19991/18602
Higuera, C. (2024). IA responsable, retos, avances y oportunidades.
https://hub.laboratoria.la/10-casos-donde-la-inteligencia-artificial-jugo-en-contra-de-la-diversidad. (2023).
Inneraraty, D. (2023). Women evolution. Obtenido de https://womenevolution.es/igualdad-algoritmica/
Jose, I. (2023). La discriminación algorítmica y su impacto en la dignidad de la persona y los derechos humanos. 12. Obtenido de https://djhr.revistas.deusto.es/article/view/2910
Montesinos, A. (2023). INTELIGENCIA ARTIFICIAL EN LA JUSTICIA. Obtenido de https://revista-aji.com/wp-content/uploads/2024/07/AJI21_Art20.pdf
(2024). Seminario de Integracion II. Obtenido de https://seminarioiiuntref.wordpress.com/2022/04/12/hay-equidad-algoritmica/
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2024 Augusto Parcemon Cortez Vasquez, Maria Manyari Monteza, Gilberto Salinas Azaña , Jorge Luis Chávez Soto
Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
En caso de que el manuscrito sea aprobado para su próxima publicación, los autores conservan los derechos de autor y ceden a la revista el derecho de la publicación, edición, reproducción, distribución, exhibición y comunicación en el país de origen, así como en el extranjero, mediante medios impresos y electrónicos en diferentes bases de datos. Por lo tanto, se establece que después de la publicación de los artículos, los autores pueden realizar otro tipo de acuerdos independientes o adicionales para la difusión no exclusiva de la versión del artículo publicado en la presente revista (publicación en libros o repositorios institucionales), siempre que se indique explícitamente que el trabajo se ha sido publicado por primera vez en esta revista.
Para que quede constancia de este procedimiento, el autor debe llenar los siguientes formatos: