Asesoria & Asesores Fiscales

Los sesgos en la Inteligencia Artificial pueden llevar a discriminación y dañar la reputación corporativa. Estos sesgos surgen de errores en diseño de modelos y datos sesgados. Se recomienda prácticas como revisión de datos, pruebas de equidad y monitoreo continuo para mitigar estos riesgos y asegurar un funcionamiento ético de la IA.

Uno de los mayores riesgos a los que se exponen las compañías en el empleo de la Inteligencia Artificial (IA) es la obtención de resultados sesgados (lo que llamamos 'el sesgo'), y si este sesgo lo trasladamos a datos personales, podríamos terminar en un riesgo de discriminación/prejuicios (bien por sexo, raza, procedencia, creencia, etc.) con el consecuente impacto no deseado sobre ciertos grupos de personas, afectando en la reputación e imagen de las compañías. Por tanto, 'el sesgo' podría definirse como la discriminación o prejuicio sobre la realidad que afectan a la toma de decisiones (o resultados obtenidos) de un sistema de IA.

El sesgo influye en los métodos de IA produciéndose como un error sistemático de la IA que ocurre cuando se eligen o se da cierta prioridad a unas respuestas en lugar de otras. Para entender las causas que generan el sesgo, hay que entender los siguientes principios de los modelos de IA. Por ejemplo, el modelo de IA puede contener errores en su diseño (pueden no ser perfectos). Los algoritmos empleados en el modelo parten de un diseño que dé origen proporcionará resultados con sesgo. No generan información originariamente, es decir, toda la información que genera un sistema de IA se obtiene porque ha sido previamente alimentado con modelos de información proporcionada o generada por un ser humano, de una forma u otra. Pueden estar equivocados debido a que la información previa proporcionada en el aprendizaje puede presentar sesgos de partida, o se trata de una información manipulada, falsa, y/o parcial sin tener una información completa para disponer de una comprensión profunda del contexto.

La IA genera información a partir de un aprendizaje supervisado (continuo). Una vez proporcionado un modelo de datos de aprendizaje a un sistema de IA, se generan resultados, y la información que se va introduciendo durante su empleo, se sigue tratando por el modelo de IA como información de aprendizaje nuevamente. Por tanto, un sistema de IA que haya sido inicialmente correctamente entrenado, en un futuro podría terminar con problemas de sesgo al tratar continuamente datos con sesgo.

De los principios indicados en el párrafo anterior, se desprende que el sesgo en la IA puede aparecer en distintas etapas del uso (explotación), pero principalmente en el proceso de aprendizaje debido al empleo de datos falsos, erróneos y datos parciales que no representan a toda la población o contexto en su aprendizaje, obteniéndose resultados con sesgo y discriminación no deseados que podrían impactar en la imagen y reputación de las compañías, e incluso en incumplimiento regulatorio.

Por ejemplo, se pueden producir resultados desiguales que favorezcan a ciertos grupos sobre otros. Un sistema de reconocimiento facial podría ser más preciso a la hora de identificar rostros de personas de determinadas etnias en comparación con otras etnias. Se pueden tomar decisiones dirigidas a ciertos grupos de personas y discriminado otras de forma errónea. Los algoritmos utilizados en la contratación pueden revelar preferencias de género basadas en el contenido educativo. Se puede distorsionar o influenciar en las decisiones. Un algoritmo publicitario podría mostrar artículos que favorecieran ciertas ideas predominantes, mientras que excluyese otros artículos relacionados con otras perspectivas.

Para evitar el sesgo o minimizar el riesgo de sesgo en sistemas de IA...

Sigue leyendo en BDO

Categoria

Fiscalidad general