¿Que son los sistemas sesgados de computadora?
En su acepción más difundida, el término tendencia meramente significa inclinación, dado el uso indiferenciado de este término que en algunas ocasiones es aplicado con un sentido relativamente neutral. Verbigracia, un cliente en un abasto puede ser tendencioso o estar propenso a no comprar fruta podrida. En otras ocasiones, el término tendencia es empleado con una considerable significación moral. Para ilustrarlo, un empresario puede estar parcializado con contratar minorías de cualquier índole. En este artículo, nos concentramos en ejemplos como el último traído a colación, ya que si se quiere crear unos criterios para el discernimiento de la calidad de los sistemas en uso -lo cual hacemos-. Luego, formularemos los criterios que deben ser fijados de tal manera que expresen sólidamente; y asimismo de una manera precisa asuntos de relevancia social. Además, hacer de énfasis en el prejuicio moral.
Empleamos el término sesgo para referirnos a los sistemas computarizados que de una forma sistemática e injusta discrimina a ciertos individuos o grupo de ellos en favor de otros. Un sistema discrimina injustamente si le niega un beneficio u oportunidad, o si le asigna un resultado inmerecido a un individuo o grupo de individuos en base a motivos que son ilógicos o inapropiados. Tomemos en cuenta el siguiente ejemplo, un asesor automatizado de crédito que ayuda a la toma de decisión de conceder o no crédito a un solicitante. Si el asesor niega el crédito a un individuo con un consistente historial de morosidad, no juzgamos al sistema de estar sesgado ya que es lógico y apropiado por parte de una compañía de crédito el no querer otorgar privilegios crediticios a personas que sistemáticamente no pagan sus cuentas. Contrariamente, un asesor de crédito que asigna sistemáticamente e injustamente una baja calificación crediticia a un individuo con apellidos étnicos, y de esta manera, discrimina en bases que no son relevantes a la evaluación del crédito.
Dos variantes surgen referentes a tendencia. En primer lugar, un solo incidente de discriminación por sí solo no suscita sesgo salvo si ocurre sistemáticamente. Retomemos el ejemplo del asesor automatizado de crédito, e imagine un error aleatorio en el sistema que se convierte en un antecedente aislado y en una copia del registro de crédito para un solicitante que por casualidad tiene un apellido étnico. El cambio en la información causa una degradación en la categoría de clasificación crediticia del solicitante. Mientras todo desemboca en una experiencia discriminatoria para el solicitante a causa de este error aleatorio del sistema; sin embargo el solicitante pudo haber sido cualquier persona. En un incidente similar, el mismo solicitante u otros con apellidos étnicos estarían en la situación de ser elegidos. Por lo tanto, aunque el sistema es propenso a un error aleatorio no quiere decir que este sesgado.
En segundo lugar, una discriminación sistemática no establece sesgo a menos que genere resultados injustos. Un caso es el de la Guerra del Golfo Pérsico, donde los misiles estadounidenses Patriot fueron usados para detectar e interceptar los misiles iraquíes Scud. Al menos un error de software se identifico durante la guerra, lo cual contribuyó a un sistemático mal desempeño por parte de los Patriots (Gao 1992). Los cálculos usados para predecir la localización del Scud dependieron de los complejos funcionamientos del reloj interno de los Patriots. El problema radicó en que mayor fuese el tiempo de intercepción, mayor fue la imprecisión del cálculo. En consecuencia, la muerte de al menos 28 estadounidenses en Dhahram puede ser rastreada hasta este error del software, el cual de una forma sistemática redujo la precisión de los misiles Patriot. Si bien no estamos minimizando las serias consecuencias de este sistemático error de computadora, cae fuera de la consideración de nuestro análisis debido a que no involucra una actuación injusta.
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario