La inteligencia artificial (IA) tiene cada vez mas usos comerciales, gracias a la creciente destreza de los algoritmos de aprendizaje automatico (machine learning, ML), utilizados, por ejemplo, en la conduccion de coches autonomos, el control de robots o la automatizacion de la toma de decisiones.

Pero a medida que la IA se extiende a tareas mas delicadas, como puede ser el diagnostico medico o la seleccion de personal para puestos de trabajo, existe una presion creciente para que se ofrezcan garantias de que estos sistemas, que se alimentan de datos historicos, no reproduzcan sesgos discriminatorios.

Ahora, un equipo liderado por las universidades estadounidenses de Stanford y Massachusetts Amherst, en colaboracion con la Universidad Federal de Rio Grande del Sur, de Brasil, ha desarrollado una tecnica que, segun sus creadores, permitira proporcionar estas garantias. El sistema, cuyos resultados se presentan en Science, ha sido probado en aplicaciones de IA, en los ambitos de educacion y salud.

En concreto, los investigadores han desarrollado algoritmos que son capaces de entrenan a los algoritmos de machine learning para que tengan un buen funcionamiento y eviten los sesgos.

Emma Brunskill, investigadora de Stanford y autora principal del estudio, indica que con este trabajo pretenden “promover una IA que respete los valores de sus usuarios humanos y justifique la confianza que depositamos en los sistemas autonomos”.

El estudio se basa en la idea de que si los resultados o comportamientos inseguros o injustos pueden ser definidos matematicamente, tambien deberia ser posible crear algoritmos que puedan aprender de los datos y evitar resultados no deseados con gran fiabilidad.

Por Otro Lado:  El creador del logo de México ’86 habla de su diseño: “Dar esperanza es muy satisfactorio”

Predecir la fiabilidad de los algoritmos

Los investigadores tambien querian desarrollar un conjunto de tecnicas que facilitaran a los usuarios de estos algoritmos –que no suelen ser cientificos computacionales, sino compañias, centros de investigacion, etc.– las especificaciones de los tipos de comportamiento inadecuado que deseen restringir y permitan a los diseñadores de algoritmos de aprendizaje automatico predecir, con garantias, la fiabilidad de los sistemas alimentados con datos historicos en IA.

Segun comenta a Sinc Philip Thomas, cientifico computacional de la Universidad de Massachusetts Amherst y primer autor del estudio, “con nuestro sistema los diseñadores de algoritmos de aprendizaje automatico podran facilitar a los investigadores, organismos y empresas –que deseen incorporar la IA en sus productos y servicios– la descripcion de resultados o comportamientos no deseados que el sistema de IA evitara con alta probabilidad”

Los autores han probado su metodo en los algoritmos usados en la prediccion del promedio de calificaciones de los estudiantes universitarios basada en los resultados de los examenes, una practica comun que puede resultar en sesgos de genero. El objetivo era mejorar la imparcialidad de estos algoritmos.

Asi, utilizando un conjunto de datos experimentales, dieron instrucciones matematicas a los algoritmos para evitar que realizaran predicciones que sistematicamente sobreestimaran o subestimaran las calificaciones para un genero determinado.

Filtro de imparcialidad

Con estas instrucciones, el algoritmo identifico una mejor manera de predecir las notas de los estudiantes con un sesgo de genero mucho menos sistematico que los metodos existentes. Segun los investigadores, las tecnicas previas mostraron dificultades en este sentido, “debido a que no tenian un filtro de imparcialidad incorporado o porque los algoritmos desarrollados para lograr la imparcialidad eran demasiado limitados en su alcance”, explica Thomas.

Por Otro Lado:  Personas con discapacidad, los más afectados durante los sismos

Ademas, el grupo desarrollo otro algoritmo y lo utilizo para lograr un equilibrio entre seguridad y rendimiento en una bomba de insulina automatizada. Estos dispositivos tienen que decidir cuan grande o pequeña es la dosis de insulina que se le debe administrar a un paciente en las comidas.

Lo ideal es que la bomba suministre la insulina suficiente para mantener estables los niveles de azucar en la sangre. El machine learnig puede ayudar a identificar patrones sutiles en las respuestas del azucar en sangre de una persona a las dosis, pero los sistemas existentes no facilitan a los medicos la especificacion de los resultados que los algoritmos de dosificacion automatizada deben evitar, como los colapsos por bajo nivel de azucar en la sangre.

Metodo seldoniano

En su articulo de Science, los autores usan el termino ‘algoritmo seldoniano’ para definir su enfoque. Hacen referencia a Hari Seldon, un personaje inventado por Isaac Asimov, que una vez proclamo las tres leyes de la robotica, comenzando con el mandato de que “un robot no puede herir a un ser humano o, a traves de la inaccion, permitir que un ser humano resulte perjudicado”.

Thomas señala que, aunque aun queda mucho por hacer, el nuevo metodo seldoniano “facilitara a los diseñadores de algoritmos de aprendizaje automatico la creacion de instrucciones para evitar el comportamiento inadecuado de estos algoritmos, de manera que les permita evaluar la probabilidad de que los sistemas entrenados funcionen correctamente en el mundo real.

Por Otro Lado:  Acusan de prohibir masturbación a diputada del PAN

Este trabajo ha recibido financiacion parcial de Adobe, la Fundacion Nacional de Ciencias y el Instituto de Ciencias de la Educacion de EE UU.