tecnologia - Google Google
jueves 05 de octubre de 2017

Llamó la atención sobre los algoritmos con prejuicios

El jefe de la división de inteligencia artificial de Google, John Giannandrea, manifestó su preocupación sobre el peligro que implica que los algoritmos de aprendizaje automático (machine learning, en inglés) usados para tomar decisiones a cada minuto, se conviertan en sistemas sesgados.

"La verdadera cuestión sobre la seguridad, si se puede llamar así, es que si le damos a estos sistemas datos sesgados, los sistemas serán sesgados", sostuvo Giannandrea antes de una conferencia de Google sobre la relación entre humanos y sistemas de inteligencia artificial.

La publicación del Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés) recogió las declaraciones del directivo, y enfocó en que el temor no pasa por los robots con cuchillos sino por este tipo de algoritmos sesgados.

En otras palabras, el sesgo en el aprendizaje automático es que probablemente se vuelva cada vez más significativo a medida que la tecnología se extiende a áreas críticas como la medicina y el derecho.

Algunos especialistas advierten que un algoritmo sesgado ya está generalizado en muchas industrias, y que casi nadie está haciendo esfuerzos para detectarlo o corregirlo.

"Es importante que seamos transparentes acerca de los datos de entrenamiento que estamos usando, y buscar si hay prejuicios ocultos en ellos. De lo contrario estaremos desarrollando sistemas sesgados", agregó Giannandrea.

"Si alguien trata de venderte un sistema de caja negra para el apoyo de una decisión médica y vos no sabés cómo funciona o qué tipo de datos fueron usados para entrenar al algoritmo, entonces yo no confiaría", analizó el jefe de inteligencia artificial de Google.

Varios de los oradores invitados a la conferencia organizada por el gigante de Internet también destacaron la cuestión del sesgo en el aprendizaje automático.

La investigadora de Google, Maya Gupta, describió sus esfuerzos por desarrollar algoritmos menos oscuros como parte de un equipo conocido internamente como "GlassBox" (caja de cristal).

Por su parte, Karrie Karahalios, profesora de ciencias de la Computación en la Universidad de Illinois, Estados Unidos, presentó una investigación sobre lo complicado que a veces puede ser detectar el sesgo, incluso en los algoritmos más habituales.

Para poner un ejemplo simple, la investigadora mostró que los usuarios en general no entienden cómo Facebook filtra las publicaciones en su página de inicio.

Si bien esto puede parecer inocuo, es una clara ilustración de lo difícil que es interrogar a un algoritmo.
Fuente: Télam

Más Leídas