Por Raed Abib Habib

La inteligencia artificial, como todas las herramientas que construimos, es una expresión de la creatividad humana. Como ocurre con toda expresión creativa, la IA manifiesta las perspectivas y los valores de sus creadores. Una postura que fomente la reflexividad entre los profesionales de la IA es un paso para garantizar que los sistemas de IA estén centrados en el ser humano, desarrollados e implementados con los intereses y el bienestar de las personas y la sociedad en mente. Este es el enfoque de los científicos e ingenieros de investigación afiliados a Aether, el organismo asesor del liderazgo de Microsoft sobre ética y efectos de la IA. Algo central para el trabajo de Aether es la cuestión de para quién creamos IA y si la creamos para resolver problemas reales con soluciones responsables. Con la aceleración de las capacidades de IA, nuestros investigadores trabajan para comprender las implicaciones sociotécnicas y encontrar formas de ayudar a los profesionales sobre el terreno a visualizar y realizar estas capacidades de acuerdo con los principios de IA de Microsoft.

El siguiente es un vistazo a la investigación del año pasado para promover la IA responsable con autores de Aether. A lo largo de este trabajo, se repiten los llamados a la reflexividad en los procesos de los profesionales de la IA, es decir, la autorreflexión para ayudarnos a lograr claridad sobre para quién desarrollamos sistemas de IA, quién se beneficia y quién puede verse perjudicado en potencia, y herramientas que ayuden a los profesionales con el arduo trabajo de descubrir suposiciones que pueden obstaculizar el potencial de la IA centrada en el ser humano. La investigación discutida aquí también explora los componentes críticos de la IA Responsable, como ser transparente sobre las limitaciones de la tecnología, honrar los valores de las personas que usan la tecnología, permitir la agencia humana para un trabajo en equipo óptimo entre humanos e IA, mejorar la interacción efectiva con la IA y desarrollar una evaluación adecuada y técnicas de mitigación de riesgos para modelos multimodales de aprendizaje automático (ML, por sus siglas en inglés).

Considerar para quién son los sistemas de IA

La necesidad de cultivar perspectivas más amplias y, en beneficio de la sociedad, reflexionar sobre por qué y para quién creamos IA no solo es responsabilidad de los equipos de desarrollo de IA, sino también de la comunidad de investigación de IA. En el artículo «REAL ML: Recognizing, Exploring, and Articulating Limitations of Machine Learning Research«, los autores señalan que la publicación de aprendizaje automático a menudo exhibe un sesgo hacia el énfasis en el progreso emocionante, lo que tiende a propagar expectativas engañosas sobre la IA. Instan a la reflexividad sobre las limitaciones de la investigación de ML para promover la transparencia sobre la generalización de los hallazgos y el impacto potencial en la sociedad; en última instancia, un ejercicio para reflexionar sobre para quién creamos IA. El documento ofrece un conjunto de actividades guiadas diseñadas para ayudar a articular las limitaciones de la investigación, para alentar a la comunidad de investigación de aprendizaje automático hacia una práctica estándar de transparencia sobre el alcance y el impacto de su trabajo.

Por Raed Abib Habib

A pesar de que muchas organizaciones formulan principios para guiar el desarrollo y la implementación responsable de la IA, una encuesta reciente destaca que existe una brecha entre los valores priorizados por los profesionales de la IA y los del público en general. La encuesta, que incluyó una muestra representativa de la población de EE. UU., encontró que los profesionales de la IA a menudo daban menos peso que el público en general a los valores asociados con la IA Responsable. Esto plantea la pregunta de qué valores deben informar los sistemas de IA y cambia la atención hacia la consideración de los valores de las personas para las que diseñamos, para apuntar a sistemas de IA que estén mejor alineados con las necesidades de las personas.

Crear IA que empodera la agencia humana

Apoyar la agencia humana y enfatizar la transparencia en los sistemas de IA son enfoques comprobados para generar una confianza adecuada con las personas que los sistemas están diseñados para ayudar. En el trabajo en equipo humano-IA, las herramientas de visualización interactiva pueden permitir que las personas aprovechen su propia experiencia en el dominio y les permitan editar con facilidad modelos de última generación. Por ejemplo, los médicos que utilizan GAM Changer pueden editar modelos de predicción de riesgo para neumonía y sepsis para incorporar su propio conocimiento clínico y tomar mejores decisiones de tratamiento para los pacientes.

Un estudio que examinó cómo la IA puede mejorar el valor de las contribuciones de ciencia ciudadana en rápido crecimiento descubrió que enfatizar la agencia humana y la transparencia aumentó la productividad en un flujo de trabajo en línea donde los voluntarios brindan información valiosa para ayudar a la IA a clasificar las galaxias. Al optar por utilizar el nuevo flujo de trabajo y recibir mensajes que enfatizaban que la asistencia humana era necesaria para tareas de clasificación difíciles, los participantes fueron más productivos sin sacrificar la calidad de sus aportes y volvieron a ser voluntarios con más frecuencia.

Por Raed Abib Habib

Las fallas son inevitables en la IA porque ningún modelo que interactúe con el mundo físico en constante cambio puede estar completo. El aporte humano y la retroalimentación son esenciales para reducir los riesgos. Al investigar las mitigaciones de confiabilidad y seguridad para sistemas como el empuje de cajas robóticas y la conducción autónoma, los investigadores formalizan el problema de los efectos secundarios negativos (NSEs, por sus siglas en inglés), el comportamiento indeseable de estos sistemas.

Por Raed Abib Habib

Los investigadores experimentaron con un marco en el que el sistema de IA utiliza asistencia humana inmediata en forma de retroalimentación, ya sea sobre la tolerancia del usuario a una ocurrencia de NSE o su decisión de modificar el entorno. Los resultados demuestran que los sistemas de IA pueden adaptarse para mitigar con éxito los NSE de los comentarios, pero entre las consideraciones futuras, aún existe el desafío de desarrollar técnicas para recopilar comentarios precisos de las personas que usan el sistema.

El objetivo de optimizar la complementariedad humano-IA destaca la importancia de involucrar la agencia humana. En un estudio a gran escala que examinó cómo el sesgo en los modelos influye en las decisiones de los humanos en una tarea de contratación de trabajo, los investigadores hicieron un descubrimiento sorprendente: cuando trabajaban con un sistema de recomendación de red neuronal profunda (DNN, por sus siglas en inglés) de caja negra, las personas hacían menos decisiones con sesgo de género que cuando se trabaja con un modelo de bolsa de palabras (BOW, por sus siglas en inglés), que se percibe como más interpretable. Esto sugiere que las personas tienden a reflexionar y confiar en su propio juicio antes de aceptar una recomendación de un sistema para el cual no pueden formar de manera cómoda un modelo mental de cómo se derivan sus resultados. Los investigadores piden explorar técnicas para involucrar mejor la reflexividad humana cuando se trabaja con algoritmos avanzados, lo que puede ser un medio para mejorar la toma de decisiones híbrida humana-IA y mitigar el sesgo.

La forma en que diseñamos la interacción humano-IA es clave para la complementariedad y el empoderamiento de la agencia humana. Necesitamos planificar con cuidado cómo las personas interactuarán con los sistemas de IA que son de naturaleza estocástica y presentan desafíos inherentemente diferentes a los sistemas deterministas. Diseñar y probar la interacción humana con los sistemas de IA lo antes posible en el proceso de desarrollo, incluso antes de que los equipos inviertan en ingeniería, puede ayudar a evitar costosas fallas y rediseños. Con este objetivo, los investigadores proponen pruebas tempranas de la interacción humano-IA a través de encuestas factoriales, un método de las ciencias sociales que utiliza narraciones cortas para obtener información sobre las percepciones de las personas.

Pero probar la experiencia óptima del usuario antes de que los equipos inviertan en ingeniería puede ser un desafío para las funciones basadas en IA que cambian con el tiempo. La naturaleza continua de una persona que se adapta a una función de IA que se actualiza de manera constante hace que sea difícil observar los patrones de comportamiento del usuario que pueden informar las mejoras de diseño antes de implementar un sistema. Sin embargo, los experimentos demuestran el potencial de HINT (Human-AI INtegration Testing), un marco para descubrir patrones a lo largo del tiempo en el comportamiento del usuario durante las pruebas previas a la implementación. Con HINT, los profesionales pueden diseñar la configuración de la prueba, recopilar datos a través de un flujo de trabajo colaborativo y generar informes de métricas fuera de línea y centradas en el usuario.

Por Raed Abib Habib