El desafío de la inteligencia artificial
Se entiende que la inteligencia artificial (IA) es el mayor desafío de esta generación. Todos empleamos alguna forma de IA en nuestra vida diaria, ya sea conscientemente o no. Está profundamente arraigado en nuestro día a día: los hospitales que visitamos, las escuelas a las que asistimos, las redes sociales que navegamos y, ciertamente, las instituciones financieras con las que realizamos operaciones bancarias.
Se espera que la inteligencia artificial aporte diversos beneficios a la sociedad. Sin embargo, una preocupación creciente hoy en día es que no nos hemos mantenido al día con las regulaciones para igualar el ritmo al que se ha desarrollado la IA. Si bien los resultados positivos de la aplicación de la IA son indiscutibles, en los últimos años hemos visto que, si no se controla, también puede tener graves repercusiones.
En aplicaciones digitales y sociales, puede funcionar para reforzar los prejuicios sociales negativos, suprimir puntos de vista opuestos en los medios que consumimos, acelerar la difusión de información errónea y afectar el bienestar emocional general de las personas.
Los servicios financieros no son inmunes, y entre los problemas encontrados con las aplicaciones basadas en IA se encuentran límites injustos al acceso de ciertos consumidores al crédito o a la prestación de asesoramiento financiero sin transparencia.
¿Qué es la ética de la IA?
A medida que la IA se convierte en una parte central de los productos y servicios, las organizaciones de todos los sectores que la emplean están comenzando a desarrollar códigos de ética de IA. Son conjuntos de principios rectores, valores y técnicas elaborados para regir de manera responsable el diseño, el desarrollo y la implementación de la tecnología de inteligencia artificial.
¿Cómo afecta la IA la teoría del empujón?
La vulnerabilidad de la inteligencia artificial sólo es relevante cuando se considera en el contexto de su relación con los usuarios finales. Si bien la IA es éticamente neutral, los seres humanos que desarrollan sistemas de IA tienen opiniones y prejuicios individuales. Por lo tanto, es importante reconocer las preocupaciones de aplicar la IA para producir empujones a escala, ya que podría resultar en el efecto no deseado de un sesgo algorítmico en la toma de decisiones o un sesgo personal aplicado durante el desarrollo de los algoritmos en sí.
La teoría del empujón es un concepto de economía del comportamiento que propone los empujones como refuerzo positivo para ayudar a los individuos a desarrollar progresivamente mejores procesos de pensamiento, decisiones y comportamientos. Como seres humanos, todos somos susceptibles a prejuicios y sugerencias. El concepto de empujón propone que cuando las organizaciones pueden comprender cómo piensa la gente, pueden crear entornos que simplifiquen el proceso de toma de decisiones y faciliten que las personas tomen mejores decisiones.
El objetivo del empujón es ayudar a las personas a tomar mejores decisiones sin limitar su libertad de elección. El empujón y sus efectos están tan establecidos que en 2010, el gobierno británico creó una Equipo de conocimientos de comportamiento (BIT), también conocida como Nudge Unit, para comprender cómo se pueden utilizar los empujones y las intervenciones para motivar y fomentar los resultados y comportamientos deseados.
De manera similar al gobierno británico, las organizaciones actuales utilizan cada vez más la IA para gestionar y guiar a las personas hacia la acción (o la inacción), empujándolas hacia ciertos comportamientos deseados. Sin embargo, debido a que actualmente faltan regulaciones, las organizaciones y los gobiernos también pueden aprovechar los datos recopilados sobre individuos y usarlos para empujarlos a tomar decisiones que podrían no ser las más favorables para ellos.
¿Qué están haciendo los países y los reguladores financieros con respecto a la ética de la IA?
A medida que la inteligencia artificial y sus aplicaciones continúan desarrollándose, los países y los órganos rectores a traves del globo están cultivando políticas y estrategias para mantenerse al día con su progreso. La IA es un problema global y debe abordarse como tal. Canadá abrió el camino al lanzar la primera estrategia nacional de IA del mundo en marzo de 2017, y desde entonces más de 30 países y regiones han seguido su ejemplo.
En abril de 2018, la Comisión Europea presentó una Comunicación sobre Inteligencia Artificial y esa fue la primera estrategia internacional publicada sobre cómo afrontar y utilizar los desafíos que plantea la IA. Los países y gobiernos reconocen la naturaleza radical de la IA y sus efectos y han adoptado varios enfoques distintos que reflejan sus sistemas económicos, culturales y sociales.
Australia
Australia publicó un Marco de ética de la IA como guía para que las organizaciones y el gobierno garanticen que la aplicación de la IA sea segura y confiable. Propone que los sistemas de IA se construyan con valores centrados en las personas, consideren el bienestar individual, social y ambiental, sean inclusivos y accesibles, defiendan los derechos de privacidad, sean transparentes y explicables, al mismo tiempo que sean cuestionables y responsables.
La aplicación de este marco debería ayudar a las empresas australianas a generar confianza en los consumidores en sus productos y organizaciones, impulsar la lealtad en los servicios habilitados por IA e influir positivamente en los resultados. Los Principios Éticos de la IA se probaron en varias empresas y los resultados se registraron y compartieron.
Los casos de uso implementados por dos de los bancos más grandes del país se encuentran entre los ejemplos destacados ilustrados en esta iniciativa.
Banco de la Commonwealth de Australia (CBA)
ACB utiliza IA para ofrecer servicios bancarios digitales personalizados a sus usuarios. Desarrolló una solución basada en inteligencia artificial llamada Bill Sense para brindar información más detallada sobre los patrones de ahorro y pago a los clientes. Bill Sense utiliza inteligencia artificial y transacciones anteriores para comprender los patrones regulares, predecir cuándo vence un próximo pago y ayuda a comprender cuánto dinero necesitarán para pagar sus facturas cada mes.
La información no se comparte ni se toma de las organizaciones de facturación y los usuarios tienen control total sobre la información a la que Bill Sense puede acceder para generar sus conocimientos y hacer sus predicciones.
La creación de Bill Sense se rige por directrices sólidas de gestión de riesgos y datos para garantizar que funcione de forma segura, sea responsable y, por lo tanto, esté alineado con los bancos y el marco de ética de la IA de Australia.
Banco Nacional de Australia (NAB)
COGER es otra institución financiera en Australia que aplicó el Marco de Ética de la IA. Implementó una solución que utiliza tecnología de reconocimiento facial (FRT) para permitir a los clientes verificar su identidad digitalmente tomando una fotografía de su documento de identificación en sus teléfonos, y al mismo tiempo proporciona imágenes o videos de ellos mismos. El FRT compara las imágenes proporcionadas para verificar las identidades de los usuarios.
En este caso, un proveedor externo proporcionó el software FRT que se está utilizando. NAB lo implementó siguiendo el Marco de Ética de la IA y logrando que los proveedores externos diseñaran sus sistemas de datos de manera que pudieran ser auditados externamente y garantizando que la tecnología sea responsable, explicable, sostenible y se implemente de manera justa.
El proceso de análisis y revisión de datos de NAB garantiza que sus proyectos de IA sean éticos antes de su implementación.
Singapur
En 2018, el Principios de equidad, ética, responsabilidad y transparencia (FEAT) fueron creados conjuntamente por la Autoridad Monetaria de Singapur (MAS) y la industria financiera como una guía para las organizaciones que ofrecen productos y servicios financieros para el uso responsable de la IA y el análisis de datos, pero también para fortalecer la gobernanza interna en torno a la gestión y el uso de datos.
Después de eso, el Iniciativa Veritas se creó como un proyecto colaborativo de varias fases derivado de la Estrategia Nacional de IA de Singapur anunciada en 2019. Se centra en ayudar a las instituciones financieras a evaluar sus soluciones impulsadas por Inteligencia Artificial y Análisis de Datos (AIDA) en comparación con los principios de FEAT y garantizar el cumplimiento.
Con base en los requisitos inmediatos que tenían las instituciones financieras, se desarrolló un conjunto de métricas de equidad y una metodología de evaluación para dos casos de uso bancario: calificación de riesgo crediticio y marketing de clientes.
Una vez finalizado, se publicarán dos documentos técnicos para documentar la metodología de evaluación de los principios FEAT y los casos de uso.
Porcelana
Es probable que China sea el mercado de tecnología financiera más grande del mundo en términos de volumen y transacciones, con un volumen de pagos en línea (móviles) que alcanzará 100 billones de yuanes en 2016. En mayo de 2017, el Banco Popular de China estableció un comité FinTech para racionalizar los esfuerzos de coordinación, investigación y desarrollo en el sector financiero.
Ese mismo año, en julio de 2017, el Consejo de Estado de China publicó una de las estrategias de IA más completas a nivel mundial. Nombrado el Plan de desarrollo de inteligencia artificial de próxima generación, describe la visión del país de construir una industria nacional de IA en los próximos años y establecerse como la potencia líder en IA para 2030. El plan destaca las finanzas como un área clave para el desarrollo de aplicaciones de IA.
También propuso el establecimiento de sistemas de big data en el sector financiero, el desarrollo de servicios y productos financieros inteligentes y el requisito de fortalecer los sistemas inteligentes de alerta temprana para prevenir riesgos financieros para la economía china.
En agosto de 2019, el Banco Popular de China lanzó un Plan de desarrollo de tecnología financiera para 2019 hasta 2021 que describe los objetivos de desarrollo para el sector financiero. Basado en el ecosistema y la configuración actuales, describe el requisito de que la industria financiera optimice las tecnologías y los sistemas para permitir la integración de la IA.
Dicho esto, a pesar de tener una de las estrategias de IA más desarrolladas a nivel mundial, todavía no está claro cuál es el enfoque de China al considerar la ética en la IA, y eso aún está por verse en los próximos años.
¿Cómo se aplica la ética de la IA a la banca digital?
En la industria de servicios financieros, las técnicas de las ciencias del comportamiento están demostrando ser exitosas para cambiar las actitudes de los clientes hacia su dinero y ayudarlos a administrar sus finanzas de manera más efectiva. Desde motivar a las personas para que establezcan objetivos de ahorro o animarlas a realizar un seguimiento de sus gastos y trabajar en su planificación financiera, las técnicas de las ciencias del comportamiento son una herramienta útil que permite transformar la forma en que las personas ven y manejan sus finanzas.
Sin embargo, una preocupación principal que sigue resurgiendo en torno al empujón y más aún cuando funciona con algoritmos es: ¿Cuándo un empujón deja de ser un empujón y comienza a ser una herramienta poco ética que se utiliza para manipular el cambio de comportamiento?
La preocupación de que los nudges puedan volverse poco éticos se está apaciguando en parte compartiendo abiertamente la naturaleza del nudge y siendo transparentes sobre la lógica detrás de su generación. Compartir esta información con los usuarios les otorga la capacidad de tomar decisiones conscientes, donde los usuarios han comprendido elementos del proceso de toma de decisiones.
Además, los empujones sólo deberían aplicarse si mejoran el bienestar general del usuario, y los usuarios siempre deberían tener la última palabra sobre el resultado del curso de acción que emprenderán. La capacidad de decidir sobre la conclusión es clave para garantizar que los empujones sigan siendo éticos y que, en última instancia, los usuarios tengan la libertad de elegir lo que quieren en cualquier situación determinada.
A medida que las instituciones financieras emplean cada vez más inteligencia artificial en sus sistemas bancarios digitales para generar conocimientos personalizados y estímulos procesables, es importante garantizar que se tenga en cuenta la ética de la IA. Los sistemas que emplean IA deben diseñarse de manera que permitan que sean transparentes, responsables y explicables tanto para los desarrolladores como para los usuarios.
Cuando se diseña teniendo en cuenta la ética de la IA, cuestiones como la privacidad de los datos, la manipulación del comportamiento o incluso los sesgos en los algoritmos se abordarán y gestionarán de forma eficaz a medida que se desarrollen los sistemas y las aplicaciones.
Conclusión
A medida que la IA se convierte en una característica destacada de nuestras vidas, es clave que las instituciones y los servicios financieros sigan siendo proactivos a la hora de ajustar y redefinir sus principios rectores para mantenerse al día con su naturaleza cambiante. Esto incluye predecir posibles sesgos algorítmicos, monitorear el desarrollo de aplicaciones basadas en IA e incluso volver a entrenar sistemas y modelos cuando sea necesario.
¿Cómo puede ayudar Moneythor?
Moneythor ofrece un motor de orquestación implementado entre los sistemas de registros de las instituciones financieras y sus canales digitales para impulsar experiencias atractivas y personalizadas para los usuarios finales.
Con la solución Moneythor, los bancos y las empresas FinTech pueden mejorar las experiencias digitales que ofrecen con información personalizada, recomendaciones prácticas y empujones contextuales diseñados para profundizar la relación que los bancos tienen con sus usuarios.
Los algoritmos y modelos de IA utilizados por Moneythor se basan en principios de las ciencias del comportamiento que se adhieren a la ética de la IA, con especial atención a:
- Accesibilidad, para garantizar que el comportamiento sugerido esté bien explicado y accesible en la mente del usuario para que sea considerado.
- Atractivo, donde el resultado del cálculo de la IA resalta de forma transparente los beneficios de buscar un cambio de comportamiento, así como los costos de no hacerlo.
- Factibilidad, con llamadas a la acción personalizadas incorporadas agregadas por los algoritmos para permitir al usuario realizar una acción relevante.
Actualizado: 18 de agosto de 2022.
Descargar la guía de ética de la IA
"*" señala los campos obligatorios