Inteligencia artificial: Equilibrio entre la regulación y la autorregulación

Para IBM, el desarrollo de la IA requiere de una autorregulación de las empresas en su uso e impacto, así como de regulaciones políticas que ayuden a impulsar la confianza de los consumidores y a evitar abusos de la tecnología.

La confianza es el vínculo principal que une a las empresas que desarrollan e implementan la inteligencia artificial (IA) con sus consumidores. Mientras los primeros deben asegurarse de que sus sistemas de inteligencia artificial lleguen a ciertas conclusiones de manera ética, transparente y cumplan con las regulaciones relevantes, los consumidores deben ser cada vez más conscientes de cómo se utiliza esta tecnología, quieren saber cuándo se usa y cómo impacta en sus vidas.

Para IBM, los sistemas de inteligencia artificial deben ser transparentes y explicables y seguir los principios que están construyendo organizaciones internacionales como la OCDE (Organización para la Cooperación y el Desarrollo Económicos), el G-20 y el Foro Económico Mundial. «La existencia de principios es esencial, y ayuda a delinear los compromisos que los desarrolladores de IA deben tener con los ciudadanos, los consumidores y los gobiernos», indica el gigante azul.

Sin embargo, para Ryan Hagemann y Jean-Marc Leclerc de IBM, ha llegado el momento de pasar de los principios a las políticas. «La transparencia algorítmica y la capacidad de los sistemas para explicar la lógica detrás de sus recomendaciones debería ser la base para construir cualquier sistema de IA confiable y, por lo tanto, es lo que esperamos de cualquier compañía que desarrolle, distribuya o comercialice sistemas de este tipo», afirman.

Ambos ejecutivos indican que, al igual que con las tecnologías y algoritmos de reconocimiento facial, para la IA en general debe requerirse que los resultados de las búsquedas, ya sean deterministas o probabilísticos, vayan acompañados de la posibilidad de que el usuario verifique el origen y las fuentes de información presentadas.

Igualmente, consideran que, debido a la extensión cada vez mayor de la tecnología y a que puede determinar comportamientos y decisiones, «es esencial que los gobiernos prioricen el debate de manera técnica y oportuna». Por ello, recomiendan que los debates públicos y legislativos para definir políticas y estructuras de gobernanza de la IA se guíen por tres pilares:

- Imparcialidad y seguridad, validadas por pruebas de sesgos y de uso. Esto debe ser realizado antes de que la IA sea implementada, y con especial foco en sistemas que entregan determinaciones automatizadas y aplicaciones de alto riesgo;

- Responsabilidad proporcional al perfil de riesgo de la aplicación y a la capacidad de la organización para proporcionar, desarrollar u operar un sistema de IA, así como para controlar y mitigar resultados no deseados o perjudiciales para los consumidores; y

- Transparencia, al señalar dónde se utilizará la tecnología, cómo ha sido entrenado el sistema, cómo se usa y por qué entrega ciertos resultados o sugerencias de acción.

«Con esto será posible identificar y frenar las prácticas eventuales de organizaciones que no están comprometidas a proteger los derechos y la privacidad de sus usuarios, sean individuos, empresas o gobiernos», afirman.

Autorregulación basada en riesgos

Hagemann y Leclerc consideran que los enfoques regulatorios basados ​​en riesgo son los ideales para proteger a los consumidores, crear confianza pública en la IA y proporcionar a los innovadores la flexibilidad necesaria para crear sistemas cada vez más precisos e impulsores del desarrollo social y económico. En este escenario, las empresas deben unirse para construir buenas prácticas en el desarrollo y la gobernanza de estos sistemas.

Ambos expertos recomiendan cuatro prácticas para diferenciar a las compañías comprometidas con generar una práctica de IA confiable:

  1. Designar un líder responsable de ética en la IA: Esta persona sería responsable de la guía interna y sus mecanismos de cumplimiento. También se podría conformar un Consejo de ética en IA que vigile las estrategias de evaluación de riesgo y la mitigación de potenciales daños.
  2. Diferentes reglas para diferentes riesgos.Todas las entidades que operan o son propietarias de un sistema de IA deben conducir dos tipos de evaluación juiciosa: Una evaluación inicial del daño potencial de la tecnología, que tenga en cuenta el uso específico de la aplicación, los impactos para el usuario final y el nivel de automatización empleado; y otro, aún más profundo, centrado en aplicaciones de alto riesgo, que deben documentarse, auditarse y almacenarse durante un período específico.
  3. Sistemas explicables de IA.Cualquier sistema de IA en el mercado que haga determinaciones o recomendaciones con impactos potenciales para distintos individuos debe ser capaz de explicar y contextualizar cómo y por qué llegó a una conclusión. Para lograrlo, las organizaciones deben mantener huellas auditables sobre los datos de insumo y entrenamiento del mismo sistema.
  4. Realización de pruebas de sesgos.Todas las organizaciones involucradas en el desarrollo del ciclo de vida de la IA comparten cierto nivel de responsabilidad en asegurar que los sistemas que diseñan sean imparciales y seguros. Es esencial realizar pruebas continuas de distintos tipos (protección de datos, cumplimiento, antidiscriminación, protección del consumidor, seguridad, etc.) para identificar y reducir las posibilidades de que el aprendizaje automático produzca resultados no deseados.

«Todo esto se puede hacer sin crear ningún requerimiento regulatorio específico. Al mercado se le puede delegar la responsabilidad de aprobar o castigar prácticas organizacionales que no estén de acuerdo con este marco de referencias para el desarrollo y uso de la inteligencia artificial», subrayan los expertos de IBM, quienes también dicen que el papel de los gobiernos para apoyar la innovación y la adopción de IA a gran escala es fundamental.

Las autoridades del poder ejecutivo deben considerar designar o reconocer mecanismos regulatorios existentes y efectivos (como el CENELEC en Europa o el NIST en EE. UU.) para alentar la colaboración en definir referencias, estructuras y estándares para sistemas de IA; apoyar el financiamiento y la creación de laboratorios multidisciplinarios de IA; e incentivar la adopción de estándares globales, así como certificaciones y formatos de validación reconocidos internacionalmente.

Los expertos recomiendan que las organizaciones y los gobiernos deben trabajar juntos para encontrar el equilibrio entre la autorregulación y la regulación precisa para la IA, que contribuya a disminuir los impactos negativos de esta tecnología, impulsando su potencial transformador y positivo.

Finalmente, Hagemann y Leclerc señalan que cualquier acción discriminatoria, ya sea en un entorno virtual, automatizado o físico, debe evitarse sin distinción. «Las recomendaciones o decisiones sesgadas de cualquier tipo nunca deben considerarse aceptables. Especialmente en sistemas que se pueden mejorar, probar y corregir en modelos estadísticos antes de que sean accesibles».

Investigue más sobre Inteligencia artificial y automatización

ComputerWeekly.com.br
Close