Ética en la Inteligencia Artificial.

preview_player
Показать описание
Los expertos estiman que el valor de mercado global en 2022 para el software de Inteligencia Artificial (IA) alcanzará los 62.5 mil millones de dólares, significando un aumento del 21% respecto al año anterior. En México, rondará en los 250 millones de dólares.

Definitivamente la pandemia ha acelerado el desarrollo de estos programas, sin embargo, su avance dependerá de la madurez de las empresas y de la selección cuidadosa de los casos de uso, es decir, que sus aplicaciones beneficien a la humanidad y no generen mayores riesgos derivados de un mal uso o que se amplíen las desigualdades.

Por ejemplo, un estudio del BID y de la UNESCO señala que el uso de IA en los procesos de selección laboral puede estar diseñados bajo prejuicios que generen una mayor discriminación de género. La Organización Mundial de la Salud (OMS) también se ha pronunciado por que la ética y los derechos humanos ocupen un lugar central en el desarrollo de estos sistemas.

Así también lo mencionó Stephen Hawking, quien fue coautor de una carta abierta solicitando a investigadores y desarrolladores de IA enfocar su trabajo bajo una dirección ética y normativa. Francesca Rossi, una investigadora mundial en ética e inteligencia artificial y representante de la materia en IBM, señala que para que la IA sea lo más honesta posible es importante que la ética esté presente.

En una encuesta de Deloitte el 76% de los ejecutivos respondieron que esperaban que la IA transformara sustancialmente sus empresas dentro de los próximos tres años. Un tercio de este grupo se mostró especialmente preocupado por los riesgos éticos.

Una mentalidad ética apoya la toma de decisiones basada en valores, centrándose en lo que es bueno para el negocio, pero también en lo bueno para los empleados, clientes, y de las comunidades.

Según un estudio realizado por Accenture, se estima que para 2035 aquellas compañías que incorporen la IA a su modelo de negocio verán un incremento de beneficios cercanos al 38%.

Como oficiales de cumplimiento es importante comprender los riesgos, de la IA, para establecer los procesos necesarios para evitarlos. Las empresas deben asegurarse de que el desarrollo se ha realizado de forma íntegra, ética y transparente para generar la confianza necesaria en el usuario. Que sean algoritmos sin sesgos.

Dado que la ética e integridad deben estar en las personas que generan los programas de IA, es importante contar con lineamientos y normas, nacionales e internacionales. Sumado a los planes de acción de cada empresa, como Microsoft que cuenta con un comité de ética en IA, denominado AETHER creado en 2017.

¿Por tanto, nuestros sistemas de cumplimiento están listos para integrar la IA en nuestras empresas? ¿En los códigos de ética tenemos una parte enfocada a la IA?, ¿identificamos los riesgos en la construcción de estos programas?, van con los valores de la empresa?
Рекомендации по теме