El analista de Forrester proporciona 3 principios para & # 39; IA ética & # 39;
hace 4 años
A medida que las empresas aumentan su uso de inteligencia artificial (IA), los líderes de marketing y CX deben asegurarse de que sus equipos estén construyendo sistemas de IA imparciales, equitativos y éticamente responsables que no crucen sin darse cuenta ninguna línea reguladora o, quizás peor, se vuelvan clientes fuera.
"El mundo del futuro estará inundado de inteligencia artificial", dijo Brandon Purcell, analista principal de Forrester, durante una sesión en la conferencia virtual CX North America de la firma el mes pasado. "La inteligencia artificial tomará cada vez más decisiones muy críticas sobre la libertad, los medios de vida, la salud y el acceso al crédito de las personas, por lo que debemos ser muy deliberados en la forma en que creamos estos sistemas".
Varias entidades diferentes, desde corporaciones hasta gobiernos y grupos industriales, ya tienen "sus propios marcos éticos de inteligencia artificial que denotan los principios por los que les gustaría esforzarse en crear IA", agregó Purcell. Dijo que estos marcos comparten tres principios clave: equidad y prevención de prejuicios, confianza y transparencia y responsabilidad.
Principio # 1: equidad y prevención de sesgos
La investigación de Forrester muestra que las personas se alejarán de una marca si se enteran de que su sistema de inteligencia artificial está tomando decisiones sesgadas o discriminando a alguien, dijo Purcell.
No es que Purcell piense que las compañías están construyendo deliberadamente sistemas de inteligencia artificial con sesgo. Entonces, ¿cómo se sesga un algoritmo de aprendizaje automático en primer lugar?
Dos formas, explicó Purcell. El primer sesgo algorítmico ocurre cuando un conjunto de datos no es representativo de toda la población. Por ejemplo, un conjunto de datos de entrenamiento de reconocimiento facial de solo personas con cabello castaño no funcionaría de manera efectiva al analizar personas con cabello rubio o rojo.
"La solución aquí es que los científicos y desarrolladores de datos intenten encontrar lo que llaman" datos IID ", datos independientes e distribuidos de manera identificable, que reflejan la distribución y diversidad del mundo real", dijo.
La segunda forma es el prejuicio humano, y es "un problema más pernicioso", dijo Purcell. “Como especie, no hemos sido particularmente justos el uno con el otro en el transcurso de nuestra historia, y esta inequidad está codificada en los datos. Cuando usemos estos datos para enseñarle a un algoritmo de aprendizaje automático que haga su trabajo, terminará no solo tomando las mismas decisiones injustas sino haciéndolo en una escala que antes no era posible cuando los humanos tomaban esas decisiones. "
La solución, dijo, es "modificar los datos de capacitación o modificar el motor de implementación de una manera que refleje un resultado más justo y equitativo".
Eso en sí mismo requiere un enfoque multifacético que se base en una diversidad de puntos de vista organizacionales, desde científicos de datos, líneas de negocios, hasta el nivel ejecutivo, así como los clientes.
"(Hay) 22 definiciones diferentes de equidad, y espero que aprecies la dificultad de decir:" OK, queremos ser justos ", señaló Purcell. "Realmente necesita definir estándares de equidad para cada caso de uso para sus científicos y desarrolladores de datos".
Principio # 2: confianza y transparencia
Muchos proyectos de IA fracasan porque la IA se creó como una caja negra, y la parte interesada de la empresa que va a usar el sistema no confía en ella, dijo Purcell. "El uso de IA interpretable o explicable es una forma de evocar confianza", dijo.
Pero las organizaciones se encuentran en un equilibrio entre precisión y transparencia, dijo Purcell. En pocas palabras, la mayor precisión requerida: utilizó el ejemplo de determinar la aprobación de crédito de una persona utilizando un algoritmo de aprendizaje automático (que aprende a hacer predicciones a partir de datos) frente a una red neuronal (en la que los algoritmos procesan señales a través de nodos interconectados, mucho como nuestros cerebros), lo más complicado que resulta explicar.
"En algunos casos, especialmente cuando tienes suficientes datos, las redes neuronales son más precisas que sus otros antepasados del aprendizaje automático", pero también carecen de transparencia dentro de sus capas de entrada, dijo. "No se puede extraer el capó de una red neuronal y ver cómo se llega a la decisión".
Al embarcarse en un proyecto de inteligencia artificial, Purcell sugirió usar una cuadrícula de dos por dos (a continuación) que analiza el riesgo para la compañía de tomar una decisión incorrecta frente a la importancia de la precisión.
Si quieres conocer otros artículos parecidos a El analista de Forrester proporciona 3 principios para & # 39; IA ética & # 39; puedes visitar la categoría Otros.
Otras noticias que te pueden interesar