Encontre aqui seu Software

Busca simples


Busca Avançada

Las implicaciones éticas de la IA y el aprendizaje automático en RRHH

Postado por Fabio Fukuda, Vicepresidente de Transformación Empresarial de Gestión de Capital Humano en Oracle em 10/11/2020 em Artículo

Compartilhar:

La inteligencia artificial (IA) y el machine learning (ML) están integrados en nuestra vida cotidiana, desde la selección de películas recomendadas en el servicio de streaming o en una lista de productos sugeridos para hacer una compra online.

Estas funciones utilizan algoritmos que predicen en función de los datos previos del consumidor y su comportamiento.

El uso de la inteligencia artificial ha tenido un salto exponencial, mientras que la inversión en la tecnología emergente se multiplicó por 15 en los últimos cinco años. Esta tendencia sugiere que las organizaciones tienen altas expectativas de que las tecnologías emergentes ayuden a maximizar la producción, la rentabilidad, la productividad laboral y el compromiso. Sin embargo, esta trayectoria de rápido crecimiento también puede socavar riesgos no deseados.

Si bien los casos de uso de IA y ML pueden ser muy convincentes y los riesgos relativamente bajos, lo que está en juego es mucho mayor cuando ambos se utilizan en la empresa para impulsar las decisiones del equipo de trabajo.

Este es el dilema al que se enfrentan las organizaciones de recursos humanos en la actualidad. Por un lado, existe un consenso en que la inteligencia artificial y el machine learning tienen el potencial de ayudar a aumentar la productividad, reducir el sesgo humano y mejorar la precisión en las predicciones de la fuerza laboral.

Por otro lado, las últimas investigaciones sugieren que también existe una creciente preocupación por la falta de transparencia ética, legal y detrás de las herramientas de tecnología emergente.

La pregunta entonces es: ¿Qué pueden comenzar a hacer los gerentes de Recursos Humanos para abordar estas preocupaciones y aprovechar estas tecnologías emergentes de manera efectiva? Aquí algu

1. Aumento de la transparencia: los candidatos y los trabajadores tienden a volverse más escépticos y preocupados por las decisiones relacionadas con los recursos humanos impulsadas por los resultados de la IA y el machine learning cuando no entienden el qué, quién, cómo y por qué.

Por lo tanto, es fundamental que los empleadores estén preparados para explicar los casos de uso, los algoritmos y los procesos de toma de decisiones.

Además, el cumplimiento de las distintas normativas de protección de datos es primordial. La mayoría de las leyes requieren que los empleadores soliciten a los candidatos y trabajadores que opten por la recopilación de datos, puedan apelar las decisiones resultantes de los algoritmos y también mantener la confidencialidad.

2. Revisión de datos en busca de sesgos y ampliación de las fuentes de datos: uno de los mayores riesgos cuando se trata de IA y ML son los conjuntos de datos limitados y potencialmente sesgados. Por lo tanto, es muy importante desde el principio que los gerentes de Recursos Humanos examinen más a fondo los datos de sus empleados y evalúen áreas como el rendimiento, el potencial, las promociones y realicen un análisis de impacto adverso muy completo para buscar una posible indicación de sesgo.

Otro riesgo es la disponibilidad limitada de datos. La inteligencia artificial y el machine learning son más efectivos cuando se usan en conjuntos de datos muy grandes, por lo que se explora el uso de otras fuentes de datos, incluso de terceros, que pueden expandir el uso de esos algoritmos y garantizar que sean más precisos.

3. Adopción de un enfoque multidisciplinario: muchas organizaciones ahora se están enfocando en contratar científicos de datos que puedan construir algoritmos y extraer datos. Las complejidades del uso de la IA y el machine learning en los recursos humanos requieren que los gerentes de Recursos Humanos reúnan su equipo de personas con conjuntos de habilidades multidisciplinarias para evaluar y aplicar de manera efectiva estas tecnologías emergentes en las organizaciones.

Una buena manera de abordar este desafío es formando un consejo interno de IA compuesto por profesionales legales y éticos, científicos de datos, profesionales de recursos humanos y trabajadores para revisar y evaluar cualquier impacto adverso potencial en los casos de uso de las tecnologías emergentes mencionadas anteriormente.

La tecnología por sí sola no puede abordar las deficiencias de las aplicaciones de IA y ML en RR.HH. Como sugiere Ben Shneiderman, científico e investigador de la Universidad de Maryland, existe la necesidad de un enfoque de IA centrado en el ser humano que requiera un mayor equilibrio entre el control humano y la automatización informática. En otras palabras, la tecnología debe usarse siempre para que el lugar de trabajo sea (todavía) más humano. 

 

 

Postado por Fabio Fukuda, Vicepresidente de Transformación Empresarial de Gestión de Capital Humano en Oracle em 10/11/2020 em Artículo

Para tornar sua experiência mais agradável usamos cookies para armazenar informações sobre como você usa o Portal ERP. Acesse nosso 'Termos de Uso e Política de Privacidade' para saber mais. Ao clicar em 'Aceitar', você consente com a otimização do site pelo uso de cookies.