Nuestra web utiliza cookies para proporcionar una mejor experiencia de cara al usuario.
Si está de acuerdo con ello solamente pulse el botón aceptar y se ocultará este espacio, si quiere saber más visite el enlace 'Más información'.

Aceptar Más información

english | français | deutsch | italiano | traductor                  
logotipo
borde superior

Noticias

Responsabilidad social corporativa e inteligencia artificial

28/08/2017

Cada día que pasa nos llegan más noticias de nuevas tecnologías que harán (o incluso hacen ya) de manera más eficiente tareas realizadas antes por humanos, pero que traerán consigo diversos debates y riesgos asociados.

La mayoría de los empleos que existen hoy en día podrían desaparecer en décadas. A medida que la inteligencia artificial supera a los humanos en más y más tareas, los reemplazará en más y más empleos.

Según el informe de Infojobs publicado el mes de mayo y titulado Estado del mercado laboral en España, el 76% de población activa no cree que la automatización y nuevas tecnologías vayan a poner en peligro su puesto de trabajo.

La llamada industria 4.0 ya ha llegado y parece que las empresas no están muy preocupadas aparentemente sobre cómo deberán modificar su responsabilidad social corporativa para hacer frente a los retos y debates que se deberán poner sobre la mesa.

El desarrollo de sistemas basados en inteligencia artificial y en el llamado deep learning (aprendizaje profundo) crea “cajas negras” (por su opacidad, no confundir con las de registro de datos de aviones y similares) que generan buenos resultados, pero que los humanos no sabemos muy bien cómo se ha llegado a ellos, tal y como podemos leer en este artículo de Business Insider.

Existen ya, por ejemplo, algoritmos basados en esa tecnología para decidir si se otorga una hipoteca o un préstamo, quién es la persona idónea en un proceso de selección, o en qué acciones y en qué importe se debe invertir en bolsa para sacar un buen rendimiento.

Entre los problemas que puede crear el pasar a depender de decisiones tomadas por cajas negras se encuentran las que Enrique Dans comenta en su blog.

Una de ellas es la falta de transparencia. Hace falta que las tareas que anteriormente hacían humanos y para las que se están creando algoritmos de inteligencia artificial sean transparentes.

La otra es la posible introducción de sesgos. Podríamos pensar que los algoritmos serán más objetivos que las personas a la hora de decidir cosas, pero sólo lo serán en base a que hayan sido alimentados de manera objetiva, tanto al inicio como a medida que el algoritmo va aprendiendo.

Como vemos es un tema muy complejo y además a partir del verano del año que viene la Unión Europea podría exigir que las empresas sean capaces de dar a los usuarios una explicación de las decisiones que toman los sistemas automatizados.

Y también las empresas se deberían poner manos a la obra para realizar cambios en sus políticas de RSC y en la manera que se relacionan con sus grupos de interés, porque los ámbitos a tratar pueden introducir temas concretos que hasta ahora nadie se planteaba.

(Fuente: Compromiso Empresarial)

Desea enviar esta noticia por e-mail icono popup?

 
ETSII Universidad de Málaga Ayuntamiento de Málaga Consejería Empleo Limasa Emasa GIOSCTPRL
 

© Cátedra Prevención y Responsabilidad Social corporativa 2011. Actualizada el 23/07/2017
Icono de conformidad con el Nivel A de las Directrices de Accesibilidad para el Contenido Web 1.0 del W3C-WAI Valid HTML 4.01 Transitional Valid CSS Valid RSS