Monitoratge, puc ser acomiadat per un algoritme?

Els sistemes digitals que fan ús de la intel·ligència artificial s’estan implantant de mica en mica, i són l’eix sobre el qual gira la quarta revolució industrial. Tanmateix, aquests canvis també modifiquen la nostra vida laboral i plantegen qüestions ètiques. El monitoratge basat en algoritmes pot decidir si l’empresa ha d’acomiadar un empleat?

 

Fa molts anys que les distopies tecnològiques són un gènere popular en el cinema i literatura de ciència-ficció. En aquests escenaris futurs, com els que apareixen a les novel·les d’Aldous Huxley o en sèries com ‘Black Mirror’, els humans som objecte d’un control omnímode amb l’ajuda de la intel·ligència artificial. Aquestes distopies han alimentat tota mena de teories conspiranoiques, però, amb l’èxit del teletreball i plataformes com Uber, Glovo o Amazon Flex, corren el risc de deixar de ser ficció per convertir-se en una trista realitat del nostre dia a dia laboral.

 

Culpa del mètode o de l’algoritme?

No és cap secret que plataformes digitals com Amazon fa anys que fan ús d’algoritmes per gestionar els milions de clients i comerciants del seu mercat en línia. Es tracta de programes informàtics coneguts com a “bots” (afèresi de “robots”) que ajuden a evitar el frau comercial, però amb els quals no pots dialogar en cas de disputa.

Aquesta mateixa gestió per algoritme Amazon l’ha emprat recentment amb Amazon Flex, una modalitat de treball que permet als treballadors autònoms guanyar ingressos extres gràcies als repartiments de paqueteria. Tanmateix, segons una investigació de Bloomberg, alguns d’aquests treballadors han estat acomiadats per correu electrònic automatitzat i enviat per un algoritme. L’algoritme ha decidit, basant-se en paràmetres més enllà del control de l’empleat, que la seva productivitat no era prou per justificar el lloc de treball.

Ens trobem en un cas similar amb Xsolla, una fintech russa que va acomiadar 147 empleats, un 30% de la seva plantilla, fent servir un sistema d’avaluació per algoritme. Aquest acomiadament es va fer viral quan el fundador de la companyia va explicar per correu electrònic als treballadors, i de males formes a les xarxes socials, que el sistema d’intel·ligència artificial  (IA) havia determinat que els treballadors estaven poc implicats i eren poc productius.

Però sense haver de recórrer a casos extrems, és indubtable que el monitoratge del temps de treball i la recollida massiva de dades sobre el teu rendiment per part de sistemes d’IA són una realitat. Aquest mètode s’està implantant per cobrir la manca de supervisió humana a causa del teletreball. Moltes empreses ja utilitzen infinitat d’eines i aplicacions informàtiques, com Microsoft Productivity Score, Track People, Hubstaff i Asana per espiar o controlar la productivitat dels seus empleats. Possiblement, l’aplicació dels algoritmes de control, en si mateixa, no sigui el problema, sinó del mètode d’ús d’aquestes eines per part de les empreses, que sí que haurien de ser qüestionades.

 

Un mal necessari que s’ha de regular

L’ús i abús d’alguns d’aquests dispositius de monitoratge pot comportar la vulneració de drets fonamentals relacionats amb la privacitat dels treballadors. Un fet que ha provocat que la Unió Europea hagi dissenyat una nova regulació, que encara no s’ha aplicat, per minimitzar les repercussions negatives d’aquest ràpid augment en l’ús de la robòtica i la intel·ligència artificial en el nostre entorn socioeconòmic i laboral.

La mateixa legislació espanyola reconeix que les empreses tenen dret a adoptar les mesures de vigilància i control que considerin més oportunes per comprovar que el treballador compleix amb les seves obligacions i deures laborals, sempre que es respecti la seva dignitat. Però, dins la Llei de Protecció de Dades, existeix una normativa més específica, relacionada amb la protecció de dades dins dels entorns digitals, que diu que els treballadors tenen dret a la intimitat en l’ús dels aparells digitals posats a la seva disposició per l’empresa.

La normalització de la convivència laboral entre persones i intel·ligència artificial tot just comença, i passaran anys fins que no es resolgui la incertesa jurídica, legislativa i reglamentaria que ocasiona. Però sobretot, requerirà un esforç de transparència i confiança per ambdues parts, treballadors i empreses, per delimitar les línies vermelles que no s’haurien de creuar.

 

11Onze s’està convertint en un fenomen com a primera comunitat fintech de Catalunya. Ara, llança la primera versió d’El Canut, la super app d’11Onze, per a Android i Apple. Des d’El Canut es pot obrir el primer compte universal al territori català.

Si t'ha agradat aquesta notícia, et recomanem:

Finances

El repte més gran de les PIMES

5min lectura

L’acceleració de la digitalització ha estat un dels reptes més

Management

Nòmades digitals: fer del món la teva oficina

4min lectura

Cansat de treballar des de casa? Fes-te nòmada digital i

Separar l’oci de la feina fent teletreball

1min lectura

En aquest vídeo, et donem alguns consells per a poder



Equip Editorial Equip Editorial
  1. Jordi MorenoJordi Moreno says:
    Jordi

    Totalment d’acord el monitoritatge es un mal necessari que cal regular. No deuria utilitzar-se per acomiadar, ni per a espiar ni es deuria enmagatzemar per motius mediambentals, recordem q el funcionament de disc dur emeten escalfor al mediambient, l’ús sols deuria activar-se en casos de seguretat amb protocols Ben definits.

  2. Daniela SimónDaniela Simón says:
  3. Pere SorianoPere Soriano says:
    Pere

    Crec que com en tots els sistemes basats en software hi ha el treball humà al principi encara que el resultat final sigui el de una maquina. Els humans tenen errors i diferents interpretacions. Sol passar que les necessitats a tractar eren unes, el programador les va interpretar diferent i el resultat final dista de la realitat amb imperfeccions.

    • Jordi CollJordi Coll says:
      Jordi

      És que no hi haurà mai res que sigui del tot perfecte i que agradi a tothom de la mateixa manera… Moltes gràcies pel teu comentari, Pere!!!

      Fa 2 anys
  4. Francesc Estafanell PujolFrancesc Estafanell Pujol says:
    Francesc de Borja

    L’ús que se’n fa o se’n faci de la intel·ligència artificial és un handicap però cal no oblidar que el primer obstacle és i serà la creació dels programaris que no són ni seran neutrals. Article molt interessant sobre els reptes que arriben

    • Pilar Oltra Vigueras says:

      Un temps d’incertesa fins que es pugui ajustar/regular tot plegat. Gràcies Francesc.

      Fa 2 anys
  5. Laura CarlúsLaura Carlús says:
    Laura

    M’esgarrifa….

  6. Joan Santacruz CarlúsJoan Santacruz Carlús says:
  7. alicia Coiduras Charlesalicia Coiduras Charles says:
    Alicia

    Fa una mica d’angunia aquest supercontrol de la IA ,perquè esssent aquesta una eina genial el seu mal us pot acabar essent la tirania d’aquest vers el control

    • Jordi CollJordi Coll says:
      Jordi

      Si es fes un bon ús de tot plegat a un altre lloc estaríem… Moltes gràcies pel teu comentari, Alícia!!!

      Fa 2 anys
  8. Mercè ComasMercè Comas says:
    Mercè

    Falta saber quines són les línies vermelles que no s´haurien de creuar. On és límit. Quan tot s´ha de regular vol dir que de moment guanya la màquina.

Deixa una resposta

App Store Google Play