‘Software’ per caçar als que discriminen per sexe
Entre els caps de recursos humans de les empreses tecnològiques abunden almenys dos prejudicis: contractar gairebé sempre a homes i gairebé sempre molt joves. A Silicon Valley proliferen les acusacions, clares o vetllades, de sexisme i de ageism, el terme anglosaxó per definir la discriminació per edat, i els primers sorpresos són els directius que es creien fills exclusius de la meritocràcia i lliures de qualsevol altre biaix que alterés seves decisions en contractar, promocionar o acomiadar un empleat.
No obstant això, com bé diu Howard Ross, autor del llibre Every day Bias: Identifying and Navigating Inconsciuos Judgments in our Daily Lives (Els biaixos de cada dia: Un viatge pels judicis inconscients de la nostra vida diària): “Si ets humà tens prejudicis , és una cosa que ha quedat demostrat en més de mil estudis durant la dècada passada “. Segons Howard, l’impacte dels biaixos inconscients en la vida laboral és “dramàtic”.
Almenys per combatre el biaix de sexe, a Silicon Valley han decidit posar límit als seus propis prejudicis. I de la manera en que millor saben fer: a través d’algoritmes, programari i tecnologia de geolocalització.
Silicon Valley càrrega amb l’etiqueta de contractar gairebé sempre a homes i als molt joves.
Les companyies que es dediquen a identificar i neutralitzar biaixos en entrevistes de treball i avaluacions d’empleats estan en voga. Treballen amb una tecnologia que processa del llenguatge utilitzat i les emocions, i estan rebent importants sumes de diners en rondes de finançament.
Una d’elles, Textio, acaba de reacudar 1,5 milions de dòlars (1,35 milions d’euros) amb la promesa d’identificar qualsevol biaix de gènere en les paraules que s’empren en les ofertes d’ocupació i en les avaluacions a empleats abans d’una promoció. Gràcies a la precisió del seu algorisme, s’ha comprovat que si en una oferta inclou la frase “busquem un candidat amb un historial laboral verificable”, es presentarien més homes a la convocatòria. En canvi, si es demanava un candidat “amb passió per aprendre”, respondrien més dones. Resulta difícil arribar a aquesta conclusió si no és a través de l’encreuament de dades i informació d’un programari.
Les companyies que es dediquen a identificar i neutralitzar biaixos en entrevistes de treball i avaluacions d’empleats estan en voga
Els ocupadors de Silicon Valley han decidit no confiar en el seu criteri i deixar que un algoritme corregeixi seus biaixos inconscients de gènere. Per això companyies com Textio s’estan convertint en un gran negoci.
Kanjoya també es dedica a rastrejar prejudicis. En aquesta empresa treballen amb una tecnologia “processadora del llenguatge i de les emocions conscients” desenvolupada durant vuit anys en col·laboració amb lingüistes de la Universitat de Stanford. Segons explica a El País seu fundador i director, Armin Berjikly, el seu algoritme és tan fi que ha aconseguit descobrir que la paraula assertiveness -autoafirmación o fermesa- s’usa com a terme negatiu en les avaluacions a les dones, mentre que quan s’inclou en l’avaluació d’un home no només es considerava un atribut positiu, sinó que constitueix el pas previ a un ascens. Segons explica Berjikly, només un biaix inconscient pot explicar que la mateixa paraula sigui bona per a uns i dolenta per altres.
“La tecnologia de Kanjoya no només analitza les paraules [en si], també l’emoció i intenció que hi ha darrere. Aquesta informació es combina amb la decisió que ha estat presa; és a dir, si la persona avaluada ha estat acomiadada, ascendida o contractada. Dividim les dades en segments d’edat, ètnia, gènere, geografia … i es pot veure immediatament què ha representat un èxit per a uns i un fracàs per a altres. En un món ideal, sense biaixos, el llenguatge per justificar un ascens o un acomiadament haurien de ser el mateix per a tothom. No obstant això, gairebé mai ho és. La gent espera unes coses dels homes i altres de les dones, i l’interessant és que ni tan sols s’adonen. El nostre producte identifica i avalua aquests biaixos, i aquest és el primer pas per eliminar d’una empresa. No es pot arreglar el que no s’ha mesurat “.
Kanjoya, fundada el 2007, ha aconseguit un finançament de 20 milions de dòlars (18 milions d’euros) de diversos inversors, entre ells DE Shaw. Entre els seus clients estan Twitter i Cisco.
Unitive.works, que probablement comenci a operar al juny, serà una altra de les empreses dedicades a caçar prejudicis amagats i inconscients. La seva missió és etiquetar i ubicar-los geogràficament en temps real, com una mena de Google Maps dels biaixos. La seva tecnologia es concentra en els processos de reclutament i contractació de personal, i té la capacitat d’interrompre el biaix en el mateix moment en què apareix. Per exemple, en una entrevista de treball o en la redacció d’una oferta d’ocupació.
Segons el diari The Wall Street Journal, el 20% de les grans empreses nord-americans està entrenant als seus empleats en la identificació d’aquest tipus de prejudicis i en els propers cinc anys podrien fer-ho el 50%. Google és una de les companyies que ha decidit corregir els seus prejudicis de portes cap a dins, usant un programa d’entrenament intern perquè els seus empleats siguin més conscients dels seus biaixos de gènere, edat o nacionalitat.
No obstant això, alguns consultors no creuen que aquesta estratègia funcioni. Joelle Emerson, directora i fundadora de Paradigm, una consultora estratègica que treballa amb les empreses perquè eliminin els seus “biaixos estructurals”, no recomana que les companyies tracten d’identificar els seus prejudicis pel seu compte. “Després de tot, per alguna cosa són inconscients”, qüestionen. Armin Berjikly tampoc ho veu viable. “La tecnologia per fer-ho resulta difícil de construir. A nosaltres ens va portar vuit anys dissenyar models perfectes i precisos per mesurar emocions. D’altra banda, és complicat fer una revisió independent dels biaixos per les mateixes persones que estan exposades o han estat afectades o afavorides per ells “. Segons explica el fundador de Kanjoya, en les empreses en què s’han identificat prejudicis contra les dones els propis empleats s’ho han acabat agraint. El motiu: portaven temps sospitant de certes conductes però no les prenien seriosament “per falta de dades” i “per falta d’independència”. “Nosaltres li hem proporcionat dues coses”, afirma Berjikly.
Creu, igual que molts a Silicon Valley que no hi ha religió més enllà de la tecnologia. “No hi ha res més fiable que la tecnologia, perquè en si mateixa ja és independent respecte a mesura; no té biaixos, no té agenda, no té interessos polítics, i sempre pot ser millorada “.
“Tots volem treballar en un ambient just on siguem avaluats per coses que es poden controlar, i no per estereotips. Si en una companyia s’usa una tecnologia com la de Kamjoya la gent no haurà de creure que està imaginant coses i només assumirà els fets constrastats “. Així explica Armin Berjikly l’èxit dels programes que mesuren i neutralitzen els biaixos inconscients. També li serveix l’argument de l’arribada dels millenials, la generació més diversa dels Estats Units, al mercat laboral.