in

Un nuevo libro expone cómo el 99% de las empresas de Fortune 500 utilizan la tecnología para «ver» entrevistas y «leer» currículums para tomar decisiones de contratación sin supervisión humana

El libro, titulado 'El algoritmo', ha puesto de relieve cómo el mundo de la contratación se está convirtiendo en un 'salvaje oeste' donde algoritmos de IA no regulados toman decisiones sin supervisión humana.

El libro, titulado ‘El algoritmo’, ha puesto de relieve cómo el mundo de la contratación se está convirtiendo en un ‘salvaje oeste’ donde algoritmos de IA no regulados toman decisiones sin supervisión humana.

La IA se ha apoderado del mercado laboral leyendo currículums y viendo entrevistas para proporcionar a los ejecutivos humanos los mejores candidatos, según revela un nuevo libro.

El libro, titulado ‘El algoritmo’, ha revelado cómo el mundo de la contratación se está convirtiendo en un ‘salvaje oeste’ donde algoritmos de IA no regulados toman decisiones sin supervisión humana.

La inteligencia artificial decide quién contrata y quién despide monitoreando todo, desde lo que la gente publica en las redes sociales hasta su tono de voz en las entrevistas, dijo a DailyMail.com la autora del libro, Hilke Schellmann.

Los algoritmos ahora pueden dictar no sólo quién consigue entrevistas de trabajo sino, gracias al monitoreo continuo en el trabajo, quién es ascendido o despedido (e incluso podrían advertir a su jefe si se va a divorciar).

Schellmann dijo que el director ejecutivo de ZipRecruiter le dijo hace unos años que la tecnología estaba analizando al menos el 75 por ciento de los currículums.

‘Eso fue en 2021; Probablemente ahora sea 100 por ciento. Sabemos que el 99 por ciento de las empresas Fortune 500 ya utilizan herramientas de inteligencia artificial en la contratación», afirmó.

Schellman dijo que es inevitable que si presenta su solicitud hoy, su currículum sea examinado por IA mucho antes de que sea procesado por un humano, y ofrece consejos sobre cómo ser visto en un lugar de trabajo impulsado por IA.

Las herramientas de inteligencia artificial que utilizan los reclutadores no son confiables e incluso los reclutadores no saben cómo funcionan, y agregó que el proceso de solicitud de empleo basado en inteligencia artificial está plagado de discriminación y se utilizan palabras clave «descaradamente extrañas», explicó.

La inteligencia artificial ya está decidiendo quién es contratado y quién despedido al monitorear todo, desde lo que la gente publica en las redes sociales hasta su tono de voz en las entrevistas, dijo a DailyMail.com la autora del libro, Hilke Schellmann.

La inteligencia artificial ya está decidiendo quién es contratado y quién despedido al monitorear todo, desde lo que la gente publica en las redes sociales hasta su tono de voz en las entrevistas, dijo a DailyMail.com la autora del libro, Hilke Schellmann.

Las herramientas de IA suelen ser «cajas negras» donde los reclutadores no pueden ver cómo funcionan.

La tecnología puede desarrollar ideas inusuales sobre la probabilidad de que un candidato tenga éxito o predecir el éxito basándose en la asistencia a la iglesia o en diferentes nacionalidades, formando un proceso plagado de discriminación.

Eso significa, por ejemplo, que las mujeres o las personas discapacitadas podrían verse discriminadas durante el proceso de contratación, pero como las personas no saben qué herramientas de IA se han utilizado, les resulta difícil responder.

«Los proveedores que construyen herramientas de IA no quieren ser examinados y son reacios a hablar de cualquier problema», afirmó Schellmann.

‘Quieren hablar de ello en términos de marketing entusiastas, ¿verdad? Qué maravilloso es encontrar a las mejores personas, pero ellas no quieren abrir la caja negra para las pruebas o la transparencia.

«Las empresas que utilizan estas herramientas de IA a menudo tampoco quieren hablar de ello porque sienten que el hecho de que los solicitantes estén molestos porque se utiliza IA y porque ningún ser humano está mirando su solicitud de empleo supone un daño a su reputación».

Y dijo que las máquinas hacen la mayor parte de los rechazos.

Un ex abogado laboralista, Matthew Scherer, con quien Schellmann habló, dijo que las herramientas utilizadas «no están listas para el horario de máxima audiencia».

Esto se debe a que la tecnología es «muy básica» y no puede predecir completamente los resultados del mundo real, como el éxito de una persona en un trabajo.

Schellmann describió muchas tecnologías utilizadas para filtrar currículums como «aceite de serpiente».

‘Sabemos que ahorra dinero. Sabemos que ahorra mano de obra, pero no hemos visto pruebas de que elija a los candidatos más calificados», afirmó.

Muchas organizaciones también están utilizando la IA para evaluar grabaciones de entrevistas en vídeo, buscando problemas como el «tono de voz incorrecto», dijo Schellman.

«Desafortunadamente, esto es en gran medida legal», continuó.

‘La Unión Europea es un poco más estricta con el Reglamento General de Protección de Datos [GDPR] y otras leyes, pero Estados Unidos sigue siendo el Salvaje Oeste en esto, excepto por algunas leyes locales que vemos.

‘Hay uno en Illinois donde debes informar a la gente sobre esto mediante inteligencia artificial y entrevistas en video. Pero en general todavía no hay mucha regulación al respecto.’

Las herramientas de inteligencia artificial utilizadas en las entrevistas extraen «biomarcadores» (como el tono de voz o los movimientos) que supuestamente corresponden a las emociones.

‘Si usted y yo estamos hablando, esta herramienta puede descubrir si está ansioso o deprimido basándose en el tono de voz o cuando vemos la expresión facial. Sí, y la entonación de la voz», dijo Schellmann.

‘¿Qué significa una expresión facial en una entrevista de trabajo?

‘No te hace bueno o malo en un trabajo. Utilizamos estas señales tecnológicas porque podemos, pero a menudo no tienen mucho significado»,

Los empleadores ahora también escanean rutinariamente redes sociales como X y LinkedIn utilizando algoritmos de inteligencia artificial, en busca de detalles como referencias a canciones con letras violentas.

«Eso podría significar que te etiquetan como una persona violenta y alguien que no debería ser contratado», dijo Schellmann.

Muchas empresas hacen esto como parte de una etapa de selección de contratación, pero otras utilizan continuamente este tipo de exploraciones en los empleados.

«Algunas de estas herramientas también detectan cosas como si eres propenso a autolesionarte», reveló el autor.

Los algoritmos ahora pueden dictar no sólo quién consigue entrevistas de trabajo sino, gracias al seguimiento continuo en el trabajo, quién es ascendido o despedido.

Los algoritmos ahora pueden dictar no sólo quién consigue entrevistas de trabajo sino, gracias al seguimiento continuo en el trabajo, quién es ascendido o despedido.

‘En Estados Unidos, eso podría ser ilegal porque no se permite preguntar a las personas sobre sus condiciones médicas antes de contratarlas.

‘También es una pregunta: ¿por qué una empresa querría saber si eres propenso a autolesionarte? ¿Es eso realmente útil? ¿Están ayudando a estas personas, a sus empleados? ¿O los están castigando?

Las empresas utilizan algoritmos de inteligencia artificial para evaluar la personalidad de las personas en función de sus publicaciones en las redes sociales, analizando el lenguaje para evaluar cómo son «realmente» las personas, dijo Schellmann.

‘Las empresas quieren mirar debajo del capó de las personas, ¿verdad? Quieren saber quién es usted antes de contratarle», explicó Schellmann.

Schellmann dijo que la capacidad de «mirar bajo el capó» de las personas es algo que las organizaciones han anhelado durante décadas, lo que las ha llevado a confiar en tecnologías no probadas o falsas, como el análisis de escritura a mano.

El mismo trabajo lo realizan algoritmos de inteligencia artificial que analizan vídeos de entrevistas de trabajo.

Las organizaciones que quieren contratar a alguien que «aprenda rápido» (para que puedan adaptarse a un mundo tecnológico cambiante) a menudo dependen de dichas tecnologías para predecir quién podría ser una buena opción, dijo Schellmann.

Pero confiar en la personalidad (y en algoritmos de IA no probados para lograr que las personas tengan ese rasgo específico) es un error, sostiene Schellman.

Schellman dijo: «Lo que sabemos por la ciencia es que la personalidad predice aproximadamente un cinco por ciento del éxito en el trabajo». Entonces eso es muy, muy poco.

‘A menudo superamos nuestra personalidad. Soy bastante tímido y tengo que trabajar en eso. Cuando voy a recepciones y fiestas, tengo que esforzarme por acercarme a extraños. Podemos superar nuestra personalidad en el trabajo y en otros lugares.

‘En realidad, es cuestionable si deberíamos usarlo. Pero es fácil de usar. Es súper barato. Es simplemente una manera fácil de hacerlo, y por eso lo hacen».

Cómo tener éxito cuando la IA lee tu currículum (y probablemente mira tu entrevista de trabajo)

Schellmann aconseja que los solicitantes deben hacer coincidir entre el 60 y el 80 % de las palabras clave de la descripción del puesto (no el 100 por ciento) porque las herramientas de inteligencia artificial pueden descartarlo por simplemente copiar la descripción del puesto).

Schellmann dijo: «Quieres tener un currículum súper básico». El viejo consejo a menudo era destacar ante un humano con columnas y gráficos interesantes. No tenga gráficos, como si una máquina no pudiera leerlos: ni imágenes, ni columnas.

En cambio, Schellmann aconseja que los solicitantes tengan viñetas y un lenguaje claro, legible por máquina, breve y conciso.

Dijo que varios servicios de sitios web (incluido JobScan) pueden ayudarlo a ver si su currículum o solicitud es legible por máquina.

Sube la descripción del trabajo y un currículum para verificar la superposición.

El mercado laboral actual es un juego del «gato y el ratón» en el que los solicitantes suelen utilizar grandes modelos de lenguaje de IA, como ChatGPT, para escribir cartas de presentación, dijo Schellmann.

Schellman dijo: «Los humanos en realidad no elaboran el texto y ya no evalúan las cartas de presentación ni los currículums». Son las máquinas contra las máquinas.

Schellmann aconseja utilizar sistemas de inteligencia artificial como ChatGPT para evaluar cuáles son las preguntas más probables que le harán y, en entrevistas no en vivo, ChatGPT también puede ayudarlo a encontrar respuestas.

En las entrevistas, si va a ser evaluado por máquinas, tenga respuestas largas que describan escenas específicas, aconsejó Schellman, porque cuanto más corta sea la respuesta, más difícil será para las máquinas entenderla.

Schellman dijo que algunos también sugieren mirar a la cámara para mostrar los algoritmos con los que estás «comprometido».

Schellman dijo que la otra clave es postularse para tantos trabajos como sea posible, incluso aquellos para los que no se siente calificado.

‘Hay una clara diferencia entre mujeres y hombres: las mujeres sólo postulan cuando están 100% calificadas, mientras que los hombres postulan cuando tienen el 50 por ciento. Pero si las máquinas califican si usted está calificado o no, presente su solicitud cuando crea que está calificado en un 60%.’

Schellmann dijo que la respuesta es seguir postulando, incluso si hay que hacerlo 150 o 200 veces.

Ella dijo: ‘No te desanimes. Es como un juego de números y puede resultar muy frustrante para la gente. Pero son sólo las máquinas las que lo leen en el otro extremo y te ponen en una pila de sí o no.

—¿Y hay muy poco control sobre eso? Entonces, la aplicación masiva es la única forma de hacerlo. ‘

Fuente

Written by Redacción NM

El actor estadounidense Christian Oliver y sus dos hijas mueren en un accidente aéreo, dice la policía

La decisión de la Corte Suprema de Estados Unidos sobre el caso electoral Trump-Colorado es "monumental" para la democracia misma, no solo para las elecciones presidenciales de 2024

La decisión de la Corte Suprema de Estados Unidos sobre el caso electoral Trump-Colorado es «monumental» para la democracia misma, no solo para las elecciones presidenciales de 2024