top of page

Caso de estudio "AMAZON" - "Ética versus Inteligencia Artificial"

Actualizado: 30 may


A medida que la inteligencia artificial (IA) se incorpora en flujos críticos de decisión, como el análisis de datos, automatización de procesos o gestión del talento, emergen también complejidades éticas relevantes por analizar, como por ejemplo aquellos proyectos de IA donde no solo deben ser técnicamente eficientes, sino también transparentes, responsables y alineados con principios de equidad. Esta temática resulta aún más crítica en áreas sensibles como el reclutamiento, donde el uso de algoritmos puede afectar directamente la vida profesional de las personas.


Un caso que ilustra los riesgos éticos asociados al uso de IA en el reclutamiento es el de Amazon, y que entre 2014 y 2017 desarrolló un sistema automatizado de selección de personal basado en aprendizaje automático. El objetivo era agilizar la revisión de CV (Hoja de vida) y recomendar a los candidatos más adecuados para roles técnicos. Sin embargo, el algoritmo fue entrenado utilizando datos históricos de contrataciones de años anteriores, y éstos registraban una preferencia histórica hacia los hombres en el sector tecnológico. Como consecuencia, el sistema comenzó a penalizar automáticamente a candidatas mujeres, disminuyendo sus puntuaciones si detectaba términos como "women's" en su historial.



Este caso puso en evidencia cómo un modelo entrenado con datos sesgados puede reproducir y amplificar discriminaciones estructurales preexistentes, comprometiendo no solo la equidad en los procesos de selección, sino también la reputación corporativa y el cumplimiento regulatorio. El dilema ético reside en la neutralidad de la tecnología, que oculta sesgos humanos tras una “capa de pintura algorítmica”.


Se confirmó que Amazon canceló el proyecto antes de su implementación masiva, pero el incidente reveló la necesidad de mecanismos de auditoría algorítmica y participación multidisciplinaria en el diseño de sistemas de IA, especialmente cuando estos influyen en decisiones con impacto humano relevante.


Desde una mirada empresarial, este tipo de situaciones exige que los Managers asuman una actitud proactiva en la gobernanza ética de la IA. No basta con delegar el desarrollo de algoritmos a equipos técnicos, sino más bien se requiere la intervención activa de comités éticos, especialistas en derecho digital, recursos humanos y representantes de diversidad e inclusión. La ética de la IA debe concebirse como una extensión de la RSC (Responsabilidad Social Corporativa), así contribuimos a que la adopción de nuevas tecnologías pueda alinearse con los valores institucionales y con las demandas sociales.


La experiencia de Amazon ha sido ampliamente citada en estudios académicos y por organismos como el Instituto de Investigación en Inteligencia Artificial de la Universidad de Stanford, así como en informes de la Organización para la Cooperación y el Desarrollo Económicos (OCDE). Estos análisis coinciden en la urgencia de establecer marcos normativos más robustos que orienten el uso responsable de sistemas de IA. En regiones como la Unión Europea, la propuesta de Ley de IA (AI Act) incorpora explícitamente regulaciones para los sistemas de alto riesgo, entre ellos los destinados a la evaluación de personas en procesos de selección laboral.


Además de los marcos regulatorios, las empresas deben invertir en procesos de entrenamiento continuo para sus colaboradores(as), tanto técnicos como ejecutivos, para comprender los fundamentos, limitaciones y riesgos de los sistemas de IA y su impacto en la toma de decisiones éticas. En paralelo, comienza a tomar cada vez más importancia impulsar prácticas de documentación rigurosa, explicabilidad de los modelos y evaluación permanente del desempeño ético y técnico del sistema.


Es importante plantearnos la reflexión de que la responsabilidad de asegurar que los algoritmos actúen con justicia, transparencia y respeto por la dignidad humana, no es ámbito único de la Gerencia de Ingeniería ni de los equipos técnicos, sino que es una responsabilidad compartida en toda la estructura organizacional, gestándose inclusive desde la alta dirección hacia abajo; por otro lado y aún más crítico, cómo podemos aportar desde nuestro rol y puesto de trabajo a este cambio de mindset cuando existen casos no éticos promovidos por las mismas gerencias en la empresa en la cual estás inserto(a).

 

Fuentes verídicas sobre el caso:

  1. Reuters – 2018 - URL

  2. The Verge – 2018 - URL

  3. Business Insider – 2018 - URL


Los invitamos a nuestros canales digitales donde podrán acceder a contenido de valor para surfear la incertidumbre de la Transformación Organizacional Lean & Agile.


Ir a YouTube Taurus | Ir a Blog Taurus | Ir a Web Taurus |


Autor: Alexis Hidalgo G. | Founder & Executive Director at Taurus Galaxy®.






bottom of page