Escrito por Cristina García Revaliente

Experta en eLearning & SM. Formadora on-line. Directora de formación y contenidos de AEFOL Ha sido Directora Técnica de Programa del Congreso Internacional EXPOELEARNING en sus 30 ediciones (España y Latinoamérica). Licenciada en Pedagogía, Máster en e-learning.

29 enero, 2025

Curso de Inteligencia Artificial. 100% Práctico. Inicio 2 de Junio 2025.

Los conflictos de la IA en decisiones empresariales

Compartimos el post sobre el límite de la ética en la IA, en el que según el autor, a medida que los modelos de inteligencia artificial (IA) avanzan, es inevitable que les otorguemos más control. Sin embargo, muchos de estos modelos se desarrollan como «cajas negras», sin considerar aspectos cruciales como la interpretabilidad, la ética y la seguridad. Esto puede generar conflictos importantes que las empresas deben resolver para mantener la confianza en el uso de la IA.

¿Qué es la IA responsable?

La IA responsable se basa en desarrollar modelos que sean robustos, explicables, éticos y auditables. Estos estándares no solo definen los requisitos de supervisión humana necesarios, sino que también establecen controles claros para garantizar su cumplimiento. No debería existir ningún modelo de IA que tome decisiones que afecten a los clientes sin la intervención o supervisión de un humano. Este es un principio esencial para mantener la transparencia y el control en el uso de estas tecnologías.

Incorporar humanos en el circuito

Por lo que es importante seguir prácticas de IA responsable, en el que ningún modelo de IA tome decisiones que afecten a los clientes sin la supervisión de un humano, ya que esto es esencial para mantener la transparencia y el control.

  • IA auditable: En la práctica, es común que las decisiones impulsadas por la IA sean revisadas o anuladas por humanos, lo que incluye la gestión de datos y el cumplimiento de estándares regulatorios. Una herramienta útil para garantizar estas prácticas es la blockchain, que permite registrar cada paso del desarrollo del modelo de IA.

Además, las organizaciones deben establecer estándares corporativos que no solo especifiquen los algoritmos adecuados, sino que también aseguren que los humanos puedan entender y supervisar las decisiones de la IA. Esto incluye la necesidad de que la IA sea interpretable y auditable, permitiendo así que las decisiones sean revisadas y reguladas adecuadamente.

Ejemplos de intervención humana

En el día a día, es común que las decisiones impulsadas por la IA sean anuladas o revisadas por humanos. Esto incluye:

  • Aprobar o rechazar el uso de datos.
  • Identificar y eliminar relaciones de datos no éticas (como proxies prohibidos relacionados con raza o género).
  • Gestionar falsos positivos.
  • Garantizar el cumplimiento de estándares regulatorios.

Para garantizar estas prácticas, una de las mejores herramientas es la blockchain, que permite registrar cada paso del desarrollo del modelo de IA. Esto incluye aprobaciones de requisitos, pruebas y análisis de la IA en operación, así como las condiciones bajo las cuales las decisiones de la IA pueden ser anuladas.

¿Qué sucede cuando la IA no es confiable?

Cuando un modelo de IA no es confiable, se puede recurrir a un «modelo de IA humilde», que permite tomar decisiones más seguras en condiciones de incertidumbre. 

  • El papel del Director de Análisis o IA es crucial para implementar estos estándares responsables, equilibrando la innovación con los riesgos asociados. 

En conclusión, el autor sostiene que no estamos listos para una IA sin supervisión, ya que su uso sin control humano puede acarrear riesgos éticos y empresariales significativos. Solo a través de un enfoque responsable podremos asegurar que la IA sea un aliado confiable en nuestras decisiones empresariales.

Entonces, ¿estamos listos para una IA sin supervisión? Te leemos en comentarios.

Por Scott Zoldi, director de analítica de FICO

TwtGenIA

¿Quieres saber más? Descubre y fórmate con nuestro el nuevo curso on-line: «GenIA: usos profesionales de la Inteligencia Artificial Generativa». Inicio  6ª edición el 10 de marzo.
¡Todo lo que necesitas saber para aplicar en tu trabajo la IA y aumentar tu productividad!
Domina las herramientas de IA que transformarán tu carrera: Sé más eficiente, creativo y experto en IA generativa en solo 5 semanas.

  • Contará con un cuadro docente de excepción:

Autor

  • Cristina García Revaliente

    Experta en eLearning & SM. Formadora on-line. Directora de formación y contenidos de AEFOL Ha sido Directora Técnica de Programa del Congreso Internacional EXPOELEARNING en sus 30 ediciones (España y Latinoamérica). Licenciada en Pedagogía, Máster en e-learning.

    Ver todas las entradas

Curso de Inteligencia Artificial. 100% Práctico. Inicio 2 de Junio 2025.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *