El verdadero diferencial en proyectos de inteligencia artificial radica principalmente en cómo se preparan los datos y en qué momento intervienen las personas. Por lo tanto, el machine learning es tan solo una de las partes que incidirá
Machine Learning (ML) promete transformar radicalmente el mundo empresarial. Pero detrás del brillo de los algoritmos y las predicciones automáticas, hay un trabajo silencioso que puede marcar la diferencia entre el éxito y el fracaso. Hablamos de la supervisión humana. Esa es la conclusión a la que llegan los especialistas más experimentados en inteligencia artificial. El secreto del ML está en cómo se la acompaña.
Mientras que el 78% de las empresas ya inició su camino en IA, tan solo el 1% de ellos puede considerarse un usuario avanzado, según el informe “The State of AI in 2025” de McKinsey. La diferencia no radica en usar algoritmos más complejos, sino que se basa en contar con una estrategia bien planificada que incluya una correcta preparación para los datos y humanos capaces de intervenir en momentos donde todo parece salirse de control.
Machine learning: datos limpios, modelos eficientes
El primer gran obstáculo que enfrentan las empresas al implementar soluciones de ML es la calidad de los datos. En este contexto, Tomás Porchetto, programador y especialista en inteligencia artificial, explicó en diálogo con POST: “Hay que etiquetar de forma correcta los inputs que se van a usar para entrenar el modelo, y esos inputs suelen venir en formatos muy distintos: bases de datos, APIs, logs, hojas de cálculo”.
El objetivo es de esto homogeneizar la información sin perder detalles relevantes. Un error en este paso puede arruinar el modelo incluso antes de que empiece a aprender. Existen servicios específicos desarrollados por compañías para resolver este problema, pero también soluciones de código abierto que están al alcance de cualquier empresa.
En el sector logístico, por ejemplo, es común que una misma ciudad aparezca con múltiples nombres: “Bs. As.”, “Capital Federal”, “CABA”, “Buenos Aires”. Este caos se repite en otros ámbitos y obliga a los científicos de datos a dedicar el 80% de su tiempo a tareas de limpieza y estandarización, según estimaciones citadas por Clemencia Nicholson, CEO de Arbusta, una startup especializada en gestión de datos para inteligencia artificial.
Machine larning: ¿Automatización total? Solo con humanos cerca
Un modelo de machine learning no se entrena una vez y funciona para siempre. Los datos cambian, las realidades evolucionan, y lo que ayer era una buena predicción hoy puede ser un error grave. Este fenómeno se conoce como data drift (cambio en los datos que recibe un modelo), y es uno de los desafíos más subestimados en el uso de inteligencia artificial.
“Los datos de producción evolucionan. Aparecen nuevas categorías o cambian los comportamientos de los usuarios. Si no se tienen en cuenta esos cambios, el proceso de limpieza se vuelve interminable”, advirtió Porchetto. Para evitarlo, es fundamental adoptar mecanismos de detección desde el inicio.
Además, en los procesos empresariales importantes, el programador recomendó mantener siempre una intervención humana: “Cuanto más data driven (enfoque que basa sus decisiones en el análisis de datos reales) sea la decisión, más espacio se le puede dar a la automatización. Pero en decisiones de marketing o recursos humanos, el juicio humano sigue siendo insustituible”.
En esta misma línea, el divulgador tecnológico y autor de “El Algoritmo: ¿Quién decide por nosotros?”, Joan Cwaik, le comentó a POST que la supervisión humana “es como el cinturón de seguridad primario del machine learning. Si te lo sacás porque confiás en el auto, puede andar… hasta que no”.
Los algoritmos aprenden patrones, pero no entienden contexto ni consecuencias sociales. “Hace poco una IA de RR.HH. en Estados Unidos filtraba CVs con sesgos de género y edad porque aprendió de datos contaminados. Si no hay humanos revisando, terminás automatizando la discriminación”, detalló el especialista en sociedad y nuevas tecnologías.
El enfoque “Human in the Loop”
Una buena práctica en Machine Learning es delegar tareas repetitivas a los algoritmos y dejar los casos atípicos en manos humanas. Además, cada corrección hecha por una persona debe reintegrarse al sistema para que el modelo aprenda y no cometa el mismo error dos veces. Esta es la base del enfoque Human in the Loop (HITL), que Arbusta aplica en todos sus desarrollos.
Este enfoque también se alinea con una advertencia más amplia planteada por Cwaik: “Reproducimos desigualdades a velocidad algorítmica”. También agregó que “sin supervisión, el ML es como poner en piloto automático un avión que no sabe leer el clima”.
En América Latina los datos suelen ser incompletos o sesgados de arranque y, como consecuencia, el riesgo se triplica. “No es solo discriminación. También hay desafíos de privacidad, autonomía y manipulación. Queremos modelos que anticipen tus compras, ¿ok? ¿Pero que anticipen rupturas o despidos? Ahí ya incómoda”, remató.
Cómo monitorear un modelo de machine learning
Detectar los fallos en un modelo de ML no es una tarea fácil. Porchetto recomendó monitorear las métricas segmentadas por tipo de dato o usuario. Se pueden aplicar pruebas estadísticas como KS-test o PSI para detectar data drift.
Pero no alcanza con números. También hay que observar si los modelos están reproduciendo sesgos. Para eso se utilizan métricas de equidad como el impacto dispar o la paridad demográfica, junto con otras técnicas de explicabilidad como SHAP o LIME, las cuales ayudan a entender qué variables influyen en las decisiones del modelo.
Tecnología con alma: el caso Arbusta
Un caso que refleja esta conexión entre personas y tecnología es el de Arbusta, una startup fundada en 2015 que se especializa en gestión de datos para ML.
Su propuesta es clara, y se basa en tres pilares fundamentales:
- Entrenamiento con datos limpios
- Validación con escenarios diversos
- Pruebas en tiempo real con ajustes iterativos.
“El ML no reemplaza a las personas, las potencia”, resumió Pablo Mlynkiewicz, CTO de la compañía. La clave está en acompañar todo el ciclo de vida. Entrenar, validar, probar y repetir. Y, sobre todo, hacerlo en equipo.
Cwaik coincidió con la postura de Arbusta: “La eficiencia no siempre es el único KPI. Si querés solo eficiencia, llená la empresa de bots y listo… pero después bancate el sindicato de algoritmos”. El punto está en diseñar sistemas para que la automatización acelere las operaciones y así la supervisión humana se pueda enfocar en lo estratégico. “Si el humano entra tarde o no entra, perdiste control… y reputación”, cerró.
Aún no hay comentarios