El trabajo diario del aprendizaje autom¨¢tico a menudo se reduce a una serie de experimentos para seleccionar un enfoque de modelamiento y de la topolog¨ªa de la red, datos para el entrenamiento y la optimizaci¨®n o ajuste de dicho modelo. Los cient¨ªficos de datos deben usar la experiencia y la intuici¨®n para hipotetizar cambios, y luego medir el impacto de los mismos en el rendimiento general del modelo. A medida que esta pr¨¢ctica ha madurado, nuestros equipos han visto la creciente necesidad de adoptar herramientas para el seguimiento de experimentos de aprendizaje autom¨¢tico. Estas herramientas ayudan a los investigadores a mantener una continuidad de los experimentos y trabajarlos met¨®dicamente. A pesar de que no ha surgido una clara herramienta ganadora, existen alternativas como y plataformas como o que han introducido rigor y repetibilidad en todo el flujo de trabajo de aprendizaje autom¨¢tico.
El trabajo cotidiano de machine learning implica una serie de experimentos al seleccionar el enfoque del modelado, la topolog¨ªa de red, datos de entrenamiento y varias optimizaciones y ajustes al modelo. Ya que varios de estos modelos a¨²n son dif¨ªciles de interpretar o explicar, los cient¨ªficos de datos deben usar su experiencia e intuici¨®n para hipotetizar cambios y medir el impacto de los mismos en el rendimiento general del modelo. Dado que estos modelos se han vuelto cada vez m¨¢s comunes en sistemas de negocio, varias herramientas de seguimiento para experimentaci¨®n con machine learning han surgido para ayudar a los investigadores a llevar registro de estos experimentos y su trabajo met¨®dicamente. Aunque no hay una ganadora, herramientas como o y plataformas como o han introducido rigor y reproductibilidad en todo el flujo de trabajo de machine learning. Tambi¨¦n facilitan la colaboraci¨®n y ayudan a convertir la ciencia de datos de un esfuerzo solitario a un esfuerzo de equipo.