El procedimiento más habitual para el «entrenamiento» de los algoritmos de Machine Learning / AI pasa por mostrarle los datos para que vaya encontrando las relaciones ocultas que los ligan y con ello adquirir el conocimiento.
Desgraciadamente este procedimiento suele fallar al cabo del tiempo ya que el sistema, por ejemplo un proceso industrial, no es estático sino que va cambiando sea por envejecimiento de equipos, cambios en las materias primas o simplemente por cambios en las especificaciones de los productos a fabricar, por ejemplo. Si los cambios son suaves se observará una degradación ligera de las predicciones del modelo y si son grandes puede que el mismo tenga que dejarse de utilizar… por lo que habría que reentrenar el modelo.
Aunque desde hace mucho tiempo se ha intentado la introducción de modelos con «autoajuste» no han tenido éxito ya que es muy difícil evitar perder el conocimiento de los datos antiguos y a la vez que el modelo se ajuste a los nuevos siempre que sean fiables, claro.
Ahora, el MIT está trabajando en el desarrollo de redes (neuronales) líquidas que aprenden sobre la marcha al realizar su trabajo y no solamente durante la fase de entrenamiento.
Estos algoritmos flexibles cambian sus ecuaciones subyacentes para adaptarse continuamente a nuevas entradas de datos. El procesamiento de video, los datos financieros y las aplicaciones para diagnóstico médico son ejemplos de flujos de datos que resultan fundamentales para la sociedad.
El comportamiento de la mayoría de las redes neurales es fijo después de la fase de entrenamiento, lo que significa que tienen una pobre capacidad de adaptación a cambios importantes en el flujo de datos entrantes.
En cambio, la fluidez de esta nueva red «líquida» basada directamente en el gusano microscópico C. elegans que tiene tan solo 302 neuronas, la hace más resistente a los datos inesperados o “ruidosos”, como por ejemplo, si una fuerte lluvia oscurece la visión de una cámara en un coche autónomo.
888