La Inteligencia Artificial está llamada a protagonizar el núcleo central de la Cuarta Revolución Industrial (Industria 4.0), junto a IoT, blockchain, robótica, analítica, nanotecnología... La interconexión masiva de sistemas y dispositivos digitales, y la irrupción de nuevas herramientas derivarán en una transformación profunda de los modelos de producción y de negocio.
El gran atractivo de estas tecnologías, sin embargo, puede estar difuminando el hecho de que los datos tienen que ser validados ya sean históricos y/o de referencia. Aunque creamos que nadie piensa, hoy día, que incorporar una enorme cantidad de datos a una plataforma aunque no sean correctos puede ofrecer resultados brillantes, lo cierto es que sí hay quien lo piensa. Pero la realidad se impone, como señala el experto en machine learning Pedro Domingos, en su libro The Master Algorithm: “a algunas personas les preocupa que los ordenadores sean demasiado inteligentes y conquisten el mundo, pero el problema real es que son muy tontos y ya han conquistado el mundo". La inteligencia, y es algo que no conviene perder de vista, depende de nosotros, no de la tecnología por muy innovadora que sea.
Capturar absolutamente todos los datos corporativos y trabajar con ellos sin una estrategia de calidad del dato definida (precisión, integridad, relevancia, oportunidad, etc…) es una temeridad. El axioma GIGO, “garbage in, garbage out” siempre se cumple. La estrategia de datos debe soportar la acumulación, validación y normalización de la información a partir de diferentes sistemas para que, a su vez, estos sostengan la creación, el testeo y la implantación de algoritmos de aprendizaje automático en toda la organización. Esto es lo que permitirá a las empresas aprovechar todas las innovaciones emergentes, al tiempo que verán reducido el riesgo de obsolescencia y eludirán los costes característicos de una integración personalizada.
La gestión de cada día
Una vez superado el obstáculo de validar y normalizar los datos, aparecerá otro: la gestión del día a día. Más del 75% de las empresas, preguntadas por IDC para su informe 3rd Platform Information Management Requirements Survey, afirman que analizar los datos diarios es un obstáculo que impide aprovechar eventuales oportunidades de negocio. Más de la mitad de las 500 empresas encuestadas admitieron, además, que esa gestión diaria limita la eficacia de sus operaciones y el 27% afirmó que afecta negativamente a su productividad y agilidad.
La utilización de procesos ETL (extracción, transformación y carga) pueden retrasar el análisis de los datos operacionales hasta cinco días. En el caso de las aplicaciones basadas en procesos CDC (change data capture) es necesario entre uno y diez minutos para realizar el análisis pero, aun así, sigue siendo un plazo demasiado largo para los casos de uso crítico en tiempo real donde cada milésima de segundo es fundamental.
¿Cuál es, entonces, el tipo de procesamiento que, realmente, gestiona grandes volúmenes de datos críticos en tiempo real? Hemos comprobado que es el procesamiento híbrido transaccional/analítico (HTAP). Una base de datos con HTAP recopila y almacena datos transaccionales a una velocidad sin precedentes y, al mismo tiempo, procesa grandes volúmenes de cargas analíticas de trabajo con datos en tiempo real y datos en tiempo no real. Esta arquitectura elimina los retrasos asociados con pasar datos en tiempo real a un entorno diferente para su procesamiento analítico.