Desde las más tempranas muestras de inteligencia de la humanidad, predecir ha sido una de sus preocupaciones principales. Del latìn praedicĕre, “anunciar por revelación, conocimiento fundado, intuición o conjetura algo que ha de suceder”. El objetivo de la analítica predictiva no es sino la toma de ventaja frente al medio u otros a favor propio. Desde predecir el tiempo o el resultado de un partido, hasta recoger una cosecha en el momento óptimo, la mejor ruta de navegación o ganar una apuesta. Con este objeto se ha recurrido, tanto al augur de los dioses, como a la ciencia.
Afortunadamente, la ciencia ha permitido mejores resultados que la divina providencia. La ciencia ha brindado información primordial al respecto, desde la matemática, mediante la estadística; rama que estudia la variabilidad, así como el proceso aleatorio que la genera, siguiendo las leyes de la probabilidad. O desde la investigación operativa, disciplina que se ocupa de la aplicación de métodos analíticos avanzados para ayudar a tomar mejores decisiones. La ciencia ha tratado de mejorar dicha capacidad de predicción mediante muy diversos análisis numéricos.
El análisis predictivo es el método estadístico el cual, a través del tratamiento de datos de hechos que ya sucedieron o están sucediendo, puede obtener conclusiones de cómo se va a desarrollar determinada actividad o qué tanto cambiará un comportamiento en el futuro. Para obtener estas conclusiones, es necesario utilizar algoritmos o modelos que permitan mejorar las probabilidades de éxito (acierto) en nuestras decisiones. Existen dos formas de abordar la resolución de problemas complejos, dentro de los cuales estarían los modelos predictivos:
- Algoritmos matemáticos, que se automatizan mediante técnicas de programación tradicional (denominados autómatas finitos deterministas).
- Motores de inteligencia artificial, capaces de proporcionar inferencias con altas capacidades de predicción.
Algoritmos en analítica
Es muy importante entender que cuando se tiene un algoritmo o modelo matemático, por complejo que pueda resultar para resolver un problema, no hay que dudar en aplicarlo. Dicho problema suele ser bien conocido y los márgenes de error también. Un buen ejemplo es la predicción meteorológica, que cuenta con modelos muy complejos, pero de una tasa muy elevada de éxito en la predicción.
Cuanto más se acerca a una fecha determinada, más probabilidades de acertar, con una muy elevada precisión; aunque es cierto que cada vez los algoritmos de predicción meteorológica son capaces de predecir hasta con diez días de anticipación con un error mínimo más que razonable. Existen áreas de predicción sobre el comportamiento, bien por carecer de modelos. Por su complejidad, desconocimiento parcial o nivel de incertidumbre, como es el comportamiento humano. Mismos que requieren modelos de inteligencia artificial, para manejar esa incertidumbre y probabilidad. E
Es muy importante reseñar que no todo algoritmo es inteligencia artificial. Aunque puede utilizarse la inteligencia artificial para mejorar el resultado de un algoritmo, por ejemplo, mediante mecanismos heurísticos. Un ejemplo claro de ello es el algoritmo de inteligencia colectiva de KNOWDLE, que durante sus primeras etapas era un mero algoritmo, pero con capacidad de aprendizaje (machine learning), sin ser inteligencia artificial, y poco a poco se le han añadido capas de IA.
El análisis numérico o cálculo numérico es la rama de las matemáticas encargada de diseñar algoritmos para simular aproximaciones de solución a problemas en análisis matemático. La inteligencia artificial (IA) es la rama de las ciencias de la computación que trata de crear “inteligencia humana” llevada a cabo por máquinas.
Inteligencia artificial
Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita las funciones “cognitivas” que los humanos asocian con otras mentes humanas, como, por ejemplo: percibir, razonar, aprender y resolver problemas. Como imitador de la “inteligencia humana” conlleva incertidumbre y error no predefinido. Por el contrario, un algoritmo basado en un modelo matemático suele conocer el margen de error derivado del propio modelo. Es decir, es capaz de estimar el margen de error en la predicción a priori.
La inteligencia artificial ha recobrado su relevancia en estos últimos años, aunque no es un invento reciente. En los años 60, más concretamente en 1956, John McCarthy acuñó la expresión inteligencia artificial y la definió como “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”. Hacia 1980, la IA cobró una inusitada relevancia con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos, pero que no alcanzó muchos de sus objetivos, por lo que este campo sufrió una nueva interrupción en los años noventa.
Recuperando su protagonismo de 2010 en adelante, gracias a internet y los buscadores inteligentes para, poco a poco, tomar un elevado protagonismo de la mano del auge de los datos y del big data. En estos años se acuña la expresión “data is the new oil”, pero es preciso tener mucha precaución pues el dato per se, como el petróleo en crudo, tiene un valor bajo o nulo, en comparación con el producto refinado, es decir, el conocimiento, necesario para poder aplicar verdadera inteligencia artificial.
Digitalización de datos
El dato es la materia prima para algoritmos y métodos numéricos, y el exponencial crecimiento del volumen de los mismos, derivado de la digitalización e internet. Cuando se habla de big data, se hace referencia a conjuntos de datos, o combinaciones de conjuntos de datos, cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis, mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales y estadísticas convencionales o paquetes de visualización, dentro del tiempo necesario para que sean útiles. Pero el dato no es la materia prima de la inteligencia artificial.
El dato requiere ser transformado en conocimiento, lo que lleva al mundo de las reglas y de los hechos. Para transformar un dato en información y luego en conocimiento es imprescindible asignarle un contexto, es decir, un conjunto de circunstancias que rodean una situación y sin las cuales no se puede comprender correctamente. Comprender es el término imprescindible para diferenciar un algoritmo de cualquier inteligencia artificial. Un algoritmo no comprende sus datos. Es el ser humano quien comprende el algoritmo (su modelo) y comprende el resultado.
Datos como: rafa, roma, mayo, son tres simples datos que cada cual es capaz de interpretar a su manera. De hecho, el cerebro intenta buscar en su experiencia previa alguna razón para entenderlos y predecir o inferir su significado. La mayoría pensaría en viaje. Pero si se incluye el contexto “tenis”, automáticamente a la mayoría le podría resultar compresible que rafa fuera “Rafa Nadal” y se estuviera haciendo referencia al “abierto de tenis de Roma en mayo”. Es visible y palpable la enorme relevancia del contexto en la compresión.
Análisis de datos empresarial
El análisis de datos se ha estructurado actualmente como una de las técnicas que mayor impacto y repercusión tienen al interior de una empresa. Esto se debe a que la cantidad de datos y estadísticas recolectadas permiten tomar decisiones y diseñar estrategias de manera adecuada por el profesional. El conocimiento y la experiencia aquí juegan un papel muy importante, siendo estas las características principales del profesional en esta área.
TECH Universidad Tecnológica ha diseñado un amplio portafolio educativo enfocado en la excelencia y la alta calidad profesional. Dentro del mismo se encuentra la Facultad de Informática, dedicada enteramente a este campo. Allí destacan programas como el Máster en Industria 4.0 y Transformación Digital y el Máster en Ingeniería de Software y Sistemas de Información. A pesar de ser excelentes opciones para complementar su educación básica, para aquel profesional que se interesa por dominar el campo de la analítica de datos empresarial, no cabe duda que su mejor elección será optar por el Máster en Visual Analytics & Big Data.