Fog Computing es un modelo de computación que extiende la computación en la nube (cloud computing) más cerca del borde de la red (edge); es decir, más cerca de los dispositivos que generan y consumen los datos (sensores, cámaras, vehículos, smartphones...) en vez de enviarlos directamente a la nube para su tratamiento.
Scikit-learn es una biblioteca de código abierto diseñada principalmente para el aprendizaje automático (Machine Learning).
Differential Privacy (Privacidad Diferencial) es una técnica avanzada que permite analizar y compartir información estadística de datos sin revelar información personal sensible.
Party Data son los diferentes tipos de datos recopilados por una empresa u organización.
Random Forest (o Bosque Aleatorio) es un algoritmo de aprendizaje automático que se basa en la combinación de conjuntos de árboles de predicción y decisión para llegar a un resultado único.
Kubernetes (en su forma abreviada, K8s) es una plataforma de código abierto que se utiliza para automatizar la implementación, el escalado y la gestión de aplicaciones en contenedores.
Data Fabric es la combinación tecnológica de arquitectura de datos y soluciones de software diseñada para conectar diferentes fuentes de datos, ubicaciones, formatos y aplicaciones, de tal manera que se realice el acceso, la integración y el análisis de todos los datos de manera unificada y en tiempo real en un entorno empresarial.
Edge Computing es un tipo de red de computación o arquitectura de Tecnología de la Información basado en acercar el almacenamiento y el procesamiento de datos a la ubicación donde se generan. Esto supone un auténtico revulsivo para tecnologías como IoT (Internet of Things) o las soluciones cloud.
Tier es un término inglés que traducimos como nivel o capa. En el sector TIC, la clasificación Tier es una prestigiosa escala que mide los diferentes parámetros de los sistemas que integran un centro de datos, como la disponibilidad, el rendimiento, la redundancia o el tiempo de actividad.
Data Mining, también llamado minería de datos, es un conjunto de técnicas y tecnologías que permiten explorar grandes bases de datos. Se basa en un proceso, automático o semiautomático, que analiza grandes cantidades de información con el objetivo de identificar relaciones, conexiones y tendencias entre datos muy dispares.