“Sisense In-Chip es una tecnología patentada por Sisense que ejecuta el proceso analítico completo, desde la compilación de consultas hasta los algoritmos de análisis, dentro de la CPU, aprovechando el rendimiento máximo de los procesadores en lugar de depender exclusivamente de la memoria RAM o del disco. Esta innovación permite a Sisense procesar grandes volúmenes de datos rápidamente y con mayor eficiencia, lo que se traduce en tiempos de análisis más rápidos y acceso a información en tiempo real para los usuarios”.
La tecnología de bases de datos a vista de pájaro
La tecnología de bases de datos ha experimentado un rápido desarrollo en las últimas dos décadas. El procesamiento analítico en línea (OLAP), que cobró importancia en la década de los 90, perdió gradualmente terreno a favor de las bases de datos en memoria a principios del siglo XXI.
Sin embargo, los requisitos de la inteligencia empresarial moderna han planteado un reto al que las bases de datos en memoria tendrán muchas dificultades para responder. Esto, a su vez, ha dado lugar a una nueva generación de bases de datos y consultas: el análisis In-Chip. Esta tecnología utiliza la CPU, la RAM y el almacenamiento en DISCO de forma innovadora con el fin de hacer frente a la complejidad y al volumen de los conjuntos de datos que el software de BI actual se ve obligado a manejar. Su principal objetivo es proporcionar información eficaz a los usuarios finales en un plazo razonable.
Pero para entender cómo la tecnología In-Chip resuelve este dilema aprovechando la tecnología en memoria y basada en disco, vamos a revisar brevemente la evolución de las soluciones de BI.
BI de Primera Generación: RDBMS/OLAP
La primera generación de tecnología de BI se basó en bases de datos relacionales (RDBMS), como SQL Server, Oracle, MySQL y muchas otras. Estas bases de datos se diseñaron originalmente para el procesamiento transaccional, es decir, para insertar, actualizar y eliminar registros almacenados en filas. Desarrollado en la década de 1980, las RDBMS fueron diseñadas para trabajar en el hardware que existía en ese momento, que tenía muy poca RAM, CPUs relativamente débiles y espacio en disco limitado. RDBMS maneja el procesamiento de registro (en fila) extremadamente bien, incluso hoy.
Por una parte, el uso de las RDBMS para el BI de alto rendimiento en grandes conjuntos de datos, sin embargo, ha demostrado ser muy desafiante. El diseño de las tablas significa que ocupan más RAM, lo que a su vez significa que requiere a menudo lecturas lentas de disco y hace más difícil utilizar eficientemente la RAM disponible y la CPU. Por otra, el lenguaje de consulta estándar (SQL) utilizado para extraer transacciones de bases de datos relacionadas está diseñado para buscar de forma eficiente filas. Sin embargo, es raro en BI que una consulta requiera escanear o recuperar una fila entera de datos. De hecho, es casi imposible formular una consulta de BI eficiente utilizando la sintaxis de SQL.
Ilustrando el Problema
Por ejemplo, la tecnología OLAP proporcionó una base excelente para la inteligencia empresarial hace 20 años, pero adolece de varias limitaciones que la hacen menos adecuada para la mayoría de los proyectos de BI modernos. Permite a los usuarios recibir respuestas rápidas a consultas específicas predefinidas, pero consume muchos recursos y resulta problemática cuando se trata de conjuntos de datos más grandes y consultas ad hoc. Los cubos OLAP tienen sus inconvenientes, siendo los principales:
Almacenamiento y gestión de datos que consumen muchos recursos
Cada consulta adicional requiere añadir una nueva dimensión al cubo, lo que significa duplicar todo el cubo en términos de almacenamiento de datos.
Tiempos de producción de cada nueva compilación al añadir nuevos datos
Otro de los elementos a tener en cuenta es que la agregación de datos requiere que la CPU procese cada celda de la base de datos.
Necesidad de predefinir las consultas
En las nuevas consultas, los datos no se calculan previamente y es necesario añadir dimensiones adicionales, lo que supone un proceso largo.
Así, mientras que las bases de datos relacionales son la columna vertebral de aplicaciones operativas como CRM, ERP y sitios web, donde las transacciones son frecuentes y simultáneamente insertadas, son una mala elección para el apoyo de aplicaciones analíticas que implican la recuperación simultánea de filas parciales junto con pesados cálculos.
BI de Segunda de Generación: In-Memory
Las bases de datos en memoria (In-Memory) se aproximan al problema de consulta cargando todo el conjunto de datos en la memoria RAM. Al hacerlo, eliminan la necesidad de acceder al disco para ejecutar consultas, obteniendo así una ventaja de rendimiento inmediata y sustancial, ya que el escaneo de datos en RAM es mucho más rápido que leerlo desde el disco. Algunas de estas bases de datos introducen optimizaciones adicionales que mejoran aún más el rendimiento. Por ejemplo, la mayoría emplea técnicas de compresión para representar aún más datos en la misma cantidad de RAM.
Aunque es altamente beneficioso en teoría, almacenar todo el conjunto de datos en RAM tiene serias implicaciones para las aplicaciones de BI: la cantidad de datos que se pueden consultar está limitada por la cantidad de RAM disponible. El espacio de memoria limitado reduce la calidad y la eficacia de una aplicación de BI porque limita la cantidad de datos históricos que se pueden incluir y el número de campos que se pueden consultar. Aunque ciertamente es posible seguir agregando más y más RAM, los costos de hardware aumentarán exponencialmente (y aquí hay una fuente relativamente importante en términos de costes ocultos en muchas plataformas de BI actuales).
También es importante entender que la cantidad de RAM requerida para una aplicación de BI se ve afectada no sólo por el tamaño del conjunto de datos, sino también por el número de personas que lo consultan simultáneamente.
Incluso sin las consideraciones de costo, hay implicaciones críticas para tener todo el conjunto de datos almacenado en la memoria. Volver a cargar el conjunto de datos en la RAM cada vez que el equipo se reinicia requiere un tiempo significativo. Y con grandes volúmenes de datos, copiar datos de la RAM a la CPU puede ser más lento que leer datos parciales del disco. Si este problema no se soluciona mediante una utilización eficiente de los recursos, la memoria se vuelve tan lenta para conjuntos de datos grandes como el disco para los más pequeños.
Ilustrando el Problema
Como hemos indicado anteriormente, la tecnología en memoria, es decir, cargar toda la base de datos en la RAM y desde allí transferirla a la CPU para realizar cálculos, se ha convertido en una solución crítica para la inteligencia empresarial, ya que ofrece a los usuarios la posibilidad de obtener respuestas rápidas a sus consultas, sin necesidad de largas compilaciones y cálculos previos; pero el tamaño y la complejidad de los datos modernos están obligando a las bases de datos en memoria a enfrentarse a sus limitaciones.
Escalabilidad
Cuando los conjuntos de datos son sencillos y pequeños, la tecnología en memoria permite un desarrollo rápido en comparación con otras soluciones. El reto al que sigue enfrentándose es que la RAM, cuando se utiliza para almacenar y analizar datos empresariales sin procesar, tiende a agotarse rápidamente y de forma inesperada.
La RAM es costosa
El hecho es que los conjuntos de datos son cada vez más grandes, ya que las empresas generan y utilizan más información que nunca. Este crecimiento exponencial del tamaño de los datos no se ha visto reflejado en una reducción similar de los precios de la RAM: aunque es más barata que hace quince o veinte años, sigue siendo un almacenamiento relativamente caro que no se puede ampliar indefinidamente sin incurrir en costes significativos.
Por lo tanto, en este momento parece que la tecnología en memoria podría haber alcanzado su techo de cristal y ya no puede prometer un rendimiento razonable, teniendo en cuenta las cantidades y la complejidad de los datos que actualmente recopilan, agregan y analizan las empresas modernas.
Tecnología In-Chip
Inventada en 2010, la tecnología In-Chip se basa en el concepto de optimizar la tecnología que ya existe en la computadora básica de hoy y en particular en la CPU. In-Chip se enfoca en la utilización óptima del hardware disponible. Las ideas que trajo la tecnología In-Chip son:
- los umbrales de bajo rendimiento de las tecnologías tradicionales pueden atribuirse casi por completo a software anticuado, no a las limitaciones de hardware y
- siempre habrá más datos en bruto que caben en RAM, independientemente de lo bien que esté comprimido.
In-Chip se centra principalmente en la utilización de la CPU, la utilización del almacenamiento y la gestión de la simultaneidad:
Utilización de la CPU
In-Chip no se centra en el sistema operativo para optimizar la comunicación con el CPU, sino que usa su propio código para utilizar de forma óptima la RAM y la CPU para evitar fallos de caché y reducir significativamente el número de veces que se copia la misma pieza de datos entre el RAM y la CPU. Esto introduce un impulso tal como viene (out-of-the-box) en orden de magnitud a rendimiento.
In-Chip considera las especificaciones de la CPU y aplica su código único para organizar los datos de la consulta y comunicarlos a la CPU de tal manera que si la CPU necesitara esa pieza de datos nuevamente, existirá en su caché. De esta manera, las operaciones de descompresión leen y escriben en caché, y por lo tanto son extremadamente rápidas.
In-Chip también se centra en sacar más provecho de las CPU multicore. Cuando se procesan consultas o se realizan cálculos analíticos, se aplica algebra vectorial a los datos, lo que permite la explotación completa de las instrucciones SIMD x86 (In-Chip Single Instruction Multiple Data), también llamadas instrucciones vectoriales. Estas instrucciones de la CPU permiten que las matrices cortas (es decir, las columnas de datos) actúen sobre una sola instrucción. Debido a esto, los núcleos de la CPU procesan los datos mucho más rápidamente porque procesan muchos valores de datos en paralelo.
Utilización del almacenamiento
Al igual que todas las bases de datos, In-Chip utiliza el disco para el almacenamiento persistente. Sin embargo, a diferencia de las bases de datos en memoria que evitan lecturas de disco al cargar todo el conjunto de datos en la memoria RAM, In-Chip lo logra cargando solamente las partes de los datos que son requeridas por una consulta en tiempo real. Esas partes de los datos se liberan o se mantienen en RAM basándose en las estadísticas de uso de todos los usuarios que ejecutan consultas.
Esta capacidad comienza con el uso de una base de datos columnar, que en sí no es un concepto nuevo y ya ha sido ampliamente aceptada como ideal para la analítica. Una base de datos columnar almacena información en columnas en lugar de filas de datos, y esta capacidad fundamental permite a In-Chip escanear un campo en el disco sin escanear toda la tabla a la que pertenece.
Ser capaz de cargar rápidamente solo partes de los datos en la RAM y mantener las columnas comprimidas en la memoria sirve para proporcionar un rendimiento en tiempo real en datos que se extienden más allá del tamaño de la RAM física.
Manejo simultáneo
In-Chip no utiliza un motor de consulta basado en SQL sino un motor de consulta que habla Álgebra Columnar. Una consulta se desglosa en miles de instrucciones de Álgebra Columnar, que el motor de consulta In-Chip puede reutilizar sin volver a calcular a través de diferentes consultas con planes de ejecución similares. Esto permite que la ejecución de una consulta aumente el rendimiento de otra completamente diferente, a diferencia del almacenamiento en caché de resultados estándar, que guarda solo los resultados de consultas completas que sólo pueden reutilizarse si se han ejecutado otras idénticas.
Esta capacidad significa que un usuario concurrente adicional agrega muy poca sobrecarga a la RAM y al CPU, haciéndolos disponibles a más usuarios concurrentes sin cargas notables en el rendimiento.
Al ofrecer velocidades de ejecución que pueden ser entre 10 y 100 veces más rápidas que las soluciones basadas en memoria, la tecnología In-Chip tiene el potencial de proporcionar la escala y el rendimiento requeridos para habilitar el tipo de entorno de autoservicio de datos con los que la mayoría de las empresas hoy solo pueden anhelar: la capacidad de obtener, rápida y fácilmente, más información para más personas que hacen una amplia gama de preguntas, en cualquier nivel de detalle.
Con la tecnología In-Chip, aunque los conjuntos de datos se amplíen a cientos de terabytes y eventualmente hasta petabytes, será posible producir informes que retrocedan en el tiempo, que ofrecen un nivel más detallado y que consolidan información de múltiples fuentes de datos y entidades empresariales.
ElastiCubes & In-Chip Analytics
Como hemos indicado anteriormente, la tecnología In-Chip es el último avance en tecnología de bases de datos. Combina la flexibilidad de las consultas basadas en memoria con la velocidad y la solidez de los cubos OLAP, sin los costes de hardware y la compleja implementación de las soluciones tradicionales. Aunque se ha desarrollado y lanzado recientemente, In-Chip está ganando popularidad rápidamente debido a su mayor rendimiento y capacidad para manejar conjuntos de datos complejos y de gran tamaño.
ElastiCube es un modelo único de base de datos desarrollado por Sisense, resultado de un análisis exhaustivo de las fortalezas y debilidades de las tecnologías OLAP y en memoria. Su nombre proviene de la capacidad única de la base de datos para superar las duras limitaciones impuestas por las tecnologías más antiguas. In-Chip es la última generación de tecnología en memoria para el análisis empresarial y se distingue por su rapidez y escalabilidad.
Utiliza una base de datos columnar basada en disco para el almacenamiento, lo que proporciona una lectura rápida del disco, y es capaz de cargar datos del disco a la RAM (y viceversa) cuando es necesario. Las consultas se procesan íntegramente en memoria, sin necesidad de leer el disco.
Lo más importante es que solo hay un subconjunto de los datos almacenados físicamente en la RAM en un momento dado, lo que deja más espacio para que se realicen otras operaciones en paralelo; en otras palabras, las limitaciones de la RAM son menos problemáticas que con las tecnologías en memoria anteriores, ya que no es necesario mantener todos los datos en la RAM de forma permanente.
Esto se consigue mediante una compresión avanzada, así como mediante la identificación de las partes del conjunto de datos que no se utilizan de forma habitual y que pueden dejarse «en reposo», lo que suele suponer alrededor del 80 % de los datos que recopilan las empresas. Se lleva a cabo una optimización adicional mediante el empleo de una forma única de gestionar las uniones. En lugar de unir tablas, In-Chip utiliza álgebra columnar para fusionar campos. De este modo, la operación de unión se puede procesar íntegramente en la caché de la CPU.
Todos estos factores combinados producen índices de rendimiento sin precedentes en hardware básico, incluso cuando se trata de conjuntos de datos enormes y complejos que antes habrían requerido actualizaciones de hardware masivas para poder siquiera plantearse su gestión.
¿El futuro de las bases de datos?
Como hemos visto, tanto la tecnología OLAP como la tecnología en memoria adolecen de problemas de escalabilidad, y existen dudas significativas sobre su capacidad para proporcionar una solución razonable a los requisitos de la inteligencia empresarial del siglo XXI, en términos de tamaño de los datos, complejidad y coste de implementación. Esto también subraya la creciente importancia de un modelado de datos eficaz, que desempeña un papel fundamental en la estructuración de datos complejos de forma que se favorezca el rendimiento, la escalabilidad y el análisis preciso.
Sea como sea, las arquitecturas In-Memory puras irán quedando en un segundo plano en favor de los motores híbridos inteligentes (memoria + disco + aceleradores) como In-Chip. El BI será embebido, predictivo y conversacional tal y como Sisense apunta en su desarrollo estratégico.
La tecnología In-Chip de Sisense transforma procesos complejos en insights instantáneos. Al aprovechar al máximo la memoria caché del CPU, Sisense ofrece un rendimiento hasta 100 veces superior al de las soluciones tradicionales en memoria (In Memory).
Máximo rendimiento y velocidad sin igual
Gracias a su motor In-Chip, Sisense procesa consultas analíticas directamente en la memoria caché del procesador. Esto elimina la necesidad de transferir datos entre la memoria y el disco, logrando tiempos de respuesta ultrarrápidos incluso con volúmenes de datos masivos.
Escalabilidad sin límites
A diferencia de las soluciones tradicionales que dependen de la memoria RAM, Sisense utiliza almacenamiento en disco con formato columnar y compresión avanzada. Esto permite manejar conjuntos de datos de varios terabytes sin comprometer el rendimiento.
Análisis en tiempo real
La capacidad de procesar datos directamente en el chip permite realizar análisis en tiempo real, lo que es esencial para la toma de decisiones rápida y basada en datos.
Simplicidad en la preparación de datos
El motor In-Chip de Sisense facilita la combinación y limpieza de datos de múltiples fuentes sin necesidad de procesos ETL complejos, lo que reduce significativamente el tiempo dedicado a la preparación de datos.
Reducción de costos en infraestructura
Al optimizar el uso de la memoria caché de la CPU, Sisense reduce la necesidad de adquirir hardware costoso, lo que puede significar un ahorro significativo en infraestructura y un TCO más ajustado.
Con In-Chip, Sisense está bien posicionado para el futuro, sino que además proporciona una total integración con los Cloud Data Warehouses líderes del mercado (Snowflake, Databricks, Redshift), al mismo tiempo que aprovechará la innovación de los entornos cloud que dispondrán de nuevos chips (GPU/TPU).
La tecnología In-Chip de Sisense no solo mejora el rendimiento analítico, sino que también democratiza el acceso a insights valiosos, permitiendo que más personas dentro de la organización tomen decisiones informadas sin depender exclusivamente del departamento de TI. Es una herramienta poderosa para empresas que buscan mantenerse competitivas en un entorno empresarial cada vez más orientado a los datos.
Tu plataforma de análisis será muy relevante a la hora de ayudarte a acelerar y procesar datos con confianza, al mismo tiempo que garantizas el máximo rendimiento.
¡Hablemos!
¿Quieres saber cómo tu organización puede mejorar con Sisense sus estrategias de análisis, a través de la obtención de una imagen precisa de las operaciones de la empresa, en tiempo real, con alto rendimiento de procesamiento analítico para ayudar a los usuarios no expertos a realizar predicciones fiables y generar perspectivas procesables a un nivel más profundo?
Hablemos, te mostraremos cómo es posible hacerlo realidad viendo Sisense en acción.
Parapentex Studios, September 2025