La solución de código abierto Apache Kafka® se desarrolló originalmente en LinkedIn y permite la transmisión escalable de datos en tiempo real combinada con el almacenamiento persistente. En 2014, los desarrolladores de Apache Kafka® fundaron la empresa Confluent a partir de LinkedIn. Desde entonces, Confluent, como pionera de la plataforma de streaming de eventos, ha impulsado la evolución de Apache Kafka® (el 80 % de los commits proceden de la propia empresa), así como la visión de un sistema nervioso central en la empresa, habilitado por una plataforma de streaming completa.
Casos de aplicación de las ramas: ¿Qué tienen en común ING, Lyft, Audi, Bosch o JP Morgan Chase? El éxito económico de estas empresas puede basarse, entre otras cosas, en el hecho de que se pueden obtener conclusiones cruciales rápidamente a partir de grandes cantidades de datos.
Los Servicios de vehículos conectado, por ejemplo, están diseñados para proporcionar datos de vehículos para mantenimiento predictivo o para procesar pedidos y entregar nuevas características de vehículos en tiempo real (por ejemplo, actualización de rendimiento del motor). Estos datos de eventos se transmiten a una amplia variedad de consumidores, como aplicaciones de análisis, contabilidad y otras plataformas. Dado que la generación de los datos se puede rastrear en tiempo real y ajustarse en consecuencia, la implementación en Apache Kafka® no solo reduce los costos de mantenimiento, sino que también optimiza los productos finales. En finanzas, cada vez es más difícil para un proveedor obtener una visión completa de las actividades del cliente debido a la variedad de accesos de clientes, dispositivos y otras oportunidades de interacción. Una plataforma de transmisión apoya a los proveedores de servicios financieros en particular con los siguientes desafíos: Detección de fraude, Ahorro de costos, Cliente 360, Marketing / Ventas La transmisión de eventos también ofrece muchos beneficios valiosos para la industria minorista en términos de optimización de la transmisión, procesamiento y evaluación de flujos de datos en tiempo real.