Stream processing
Stream processing est un paradigme de programmation, équivalent à dataflow programming et réactive programming[1], qui permet à des applications d'exploiter une forme limitée de parallélisme. Ces applications peuvent utiliser des unités de calcul, tel que les FPUs sur un GPU ou FPGAs sans gestion explicite d'allocation, synchronisation ou communication entre eux.
Applications
Une des applications courantes du stream processing est le traitement analytique des données en temps réel. À l’aide des technologies de messaging comme Apache Kafka et des frameworks de stream processing (comme Apache Flink, Apache Spark ou Kafka Stream par exemple), il est possible de créer des pipelines de traitement de données complexes produisant des résultats en temps réel sur des technologies scalables et résilientes[2].
Références
- (en) « A SHORT INTRO TO STREAM PROCESSING »
- « Architecture data temps réel, par où commencer ? », sur Nexworld, (consulté le ).