Depuis des années, la conteneurisation a été décrite comme incontournable dans le monde DevOps, en plus de ses innombrables avantages en termes de développement et de test. Je vais vous... Lire la suite →
Apache Spark est un framework de data processing qui permet de traiter de gros volumes de données. Spark se charge de distribuer le calcul sur plusieurs machines en utilisant principalement... Lire la suite →
Il vous arrive très certainement de créer des jobs complexes, avec une multitude de composants. Cependant, à partir d’un certain nombre de composants, un job peut devenir illisible. (suite…)
Comment faire passer le temps de traitement d'un job Talend de 8 heures à 45 minutes lorsque vous travaillez avec des fichiers XML ? Notre expert Dany Kassa s'est penché... Lire la suite →