Passionné par les défis techniques et les innovations en gestion et architecture des données, je me distingue par ma capacité à concevoir, développer et optimiser des pipelines de données en mode batch et temps réel. Fort d'une expertise avancée en intégration de données, j'exploite des outils tels que Talend et Apache NiFi pour assurer la gestion des flux de données et l’ingestion de données massives. Spécialiste en Big Data et Machine Learning, je maîtrise des technologies comme Apache Spark, Hadoop et Kafka pour le traitement de volumes importants de données. Mon expertise couvre également les langages de programmation clés du data engineering, notamment Python, SQL. Mes compétences s'étendent à la modélisation et l'optimisation de bases de données SQL et NoSQL (PostgreSQL, MongoDB, Cassandra), avec un accent sur la performance et la scalabilité. J’ai une approche analytique et créative, me permettant de concevoir des modèles avancés d’analyse et de traitement des données brutes et hétérogènes. Par ailleurs, je maîtrise le framework Django, me permettant de concevoir des applications web data-driven, des APIs REST et des micro-services, facilitant ainsi la mise en production de solutions data performantes.
J'ai eu le plaisir de collaborer avec M. Tijani dans le cadre d'un tutorat en alternance, où il m'a accompagné et a grandement contribué à ma montée en compétences grâce à son expertise en data engineering et sa pédagogie. Son professionnalisme, sa disponibilité et sa capacité à rendre les concepts complexes accessibles sont des atouts précieux pour toute organisation. Je le recommande vivement pour toute mission en data engineering.