L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 58 résultats.
Offre d'emploi
Data Analyst Sénior
Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse
1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Mission freelance
Analytic Engineer / Expert Qlik Finance & HR
VISEO
Publiée le
DBT
Qlik
Snowflake
12 mois
400-620 €
92100, Boulogne-Billancourt, Île-de-France
Qui êtes-vous ? Si pour vous être Analytic Engineer / Expert Qlik Finance & HR , c’est : 🔹 Construire des applications Qlik robustes, performantes et pensées pour des enjeux métier critiques ; 🔹 Manipuler avec précision des analyses financières avancées : YTD, MTD, rolling forecast, variance vs budget/forecast ; 🔹 Garantir la qualité, la fiabilité et la cohérence des KPI dans un environnement où la donnée est sensible et réglementée ; 🔹 Concevoir des modèles analytiques via SQL et dbt , en appliquant de vraies bonnes pratiques d’ingénierie ; 🔹 Travailler en CI/CD, versionner proprement votre code, challenger les approches et améliorer en continu ; 🔹 Jouer un rôle de référent BI , diffuser les standards de développement, optimiser les performances et accompagner les équipes… …Alors vous êtes exactement la personne que nous recherchons ! Si vous avez une expérience significative en BI/Qlik dans un contexte exigeant, que vous aimez autant faire que faire faire , et que vous souhaitez participer à une transformation data ambitieuse, alors vous êtes prêt(e) à rejoindre l’aventure. Quelle sera votre mission ? Vous allez contribuer directement à la construction d’un data mesh Finance & HR à fort impact stratégique, au sein d’une modern data stack pleinement en transformation. Vous allez pouvoir : 🔹 Développer, optimiser et industrialiser des cockpits Qlik utilisés au niveau mondial ; 🔹 Mettre en œuvre une sécurité de haut niveau , garantir la confidentialité et participer aux audits ; 🔹 Contribuer à la création de consumer data products : modélisation SQL, transformations, tests automatisés, documentation ; 🔹 Participer à la modernisation des pratiques BI : versioning GitLab, revues de code, guidelines, performance, réutilisabilité ; 🔹 Apporter votre leadership technique pour faire évoluer les standards, structurer la gouvernance des KPI, améliorer la robustesse des modèles ; 🔹 Collaborer avec une équipe engagée et transverse (Finance, RH, Data Product Owners, ingénieurs Data) pour délivrer des solutions fiables et utiles. En somme : il s'agira de construire ensemble une BI moderne, scalable, sécurisée, pensée pour durer et qui soutient directement les décisions stratégiques de la Finance et des RH.
Mission freelance
POT8993 - Un Software Engineer Fullstack sur Issy-les-Moulineaux.
Almatek
Publiée le
React
6 mois
Issy-les-Moulineaux, Île-de-France
Almatek recherche pour l'un de ses clients Un Software Engineer Fullstack sur Issy-les-Moulineaux. Contexte et objectifs Le client développe et industrialise les nouveaux cas d’usage en Intelligence Artificielle pour l’ensemble du groupe. Le Software Engineer Fullstack interviendra dans un environnement exigeant, combinant IA, ingénierie logicielle avancée, qualité, sécurité et performance. L’objectif de la mission : concevoir et implémenter l’architecture technique des solutions logicielles, accompagner les équipes internes (software engineers, data scientists), renforcer la maturité des pratiques de développement et l’écosystème CI/CD, contribuer à la mise en production et au maintien en conditions opérationnelles et de sécurité. Rôle et responsabilités 1. Conception & Développement Fullstack Concevoir et développer les composants logiciels backend et frontend. Implémenter les solutions dans un cadre agile, en respectant les contraintes d’architecture et de sécurité. Intégrer les composants dans les environnements Kubernetes cibles. 2. Intégration & Production Assurer l’intégration avec la cible de production. Participer à la définition du MCO/MCS (durcissement, sécurité, surveillance). Contribuer à l’optimisation, la qualité et la performance des solutions. 3. Qualité logicielle et bonnes pratiques Mettre en œuvre et promouvoir les pratiques : TDD, BDD, DDD, clean code, pair programming. Contribuer à la qualité logicielle via tests, revues de code, pipelines CI/CD. Participer à l’amélioration continue de la chaîne d’ingénierie. 4. Collaboration & documentation Travailler étroitement avec les ingénieurs, data scientists et architectes. Documenter l’architecture, les spécifications techniques et les décisions d’ingénierie. Contribuer à la communauté de pratique interne.
Mission freelance
POT8951 - Un Data Analyste sur Massy
Almatek
Publiée le
Docker
6 mois
170-470 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, un Data Analyste sur Massy ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. -Discuter avec les équipes opérationnelles et dirigeantes pour identifier leurs besoins et leurs difficultés, raffiner et prioriser les besoins avec l’ensemble de l’équipe -Concevoir, développer, faire évoluer la solution logicielle de détection de fraude avec des traitements vidéo en temps réel, des processus d’apprentissage automatique et de labellisation de données, des services d’administration de la solution et de suivi de sa performance, - Valider le comportement de la solution sur une infrastructure de test, identique aux magasins -Contribuer itérativement au projet en tant que ML engineer : collecte des données et préparation, modélisation, développement, évaluation, revue de code, déploiement des solutions, suivi de l’impact; - Communiquer sur les éventuels incidents des services en production -Vous pourrez également participer aux échanges réguliers de notre communauté d’une quarantaine d'ingénieurs (data scientists, engineers, devops) : présentations, - Partage de retours de conférences, débats sur les problématiques ML, de développement logiciel, ...
Mission freelance
Data Platform Engineer
Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD
6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS
Cogniwave dynamics
Publiée le
Data science
Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Offre d'emploi
Chef de Projet Talend ESB/NiFi/Cloud
OBJECTWARE
Publiée le
Apache NiFi
Cloud
Enterprise Service Bus (ESB)
3 ans
40k-75k €
400-580 €
Île-de-France, France
Prestation – Chef de projet migration Talend-ESB Missions : 1- Migration de la plateforme ESB actuelle vers notre cloud privé DMZR : Gestion du projet : Préparation des supports des comités IT, animation des ateliers avec les équipes de production et les IT métiers pour la définition des environnements cibles, suivis de la mise en oeuvre Coordination des IT métiers : Tests de recettes et de non-régression 2- Migration des flux actuels Talend et ESB vers Nifi principalement : Gestion du projet : Préparation des supports des comités IT, Spécifications fonctionnelles, définition des solutions cibles avec les équipes transverses (Architecture, production, sécurité…), la TMA Nifi et les IT métiers, suivis de la mise en oeuvre Coordination des IT métiers : Tests de recettes et de non-régression Profil recherché: De formation Ingénieur ou équivalent, la séniorité attendue pour l’intervenant dans l’environnement de la prestation est de 8 années. Cette mission nécessite un Anglais courant ainsi qu’une maitrise des concepts du cloud et des flux. La connaissance et maitrise des sujets datas (datamart, data ingénieur) est un plus. Competences requises - Mandatory: Maîtrise d’un outil d’ETL (Tibco, Talend…) (4/4) Maîtrise des concepts Cloud (PaaS, Service managé, COS…) (4/4) Maîtrise de la Méthode Agile (3/4) Compétences requises - Nice to have : Expériences/Connaissances Datas (datamart, data ingénieur) (3/4) Expériences/Connaissances du domaine de l’immobilier et/ou connaissance des métiers de l’immobilier (2/4) Anglais Niveau C1 (2/4)
Offre d'emploi
🔎 Data Engineer – Python / Spark / Databricks / AWS
Hexateam
Publiée le
AWS Cloud
Python
Spark Streaming
1 an
Paris, France
Mission : Data Engineer Confirmé – Python / Spark / Databricks / AWS Dans le cadre de l’évolution d’une plateforme Data centralisée, nous recherchons un Data Ingénieur confirmé pour intervenir sur le développement et l’optimisation de pipelines de données dans un environnement Big Data et Cloud AWS. Stack technique : Python • Spark • Databricks • SQL AWS (S3, Airflow, Glue, CloudWatch) Git • CI/CD • Agile / Scrum ✅ Profil recherché : Expérience confirmée en Data Engineering Bonne maîtrise de Spark / Databricks Expérience Cloud AWS
Offre d'emploi
Architecte Cloud (Luxembourg)
EXMC
Publiée le
Azure
Cloud
DevOps
1 an
Luxembourg
• Traduire les exigences métier en conceptions alignées avec le Well-Architected Framework et le Cloud Adoption Framework d’Azure. • Décrire les stratégies de haute disponibilité et de reprise après sinistre, et concevoir des solutions de continuité d’activité. • Concevoir des solutions d’identité, de gouvernance et de supervision. • Concevoir des solutions de calcul (compute) et de réseau. • Concevoir des solutions d’infrastructure. • Concevoir l’architecture applicative et l’intégration des données. • Concevoir des solutions de stockage de données pour des données relationnelles et non relationnelles. • Fournir un support technique durant les phases d’implémentation des projets, y compris les preuves de concept (PoC), pilotes et tests. • Analyser les besoins métier, les traduire en solutions techniques et communiquer des concepts complexes à des publics non techniques. • Définir et maintenir des blueprints d’architecture, des modèles de référence et des design patterns pour les services cloud. • Appliquer les standards architecturaux, les politiques et les cadres de gouvernance. • Développer de l’Infrastructure as Code (IaC) et des pipelines CI/CD pour automatiser le provisionnement et les déploiements. • Piloter des projets de migration et de modernisation vers le cloud. • Assurer les bonnes pratiques de gestion des ressources Azure, de sécurité et de conformité. • Intégrer les bonnes pratiques de sécurité, y compris la gestion des identités, le contrôle d’accès et la protection des données. • Collaborer avec les parties prenantes, les développeurs et les équipes IT pour recueillir les besoins et fournir des orientations architecturales. • Documenter les architectures et fournir des recommandations techniques. • Mettre en œuvre des architectures cloud Azure sécurisées, scalables, résilientes et optimisées en coûts, alignées sur les exigences métier et techniques ainsi que sur les plans , en collaboration avec les développeurs, administrateurs, ingénieurs sécurité et data. • Utiliser des outils comme Azure DevOps et ServiceNow pour suivre les tâches, incidents et changements. • Assurer la conformité aux normes réglementaires (ex : RGPD, ISO) et aux politiques de sécurité internes. • Proposer et mettre en œuvre des solutions innovantes pour améliorer la performance, la sécurité et l’optimisation des coûts. • Explorer et intégrer de nouveaux services Azure et O365 pour renforcer les capacités métier.
Offre d'emploi
Data Engineer Cloud H/F
FED SAS
Publiée le
55k-65k €
75001, France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
58 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois