Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Offre d'emploi
Data Analyst orienté Data Engineering (F/H)
Nous recherchons un(e) Data Analyst orienté Data Engineering pour accompagner la transformation data-driven du groupe. Intégré(e) à une équipe transverse dynamique, vous interviendrez sur l’ensemble de la chaîne de valeur data : gouvernance, analyse, data engineering, data science et dataviz. En rejoignant cet environnement stimulant et bienveillant, vous aurez l’opportunité de valoriser des données clients, produits et opérationnelles à travers des projets stratégiques, des modèles prédictifs et des outils innovants. Missions Construire et automatiser des pipelines ELT fiables (Azure, Snowflake, Python, SQL). Mettre en place des datasets certifiés pour la BI & Data Science. Développer et maintenir des dashboards (Tableau, MicroStrategy). Analyser des jeux de données variés pour générer des insights stratégiques. Participer à la mise en place de modèles prédictifs (scoring, segmentation, ML). Contribuer à la diffusion des bonnes pratiques data au sein du groupe.
Mission freelance
Data Engineer – ServiceNow /Snowflake
Introduction & contexte Une entreprise du secteur technologique renforce ses capacités analytiques autour des processus ITSM. L’objectif : construire une plateforme de données dans une solution cloud à partir des données issues d’un système de gestion des services, comprenant des incidents, des demandes, des changements et des problèmes afin d’alimenter des cas d’usage pour l’IT, la qualité, la gouvernance et les opérations. Missions principales Établir et sécuriser la connectivité entre le système de gestion des services et la plateforme data cloud. Extraire et charger les modules liés aux demandes, incidents, changements et problèmes. Concevoir une pipeline d’ingestion automatisée (batch / incrémental), avec métadonnées, rafraîchissements et suivi de la qualité des données. Structurer les données dans la plateforme (modulaire, réutilisable, prête pour l’analytique). Documenter la pipeline, les schémas, les points de reprise et les bonnes pratiques.
Mission freelance
Mission Freelance – Data Analyst
Contribuer à la création et à l’exploitation du socle de données : Participer à l’audit des nouvelles sources de données disponibles dans le Datalake (GCP / BigQuery) . Intégrer et structurer ces données afin de renforcer la qualité, la fiabilité et l’exploitabilité du socle. Collaborer avec les équipes techniques pour garantir la cohérence et la performance de l’architecture Data. Développer et maintenir des dashboards stratégiques sous Power BI : Concevoir des tableaux de bord permettant de suivre les objectifs clés, les usages et les profils utilisateurs . Faire évoluer les dashboards existants en intégrant de nouveaux indicateurs ou en améliorant les calculs. Garantir la clarté, la pertinence et la valeur opérationnelle des visualisations fournies aux équipes métier et au management. Analyser en profondeur les profils et comportements des utilisateurs : Étudier les parcours des vidéonautes (programmes recrutants, fidélisants, engagement selon les canaux d’acquisition). Identifier les tendances de consommation par contenus, types d’écran et plateformes. Mesurer l’impact de la pression publicitaire , des nouvelles fonctionnalités ou de la distribution multi-partenaires sur l’expérience utilisateur. Produire des analyses permettant de mieux segmenter et comprendre les publics. Contribuer aux projets Data Science & Intelligence Artificielle : Participer aux initiatives Data Science visant à améliorer l’expérience utilisateur (recommandations, personnalisation, parcours fluidifiés). Apporter un support analytique pour l’optimisation des process internes (production, diffusion, marketing digital, monétisation). Collaborer avec les Data Scientists et les métiers pour transformer les insights en solutions concrètes et actionnables . Accompagner la diffusion et l’appropriation de la culture Data : Vulgariser les résultats et insights auprès des équipes non techniques. Contribuer à la montée en maturité des usages Data au sein de l’organisation. Proposer des axes d’amélioration et partager les bonnes pratiques en continu.
Offre d'emploi
Tech Lead Data Engineer H/F
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 7kbz633w88

Offre d'emploi
Data Engineer Azure & Databricks
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.

Mission freelance
Senior Data Engineer - Palantir Foundry
Nous recherchons un Data Engineer chargé de développer des pipelines de données pour les fondations Risk dans Palantir Foundry . Le Data Engineer aura pour mission de concevoir, livrer, maintenir et documenter des pipelines de données dans le périmètre des fondations Risk. Il devra notamment intégrer les données de réassurance dans notre modèle de données analytique Risk (représentation en medallion des données Risk), selon les meilleures pratiques du domaine. Livrables attendus : Pipelines de données pour les fondations Risk, livrés dans les délais, Code documenté et testé unitairement, Contrôles de qualité et de cohérence des données mis en place.
Mission freelance
Data Scientist
Nous recherchons un(e) Data Scientist freelance pour renforcer les équipes de notre client. Il s’agit d’une première mission d’ extension de capacité , avec une intégration directe dans les équipes et des cas d’usage concrets à mettre en production. Responsabilités Collecter, préparer et analyser des données complexes. Concevoir et développer des modèles de Machine Learning (régression, classification, séries temporelles, deep learning). Déployer les modèles en production (API, pipelines, monitoring). Travailler sur des environnements cloud / containers (MLflow, Docker, Kubernetes). Vulgariser les résultats et échanger avec les équipes métiers et techniques.

Offre d'emploi
Ingénieur devops - data
Nous recherchons pour le compte de notre client un ingénieur devops ayant des connaissances data (cassandra, Airflow,Spark,Starbust,Kafka,HDP). Vos mission seront : En BUILD : Capable de suivre les projets et de co-construire avec l’IT métier. Servir de point d’entrée OPS sur les projets. Réaliser tous les gestes techniques de mise en production (installation, mises à jour, création/mise à jour des environnements). Mettre en place l’exploitation applicative avant le passage en RUN. Conseiller et accompagner techniquement, tout en respectant les standards du groupe . En RUN : Gérer les incidents et les changements sur tout le périmètre de la squad. Identifier et mettre en œuvre des axes d’optimisation et d’industrialisation . Améliorer continuellement le monitoring et l’exploitation des applications . 2. Un état d’esprit Agile & DevOps Travailler en mode Agile (Scrum, SAFe) . Être dans une démarche DevOps (automatisation, CI/CD, monitoring, culture produit) Profil : Nous recherchons un profil capable de : Intervenir sur le cycle complet : de la construction (BUILD) à l’exploitation (RUN). S’intégrer dans une squad Agile. Automatiser, sécuriser et optimiser les déploiements/applications. Maîtriser les environnements hybrides : Cloud, Data, On-Prem. S’appuyer sur des outils DevOps modernes (CI/CD, Ansible, ArgoCD, Kubernetes, Docker, etc.) Technologie à maîtriser : Outils DevOps : Ansible, ArgoCD (ou GITOPS) Cloud / IaaS : Linux, Websphere, Autosys, CFT. Cloud / PaaS : Kubernetes, Docker, OpenShift, PostgreSQL, ExaCC. Cloud / Data : Spark, Starburst, Airflow. Data On Prem : HDP, Cassandra, Kafka. Outils de suivi : ServiceNow (SNOW), JIRA.
Offre d'emploi
Data engineer H/F
Rattaché au Directeur des Systèmes d'Information, vous êtes responsable de la gestion des flux de données, de la structuration et de la performance du Data Warehouse, afin de répondre aux besoins analytiques et métiers. Voici vos missions : Concevoir et maintenir des pipelines de données (ETL/ELT). Intégrer et traiter des données issues de sources variées (ERP, API, logiciels métier…). Modéliser les flux de données et automatiser les processus de traitement. Mettre en place des tests automatisés et des contrôles qualité. Documenter les flux et les modèles de données. Optimiser les performances des bases de données et des requêtes. Collaborer avec les équipes métiers pour proposer des solutions BI adaptées. Assurer le suivi et la résolution des incidents techniques.

Mission freelance
Ingénieur Data
Vous intégrerez l’équipe BI Entreprise afin de répondre aux nouveaux besoins des métiers (Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux). Votre rôle sera central dans l’évolution de notre architecture décisionnelle et dans la modernisation de nos flux de données, avec un accent particulier sur la migration des packages SSIS vers Azure Data Factory (ADF) et le développement de pipelines cloud. Objectifs de la mission : - Assurer la migration des traitements SSIS existants vers Azure Data Factory, en garantissant performance, robustesse et conformité. - Concevoir et développer des pipelines ADF complets, depuis la collecte des données jusqu’à leur intégration dans l’entrepôt (SQL Managed Instance / Snowflake). - Créer et maintenir des Data Flows ADF (nettoyage, enrichissement, transformation). - Mettre en place et gérer des triggers conditionnels permettant d’orchestrer des traitements complexes. -Participer à l’optimisation des coûts et des performances des modèles BI (Power BI, modèles sémantiques, DAX). - Documenter les développements et assurer la MCO (Maintien en Condition Opérationnelle) de l’existant.

Mission freelance
Développeur fullstack Java VueJS
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, Vue JS, VueJS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +

Mission freelance
Chef de Projet Delivery IA / Data – Agence Digitale
🔹 Contexte : Nous recherchons un Chef de Projet Delivery spécialisé en IA/Data pour accompagner une agence digitale dans le cadrage, le pilotage et la mise en production de projets innovants autour de la data et de l’intelligence artificielle. 🔹 Compétences obligatoires : Ancien Data Scientist (solide compréhension technique) Maîtrise des modèles de données Expérience en POC & prototypes Animation d’ateliers et cadrage fonctionnel Pilotage de delivery (du design à la mise en production) 🔹 Profil recherché : +7 ans d’expérience en Data/IA dont plusieurs en gestion de projet Capacité à traduire les besoins métier en solutions data concrètes Aisance en communication, animation et coordination d’équipes pluridisciplinaires 🔹 Conditions de mission : Lieu : Paris Nord (2 jours de télétravail/semaine) Démarrage : ASAP Durée : longue mission (renouvelable)

Offre d'emploi
Data Engineer (Hadoop-Scala) Junior H/F
Contexte et objectifs de la prestation : Le département informatique aligné avec les métiers en charge du pilotage financier du groupe. Cette tribu est en charge de la maitrise d'ouvrage, de la maitrise d'oeuvre et du support des produits (applications) nécessaire à la bonne exécution de ces processus financiers. Le Bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de certains de ses produits dédiés au pilotage opérationnel des directions centrales (BASYCOUT) et retail (AGENOR) mais aussi de la facturation interne (FI) et des expenses (Expenses Engagement), basés sur des technologies Datalake et cube OLAP, dans un cadre d'agilité à l'echelle (SAFE). Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre, la Prestation consistera à contribuer à/au(x) : - Code livré sous GIT - Tests unitaires développés et joués - Monitoring des traitements de production - Tickets JIRA & Unity mis à jour
Mission freelance
Data engineering
Data engineering (2 profils identiques), pour concevoir, construire et gérer l’infrastructure AWS · Minimum de 4 ans d’expériences significative dans le type d’expertise demandé · Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT · Connaisse de l’ingénierie de traitement de la donnée non structurée : CONFIRME · Connaissance en architecture micro-service et l’utilisation d’API externe : CONFIRME · Connaissance des langages de programmation et de Génie Logiciel (Python) : · Programmation Orientée Objet : MAITRISE · Connaissance et utilisation des Design Patterns standard : MAITRISE · Frameworks/Librairies de tests : MAITRISE · Observabilité applicative : CONFIRME · Mesures de performances : CONFIRME Expérience avec les bases de données SQL et Graph : CONFIRME · Connaissance des technologies de conteneurisation : o Utilisation de la CLI Docker : MAITRISE o Création et optimisation des images : MAITRISE o Utilisation de docker-compose : CONFIRME o Utilisation de la CLI Kubernetes : MAITRISE o Création et utilisation des déploiements Kubernetes : CONFIRME o Résolution de problèmes sur environnement Kubernetes : CONFIRME o Utilisation de Helm pour le déploiement de workload sur Kubernetes : CONFIRME Compétence des technologies de CI/CD et Infra as Code : Expérience du process GitFlow : MAITRISE Utilisation des commits sémantiques/feature branches : MAITRISE Mise en place de pipelines/jobs : CONFIRME Mise en place de process GitOps : CONFIRME Utilisation des concepts, modules et templates Teraform : MAITRISE Utilisation de Ansible : CONNAISSANCE Capacité à travailler en équipe et à communiquer efficacement (Agile, JIRA) : MAITRISE Expérience des services AWS suivants : IAM : mise en place de rôles/policies (CLI et Terraform) : CONFIRME S3 : gestion des buckets/cycle de vie des objets : MAITRISE Lambda : Déploiement de lambda utilisant des conteneurs sur ECR via Terraform. Déclenchement via Triggers S3/EventBridge. Optimisation de l’utilisation des ressources et du scaling : MAITRISE Secret Manager : Création et accès via Terraform. Gestion du cycle de vie : CONFIRME VPC & Security Groups : Compréhension des concepts réseaux et de sécurité : CONFIRME Une connaissance du service publique et des Médias est souhaitée .

Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)
Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🗓 Durée : 25/09/2025 – 30/06/2027 🌐 Langue : Anglais (obligatoire)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.