Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 767 résultats.
Freelance

Mission freelance
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps

Publiée le
Big Data
Cloudera

6 mois
400-440 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps Mise en place d'outils IA/Data pour les équipes à fortes valeurs ajoutées tout en gardant les nombres au stricte minimum. Mise en place et gestion des pipelines CI/CD en mode GitOps Utilisation des systèmes de monitoring et d'alerting (ex. Victoria Metrics, Grafana). Collaboration étroite avec les équipes de développement et d'opérations. Analyse et optimisation des performances des applications et infrastructures. Rédaction de documentation technique et guides de procédures. Gestion des incidents et mise en œuvre de solutions préventives.
CDI

Offre d'emploi
Data Engineer Expert Elastic Stack - F/H

Publiée le

Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Data Engineer Expert Elastic Stack au sein de nos équipes pour l'un de nos clients. Le contexte ? La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l'essor de nos infrastructures et l'évolution des technologies associées, ou encore l'automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l'organisation de la société et de ses Clients (équipes applicatives et socles multiples et dispersées). Au sein de la société, dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l'équipe « Data4Ops », au sein du Domaine d'Expertise « Automatisation et Observabilité » Cette équipe a la charge de structurer les données dites « opérationnelles » à savoir les données utiles à l'ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data de l'entreprise (basée sur les principes/concepts Data Mesh) et en relation avec le PM (Product Manager) Observabilité Vos missions ? - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d'automatiser les pipelines d'ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, ...) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l'entreprise (flux : collecte, traitement, stockage et leur cycle de vie) -Rédiger les documents fonctionnels et techniques, d'exploitation, en veillant au respect des normes existantes - Mettre en oeuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l'entreprise pour prise en compte des flux de données - Développer les cas d'usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Stack Elastic OpenSource
Freelance

Mission freelance
Chef de Projet Data Migration – Projet d’intégration S/4HANA

Publiée le
SAP

6 mois
Marne, France
Télétravail partiel
Contexte: Notre client, un acteur industriel majeur, engage un projet d’intégration ambitieux visant à remplacer tout ou partie de ses systèmes sources par l’ERP S/4HANA. Dans ce cadre, nous renforçons l’équipe Migration avec un profil expérimenté pour piloter les activités et la production des livrables sur un domaine fonctionnel ciblé. Environnement technique: S/4HANA, outils de migration (ex: SAP Data Services, LTMC), suites de tests (SAP TAO, SolMan). Type de contrat: Freelance (via ZENITH). Poste ASAP
Freelance

Mission freelance
Process & Data Analyst

Publiée le
Data analysis
Gouvernance
Master Data Management (MDM)

1 an
500-570 €
Île-de-France, France
Télétravail partiel
Nous recherchons actuellement un(e) Process & Data Analyst pour accompagner les projets et assurer le lien entre les processus métier et les données nécessaires de notre client grand compte dans la logistique. Vous devrez : - Animer les groupes de travail pour créer les Service Blueprints, identifier les Data Use Cases et comprendre les dépendances fonctionnelles, - Réaliser les gap analyses afin d'identifier les systèmes IT impactés et préparer la création des fonctionnalités nécessaires, - Garantir la production des Data Use Cases basés sur les processus métier et les intégrer dans l'outil de Data Gouvernance du groupe, - Définir, avec les Data Stewards, les Business Rules et le cycle de vie des données transactionnelles et référentielles, - Accompagner les Data Stewards dans l'implémentation des données référentielles dans le Master Data Management, - Soutenir les Business Units dans l'implémentation des flux de données transactionnelles et l'utilisation des données référentielles, - Participer à l'enrichissement du Data Catalog via des définitions claires, - Contribuer aux tests d'intégration, systèmes et UAT, ainsi qu'à la gestion des migrations, stratégies de cut-over et chargements de données, - Analyser les données existantes dans les applications pour garantir la cohérence avec les solutions proposées et identifier des améliorations proactives de qualité de données, Vous travaillerez au sein d'une équipe d'experts Data Gouvernance et MDM, et serez accompagné(e) par nos Data Stewards pour mettre en place les processus conformément aux exigences des data owners des équipes métier.
CDI

Offre d'emploi
Business Analyste Data

Publiée le
Méthode Agile

40k-56k €
Bordeaux, Nouvelle-Aquitaine
Le Business Analyst Data intervient au sein d’une squad Agile, assurant le suivi quotidien du run et la résolution des incidents. Il accompagne les utilisateurs, analyse leurs besoins et anime des workshops pour définir et clarifier les exigences métier. En collaboration avec les équipes techniques, il coordonne les actions connexes (ouvertures de flux, scheduling…), participe à la conception et à la spécification fonctionnelle des solutions data, ainsi qu’au paramétrage de la plateforme. Il contribue au packaging et à la livraison des évolutions, réalise les tests unitaires et d’intégration, et assure le support lors des mises en production ainsi que durant la période de garantie.
Freelance

Mission freelance
Data Quality Tale of Data

Publiée le
Data quality

6 mois
450-470 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Quality Tale of Data (H/F) , pour le compte de l'un de ses clients qui opère dans le domaine d'Energie. Description 📍 Contexte de la mission Au sein de l'équipe Data Achat, cette mission s'inscrit dans la continuité des travaux d'analyse et de mise en qualité des données achats initiés précédemment. L'objectif est d'accélérer et d'industrialiser les processus de qualité de données (Data Quality) via l'outil Tale of Data , en vue de l'année 2026. 🎯 Objectifs Principaux Le consultant devra assurer le nettoyage, la fiabilisation et l'industrialisation des données provenant de sources multiples, tout en participant à la structuration de la future Data Plateforme. 💼 Responsabilités & Missions 1. Data Quality Management & Tale of Data (Cœur de mission) Administration de Tale of Data : Tous les flux transitent par cet outil. Une maîtrise (ou une très forte capacité d'adaptation immédiate) est impérative car le consultant devra être autonome rapidement. Configuration et Nettoyage : Paramétrer l'outil pour identifier les anomalies (doublons, erreurs, manquants) sur les données Fournisseurs, Contrats, Données Clients (tables SAP), Marketing, etc. Industrialisation : Faire face à la demande croissante en automatisant les contrôles qualité et les redressements de données. 2. Gestion Multi-Sources & Analyse Consolidation des données : Travailler sur des environnements hétérogènes : SAP MM , Business Central, et outils non-ERP (appels d'offres, qualifications). Rapprochement : Croiser les données entre les différents outils pour produire des référentiels fiables. Investigation : Aller chercher l'information à la source, évaluer la donnée et comprendre sa structure (ne pas "tâtonner"). 3. Pilotage & Projets Transverses (Data Gouv) KPIs : Spécifier et produire les indicateurs de suivi de la qualité des données par périmètre. Data Platform : Monter en compétences sur la structure des données pour accompagner le lancement de la nouvelle Data Plateforme Achats et le projet global de Data Gouvernance. Collaboration : Identifier les nouveaux cas d'usage avec les Business Process Owners (BPO) et les Data Domain Owners.
CDI
Freelance

Offre d'emploi
Cybersecurity Officer - Experimenté

Publiée le
Cybersécurité
Data governance
Data management

3 ans
80k-86k €
700-750 €
Montreuil, Île-de-France
Télétravail partiel
Le consultant interviendra pour : Accompagner le Group Data CISO dans l’évolution de la stratégie Data Security. Être l’interlocuteur privilégié du GDPO , des équipes Data, IT, sécurité et métiers. Préparer et organiser les Group Data Steering Committee et Group DataSec Steering Committee . Renforcer le contrôle, la gouvernance et l’usage sécurisé de la donnée, notamment en environnements hors production . Définir une stratégie permettant de sécuriser, anonymiser et mettre à disposition des données sensibles cohérentes pour les tests, analyses et usages Data. Missions : Interaction & coordination Définition & déploiement des exigences cyber liées à la Data Gouvernance & pilotage Data Security Gestion de la sécurité des environnements hors production
Freelance

Mission freelance
Consultant Data Snowflake SQL

Publiée le
Snowflake
SQL

12 mois
Paris, France
Télétravail partiel
Analyse de la données Le consultant freelance accompagnera la mise en place, l’optimisation et l’automatisation des traitements de données sur Snowflake et Databricks, ainsi que le développement de scripts pour améliorer les processus internes. Missions principales Analyse de la donnée Analyser les besoins métiers et produire des jeux de données fiables et pertinents. Concevoir, optimiser et maintenir des requêtes SQL et objets Snowflake (tables, vues, pipelines). Développer des transformations et workflows sur Databricks Créer et maintenir des scripts d’automatisation (Python, PowerShell, .NET selon besoins). Documenter les traitements et assurer un niveau de qualité élevé des données. Collaborer avec les équipes internes pour faciliter l’utilisation et la compréhension des datasets.
CDI

Offre d'emploi
Ingénieur Data SQL H/F

Publiée le
Administration réseaux
Administration système
Supervision

67150, Erstein, Grand Est
Contexte et définition du poste Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Ingénieur Data SQL H/F et vous présentons les points clés du poste : Poste en CDI Basé à Erstein Secteur du commerce de détails et de gros Les conditions : Rémunération selon le profil et les expériences Mode de travail : sur site ; Télétravail possible 1j/semaine après la période d'essai Période d'essai de 3 mois Les missions : Au sein du service Développement de la DSI, l'équipe Data a en charge la conception, la réalisation et le maintien en condition opérationnelle des principaux flux d'échanges de données inter-applicatifs. Pour accompagner son développement, l'entreprise cherche à renforcer l'équipe par une mission de prestation en régie sur site. Les attendus sont les suivants : La conception et l’alimentation de modèles de données dans la base de données pivot de l’entreprise (Staging DB) : Cluster MSQ SQL Server Accompagner l'entreprise dans la migration vers SQL server 2025 : déploiement d'un nouveau Cluser SQL Server 2025 et implémentation de la recherche vectorielle dans les applications existantes Mettre en place des flux d'échanges de données entre les différentes systèmes : ETL SSIS ave possible passage sur un ETL Opensource de type Polars / Pandas sous Airflow Réaliser des cahiers de charges et d'études de faisabilité Accompagner les métier s sur les choix d'architecture de données (choix des données pivots, format approprié des données, etc.) Garantir la qualité des données autant sur le plan technique que métier Intervenir ponctuellement sur le Datawarehouse : Base de données Oracle avec Scripting Bash
Freelance
CDI

Offre d'emploi
DATA ENGINEER Python

Publiée le
Python
Terraform

6 mois
40k-45k €
380-470 €
Boulogne-Billancourt, Île-de-France
Nous sommes à la recherche deux consultants de haut niveau spécialisés en Data Engineering, disposant d’une expertise approfondie dans les technologies Python, Data, GenAI, AWS (Kinesis, S3, EMR, etc.), Airflow, Terraform, GitLab CI/CD, Python ainsi qu’une solide maîtrise de SQL, Snowflake et les architectures Data Streaming. Une expertise en Scala et Spark serait fortement appréciée. Il sera chargé de concevoir et développer des pipelines de données, développer sur des chatbots AI dans un environnement cloud tout en contribuant activement à la fiabilité, l’automatisation et la scalabilité de notre plateforme data.
Freelance

Mission freelance
Data Engineer/ Expert GCP

Publiée le
BigQuery
Cloud
Data science

12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Freelance

Mission freelance
Data Engineer Expert données GPS

Publiée le
Databricks
GPS
SIG (Systèmes d'Information Géographique)

3 mois
Île-de-France, France
Télétravail 100%
📅 Démarrage : ASAP ⏳ Durée : 3 mois renouvelables 🔍 Nous recherchons un Data Engineer ayant une expérience indispensable sur des problématiques GPS pour renforcer immédiatement une équipe spécialisée. 🎯 Missions principales : ✅ Analyses et rapprochements de données GPS avec la voirie ✅ Détection, correction et nettoyage des points aberrants ✅ Rapprochement GPS ↔ adresses distribuées ✅ Analyse des parcours multi-mode (arrêts, transitions) ✅ Comparaison et analyse des trajectoires entre plusieurs journées
CDI

Offre d'emploi
Chef de Projet BI / Data

Publiée le
Microsoft Power BI
Microsoft SSIS
Power Apps

50k-62k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Vous souhaitez rejoindre une ETI française dynamique , tournée vers l’innovation et engagée dans un plan de développement ambitieux ? Vous recherchez un environnement où les valeurs humaines, la cohésion d’équipe, l’expertise technique et la qualité de service sont au cœur du fonctionnement ? Ce poste est fait pour vous. Dans le cadre de son développement, notre client recherche un Chef de Projet BI / Data Middleware (H/F) pour renforcer sa Direction Digitale et Systèmes d’Information. Vous jouerez un rôle clé dans la collecte, la transformation et la valorisation des données , ainsi que dans la mise en œuvre des flux d’échanges entre les différents systèmes. Le poste comporte environ 60 % de BUILD et 40 % de RUN . Vos missions : Conception et gestion des infrastructures data Recueillir les besoins métiers en matière de collecte, traitement et exploitation des données. Concevoir des architectures de données robustes (DWH, Data Lake…). Développer et maintenir des pipelines de données performants et sécurisés. Assurer la qualité, la sécurité et la conformité des données (gouvernance, RGPD). Optimiser les systèmes de traitement de données et industrialiser les processus. Support aux projets Data et intégration Collaborer étroitement avec les key users BI sur les projets décisionnels. Mettre en place et suivre les flux EDI (INVOIC, ORDERS…). Assurer la maintenance, les tests automatisés et l’exploitabilité des solutions. Contribuer à la rédaction des bonnes pratiques d’architecture et de sécurité. Veille, amélioration continue et qualité Réaliser une veille sur les technologies Big Data, frameworks et langages associés. Proposer des améliorations continues, tant sur les outils que sur les performances. Garantir la traçabilité et la haute qualité des données mises à disposition. Support utilisateurs et supervision quotidienne des flux (40 % du temps) Traiter les tickets utilisateurs (incidents, assistance). Assurer la supervision quotidienne des flux : analyse d’erreurs, corrections, rejouements, optimisations.
CDI

Offre d'emploi
Développeur Data/Data Engineer

Publiée le
AWS Cloud
Azure
Azure Data Factory

40k-65k €
Gosselies, Hainaut, Belgique
Télétravail partiel
ATTENTION, 2 JOURS DE PRESENCE SUR SITE A GOSSELIE NON NEGOCIABLE. Ne pas postuler le cas échéant. Le consultant rejoindra l’équipe Factory Data , spécialisée dans les technologies Microsoft Fabric et Azure Data . La mission s’inscrit dans le cadre de la mise en place et l’optimisation des flux de données, la modélisation du Lake House et l’architecture médaillon (Silver & Gold). Responsabilités Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory). Développer les flux de transformation via Fabric Factory Notebook . Optimiser les requêtes de transformation en tenant compte des coûts Azure. Contribuer à la modélisation du Lake House et à l’architecture médaillon. Établir le design technique et rédiger la documentation. Mettre en place et exécuter les tests unitaires automatisables . Participer à l’estimation des efforts de développement. Contribuer à la maintenance et résolution des incidents en production. Participer à l’amélioration continue (guidelines de développement).
Freelance

Mission freelance
Consultant Expert Data

Publiée le
CoreData

3 mois
400-650 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la recherche d'un consultant expert Data. Le contexte : Pour accompagner le client dans sa transformation Data Driven, nous recherchons un consultant expérimenté capable de structurer & piloter une démarche orientée Data Products. Missions principales : - Définir et mettre en place une gouvernance des données (processus, rôles, outils). - Accompagner le client dans la structuration d’une stratégie Data Driven. - Concevoir et promouvoir une approche orientée Data Products pour maximiser la valeur métier. - Conseiller sur les bonnes pratiques.
Freelance

Mission freelance
Data Engineer Python / AWS (h/f)

Publiée le

1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.
3767 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous