Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 286 résultats.
CDI

Offre d'emploi
Data Engineer

Recrut Info
Publiée le
AWS Cloud
Data Lake
Python

45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Freelance

Mission freelance
Consultant Data & Reporting - Cash Management

NOVAMINDS
Publiée le
Business Analyst
Data management

4 mois
550-650 €
Paris, France
Objectif de la mission · Collecter, produire et valider les données requises afin de réaliser l’ensemble du reporting interne. · Assurer une gestion centralisée de la disponibilité et de la fiabilité des données, dans les délais, pour permettre la livraison du reporting. Prestations demandées · Coordonner avec différentes équipes de reporting et autres parties prenantes (IT, métiers) afin d’intégrer les exigences réglementaires dans le reporting. · Revoir les processus de reporting existants, identifier des opportunités d’amélioration de l’organisation opérationnelle et mettre en œuvre les changements. · Partager et former les équipes de production de reporting aux nouvelles solutions de reporting conçues. · Revoir et piloter le reporting des KPI, garantir les niveaux de service/qualité, et reporter aux parties prenantes via différents comités. · Interagir avec différentes équipes.
CDI

Offre d'emploi
Urbaniste Data (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
PostgreSQL

54k-58k €
Roubaix, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
CHEF DE PROJET INFORMATIQUE H/F

█ █ █ █ █ █ █
Publiée le
Redmine

Poitiers, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Analyst

Deodis
Publiée le
PowerBI
PySpark
Python

12 mois
40k-48k €
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Sur site à AIx en Provence, télétravail 2/3 jours par semaine L’objectif est d’intégrer un profil Data Analyst / Data Scientist capable d’exploiter les données du système d’information afin d’identifier des incohérences, de développer des analyses avancées et de contribuer à la mise en œuvre de cas d’usage liés à la détection de fraude. L’intervenant devra exploiter et croiser les données issues du système d’information afin d’analyser leur cohérence et leur impact sur les processus métiers sensibles, notamment dans le cadre de la lutte contre la fraude. Description des missions Prendre en compte les données du domaine « Individu Allocataire » et analyser leurs impacts dans le système d’information. Mettre en œuvre des cas d’usage métiers orientés lutte contre la fraude (ciblage, analyse de données, modèles prédictifs). Réaliser des analyses exploratoires et statistiques sur les données disponibles. Développer et maintenir des produits data réutilisables (scripts, traitements, modèles). Produire des restitutions analytiques à destination des équipes métiers. Respecter les normes, standards et bonnes pratiques en vigueur au sein de l’équipe. Livrables attendus Le titulaire devra produire les livrables suivants : Programmes et scripts de traitement de données dans l’environnement Big Data Hadoop . Développements documentés permettant la réutilisation et la maintenance des traitements. Restitution des analyses sous forme de : présentations PowerPoint , tableaux de bord Power BI .
Freelance

Mission freelance
Data Engineer Python / Azure Cloud (H/F)

Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)

12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Freelance
CDD

Offre d'emploi
Consultant Data Quality Monitoring – Stress Test Marché (F/H)

Taleo Capital
Publiée le
Finance
Monitoring
Python

8 mois
33k-40k €
340-480 €
Paris, France
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 400 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Consultant Data Quality Monitoring – Stress Test Marché (H/F) · Début ASAP · Durée 8 mois renouvelables · Localisation Paris Contexte de la mission La mission s’inscrit au sein d’un département en charge des systèmes de gestion des risques liés aux activités de marché . Dans ce cadre, le consultant interviendra sur l’ implémentation d’un outil de monitoring de la qualité des données issues des Stress Tests Marché , afin de renforcer la fiabilité et le contrôle des données utilisées dans les processus de gestion des risques. Le consultant sera intégré à une squad dédiée aux Stress Tests , organisée selon une méthodologie Agile (Scrum) et travaillera avec des équipes internationales situées notamment en Europe et en Asie . Objectifs de la mission · Participer au développement d’un outil de monitoring de la qualité des données · Contribuer à la détection des anomalies dans les données de stress test · Garantir la cohérence et la complétude des données produites · Participer à l’ amélioration des contrôles de qualité des données Missions principales Analyse des flux et compréhension du système: · Comprendre les flux de données liés aux stress tests · Analyser les données produites par les systèmes de marché · Participer à la cartographie des flux de données · Participer aux rituels Agile de l’équipe (daily, sprint review, backlog) Développement des contrôles de qualité: · Participer au développement d’un outil de contrôle qualité en Python · Implémenter des règles de validation des données : o cohérence inter-dates o détection de valeurs manquantes o contrôle de variation o contrôles de complétude · Interroger les bases de données SQL pour récupérer les données de stress test · Contribuer à l’intégration de l’outil dans le pipeline CI/CD Mise en production et suivi : · Déploiement du composant sous forme de microservice · Mise en place d’ alertes automatisées en cas d’anomalie détectée · Production de rapports de qualité des données · Présentation des KPI de qualité aux équipes concernées Documentation et amélioration continue : · Documenter les règles de contrôle et les processus · Contribuer à l’amélioration continue des contrôles de données · Proposition d’améliorations, notamment via des approches avancées de détection d’anomalies Compétences techniques · Python · SQL · Git · CI/CD · Architecture microservices · Méthodologie Agile / Scrum
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

Freelance.com
Publiée le
Apache Kafka
Confluence
Data management

3 mois
400-430 €
Bordeaux, Nouvelle-Aquitaine
Intitulé : Team Leader Data Engineering Localisation : Bordeaux Expérience : 2 à 5 ans Démarrage : ASAP jusqu’à fin 2026 Deadline réponse : 9 mars 🎯 Mission générale Sous la responsabilité du Head of Engineering Logistique, le Team Leader est responsable de l’équipe Data Engineering C-Logistics. Il intervient en tant que : Facilitateur d’équipe Coach technique Acteur de la performance Il s’appuie sur les principes Lean afin de : Optimiser les processus de delivery Analyser et traiter les causes racines des incidents de production Favoriser l’autonomie de l’équipe Garantir performance, scalabilité et fiabilité des solutions Assurer l’alignement avec la vision produit du Product Manager 🧭 Périmètre Production et pilotage des données & KPI pour les collaborateurs C-Logistics Partage de données avec les autres filiales du groupe Partage de données avec des clients B2B 👥 Équipe 4 développeurs 1 Lead Developer
Freelance

Mission freelance
Data Product Manager / Data & BI (Senior)

Inventiv IT
Publiée le
Data analysis
Data modelling
ERP

6 mois
600-750 €
Île-de-France, France
Piloter les études et cadrages des initiatives Data & BI . Recueillir et analyser les besoins métiers et comprendre les enjeux business. Organiser et animer des workshops avec les parties prenantes pour collecter les exigences fonctionnelles. Définir et documenter l’ architecture fonctionnelle des solutions data . Réaliser la modélisation des données et concevoir les couches métiers (Business Layer / Silver Layer). Assurer la cohérence du cycle de vie de la donnée : de la source jusqu’à la visualisation. Coordonner les contributions des Data Architects, Data Engineers et équipes BI . Documenter la valeur métier des solutions data proposées. Préparer le budget (build/run) et le planning projet . Formaliser les propositions de lancement de projets data . Anglais courants . Environnement technique BI / Data Visualization : Power BI, Microstrategy Data Platform / Data Warehouse : Azure, Snowflake Data : SQL, Data Modeling, Data Analysis ERP / Data Sources : SAP Architecture Data & Data Lifecycle
Freelance

Mission freelance
Data Analyst orienté Data Science

ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
Data science
PySpark

24 mois
400-620 €
Gradignan, Nouvelle-Aquitaine
Site de Gradignan (33) Mission longue durée – 2 ans (1 an ferme + 1 an reconductible) Charge estimée : ~210 jours/an (420 jours max) Contexte Dans le cadre du renforcement de son équipe Analyse de la Donnée, une grande organisation nationale recherche un Data Analyst orienté Data Science afin d’accompagner les métiers dans l’exploitation et la valorisation des données. Missions : Rattaché(e) à l’équipe Analyse de la Donnée, vous interviendrez sur l’ensemble de la chaîne de valeur Data, de la phase exploratoire jusqu’à la restitution des analyses via des outils de datavisualisation. Vos principales responsabilités : Analyse et croisement de données pour répondre à des cas d’usage métiers (ciblage, analyses exploratoires, data science) Développement et maintenance de produits Data réutilisables Publication et mise en forme des résultats via des outils de DataViz Respect des normes, standards et bonnes pratiques de l’équipe Accompagnement et acculturation des équipes métiers aux usages de la donnée Force de proposition dans la traduction des besoins métiers en solutions analytiques adaptées
Freelance
CDI
CDD

Offre d'emploi
🚀 Data Engineer / Architecte Data Senior

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Data analysis
PySpark

3 ans
32k-70k €
150-650 €
Saint-Denis, Île-de-France
Dans le cadre d’une mission stratégique auprès d’un grand acteur du secteur des services digitaux, ASAP Technologies recherche un(e) Data Engineer / Architecte Data Senior . Vous interviendrez au sein d’un pôle Data Services pour accompagner la conception, l’industrialisation et l’évolution d’une plateforme Lakehouse à grande échelle, dans un environnement cloud moderne et exigeant. 🎯 Vos missions En tant qu’Architecte Data Senior, vous jouerez un rôle central dans la structuration et l’optimisation des solutions Data. 🏗 Architecture & Modélisation Concevoir et faire évoluer une architecture Lakehouse Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold) Modéliser les données et optimiser la performance des pipelines ⚙️ Développement & Industrialisation Concevoir, développer et optimiser des pipelines de données à grande échelle Mettre en œuvre des flux batch , streaming et ingestion via API Développer et industrialiser les pipelines avec DBT Spark et Iceberg Orchestrer les workflows ETL/ELT via Airflow Déployer et maintenir les pipelines dans un environnement Cloud (AWS ou équivalent) Mettre en œuvre l’Infrastructure as Code via Terraform Exécuter les traitements dans des environnements conteneurisés ( Docker / Kubernetes ) 🔎 Qualité, Sécurité & Performance Garantir la disponibilité, la supervision et l’observabilité des traitements Définir et implémenter les règles de qualité des données (tests, contrôles automatisés) Documenter architectures, pipelines et règles métier Assurer la conformité réglementaire (RGPD) Participer à la gestion des incidents et à l’amélioration continue 🤝 Leadership & Expertise Accompagner des profils juniors Être force de proposition sur les choix techniques Faire le lien entre enjeux métiers et architecture data
CDI
Freelance

Offre d'emploi
Administrateur système & gestion de parc - (H/F)

SWING-ONE
Publiée le
Administration linux
Administration système
Azure

6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un administrateur système & gestion de parc. Dans un environnement IT hybride et critique, vous assurez l’exploitation, l’évolution, la sécurité et la disponibilité des systèmes d’information. Vous intervenez sur des environnements Windows et Linux, pilotez la gestion du parc informatique et garantissez le maintien en condition de sécurité des équipements (EDR, patch management, conformité). MISSIONS PRINCIPALES : Administrer et maintenir les serveurs du Système d’Information Garantir la disponibilité et la performance des environnements Exploiter et administrer la solution de gestion de parc informatique Garantir l’exhaustivité et la fiabilité des informations Gérer les services d’infrastructure : DNS, DHCP, AD, GPO, NTP, fichiers, impression Automatiser les tâches récurrentes (Bash, PowerShell) Administrer Microsoft 365 (Exchange Online, SharePoint, OneDrive, Teams) Gérer Entra ID (Azure AD) : identités, MFA, accès conditionnels
CDI

Offre d'emploi
Data Engineer

CGI
Publiée le
ETL (Extract-transform-load)
SGBD
SQL

35k-45k €
Nantes, Pays de la Loire
Si vous souhaitez intégrer nos équipes à Nantes et accompagner les plus grands acteurs de secteurs variés, cette annonce est susceptible de vous intéresser. Rejoindre notre communauté Data à Nantes, c’est intégrer un collectif d’experts passionnés, partager les meilleures pratiques d’ingénierie, monter en compétences sur des environnements techniques variés et contribuer à des projets à fort impact pour nos clients grands comptes. Vous intervenez chez nos clients ou au sein de nos équipes projets pour concevoir, construire et faire évoluer des plateformes de données performantes et industrialisées. Acteur clé de la chaîne de valeur Data, vous participez à la mise en œuvre d’architectures fiables, scalables et orientées performance, dans des contextes souvent menés en méthodologie agile. Fonctions et responsabilités : Sous la responsabilité d'un Chef de Projet / Scrum Master, vos principales missions sont : - Concevoir, développer et maintenir des flux d’intégration de données (ETL/ELT) - Analyser les développements réalisés et accompagner les équipes techniques afin d’optimiser la performance, la qualité et la pertinence des solutions mises en œuvre - Industrialiser les pipelines de données (déploiement, supervision, gestion des erreurs) - Garantir la qualité, la cohérence et la performance des flux en production - Collaborer avec les équipes architecture, bases de données et infrastructure - Contribuer aux bonnes pratiques Data Engineering (versioning, CI/CD, performance tuning) - Assurer la mise en place d'actions d'amélioration continue sur l'ensemble des services offerts aux clients En nous rejoignant, vous bénéficiez notamment des avantages suivants : - Offre complète de formations : techniques, métiers, développement personnel - Qualité de vie au travail : jusqu’à 3 jours de télétravail par semaine, 27 jours de congés payés, RTT, congés ancienneté et enfant malade, programme santé & bien-être - Avantages sociaux : régime d’achats d’actions, participation, PEE, Compte Epargne Temps Et bien d'autres encore !
Freelance

Mission freelance
Chef de projet Data H/F Freelance Poitiers (86)

Wekey
Publiée le
Gestion de projet

6 mois
460-500 €
Poitiers, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes chef de projet Data H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à poitiers. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage & Analyse Métier Recueillir et comprendre les besoins des Directions Métiers. Identifier les enjeux fonctionnels et les traduire en exigences claires. Animer les ateliers de conception et les comités Projet. Modélisation & Architecture Fonctionnelle Concevoir et modéliser les structures Data : Data Lake, Datamarts métiers, modèles relationnels. Définir les règles de gestion : déduplication, qualité, normalisation, RGPD… Rédaction & Spécifications Rédiger l’ensemble des livrables : contrats d’interface, spécifications fonctionnelles et techniques. Garantir la qualité, la pertinence et la cohérence documentaire. Pilotage & Coordination Organiser, suivre et orchestrer les projets Data end-to-end. Piloter une équipe transverse : Data Engineers & Data Managers. Réaliser les recettes fonctionnelles et s’assurer de la conformité. Accompagnement & Acculturation Aider les métiers à monter en compétence sur les solutions Data mises à disposition. Diffuser les bonnes pratiques, contribuer à l'amélioration continue. Participer à l’animation de la communauté Data. Engagement & Qualité Garantir le respect des engagements coûts / délais / qualité. Contribuer à l’évolution des méthodologies internes de la Data Factory.
Freelance

Mission freelance
Lead Data Scientist

Signe +
Publiée le
Big Data

12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
Freelance

Mission freelance
Data Engineer H/F

OUICODING
Publiée le

1 mois
420-500 €
Rennes, Bretagne
Missions principales -Industrialiser et optimiser les traitements de données en s'appuyant sur Dataiku (scénarios, plugins, recettes avancées...). -Mettre en place une architecture data fiable et optimisée, principalement sur des solutions AWS (S3, Redshift, le Common Data Hub Engie). -Développer des solutions techniques de collecte de la donnée via des API. -Modéliser les données nécessaires aux analyses et aux usages métiers. -Assurer la qualité, la sécurité et le monitoring des flux de données. -Collaborer avec la Data Analyst pour garantir la mise à disposition des données pertinentes. -Participer à la définition des bonnes pratiques Data et à leur diffusion au sein de l'entreprise. -Contribuer à la documentation technique et à l'amélioration continue des environnements. -Assurer une veille technologique sur les solutions de stockage et traitement des données

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6286 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous