Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 336 résultats.
CDI

Offre d'emploi
Data Scientist - (H/F)

DAVRICOURT
Publiée le

40k-45k €
Bolbec, Normandie
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans le département Seine-Maritime. À ce titre, vos missions quotidiennes seront les suivantes : - Développer en Python des algorithmes et scripts modulaires intégrables sur GCP, basés sur les modèles statistiques métiers ; - Automatiser les tâches répétitives et proposer des solutions simples, robustes et à forte valeur ajoutée ; - Mettre en place des scripts de collecte, structuration et ingestion des données issues des équipements industriels vers GCP ; - Assurer le rôle de relais technique entre les équipes métiers, l'IT et la Data Factory, tout en développant des outils de visualisation et en contribuant à l'acculturation Data des équipes locales.
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Freelance

Mission freelance
Data Engineer Python / Azure Cloud (H/F)

Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)

12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Freelance

Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)

Lùkla
Publiée le
Snowflake

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Freelance

Mission freelance
Data Analyst Confirmé

SKILLWISE
Publiée le
Data analysis

3 mois
400-550 €
Île-de-France, France
Réaliser des extractions de données et des analyses ad hoc en réponse aux besoins métiers Produire des études clients & prospects (Marketing, Offre, Jeu Responsable…) Mesurer l’impact business : Arrêt / relancement de jeux Campagnes CRM & digitales Élaborer des bilans d’activité (trimestriels / annuels) : offre, activité joueurs, parcours d’inscription Analyser les phénomènes de cannibalisation et de rémanence Participer à l’exploration de nouvelles sources de données (navigation, tracking…) Votre rôle : Traduire les données en insights clairs et actionnables Formuler des recommandations business pertinentes Garantir la cohérence méthodologique des analyses Assurer la qualité et la fiabilité des données présentées Interagir avec différents interlocuteurs métiers
CDI

Offre d'emploi
Assistant Data Analyst (H/F) - Alternance

█ █ █ █ █ █ █
Publiée le
Apache Spark
Microsoft Excel
Python

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Scrum master - 3 jours de TT H/F

TOHTEM IT
Publiée le

35k-44k €
Montauban, Occitanie
Vous êtes passionné(e) par l’agilité et souhaitez contribuer à des projets à fort impact dans le domaine de la protection sociale et des services aux assurés ? Rejoignez une organisation nationale d’envergure engagée dans la transformation digitale et l’amélioration continue de ses services. Vos missions Au sein d’équipes pluridisciplinaires, vous aurez pour rôle de : Accompagner les équipes dans l’adoption et la mise en œuvre du cadre Scrum Animer les rituels agiles (Daily, Sprint Planning, Review, Rétrospective) Faciliter la collaboration entre les équipes métiers et techniques Lever les obstacles et favoriser l’amélioration continue Promouvoir la culture agile à l’échelle des projets et des programmes Contribuer à la transformation organisationnelle et aux bonnes pratiques agiles
Freelance
CDI

Offre d'emploi
Data Analyste

OCTOGONE
Publiée le
Data analysis

1 an
Brive-la-Gaillarde, Nouvelle-Aquitaine
Basé à Cholet (49) ou Brive la Gaillarde (19) Description Principales responsabilités de l’offre : > Collecter, structurer et modéliser les données issues des différents systèmes industriels (ERP, MES, etc.) ; > Définir et construire des modèles de données adaptés aux besoins de reporting et d’analyse ; > Concevoir et maintenir des dashboards dynamiques sur Power BI (ou tout autre outil équivalent de data visualisation) afin de restituer les indicateurs clés de performance (KPI) aux équipes métiers ; > Participer à la mise en place de flux de données automatisés via des outils ETL (Talend de préférence) pour garantir la fiabilité et la disponibilité des informations ; > Accompagner les équipes opérationnelles dans la compréhension et l’utilisation des analyses produites ; > Identifier les axes d’amélioration, proposer des solutions innovantes et contribuer à la transformation digitale du site industriel ; > Rédiger la documentation des modèles, processus et outils déployés.
Freelance

Mission freelance
Cloud Automation & Data Engineering

ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance

1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Alternance
CDI

Offre d'emploi
Alternance - Data Analyst F/H (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Python
SQL

21k-23k €
Rouen, Normandie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Lead Data Architecte

Signe +
Publiée le

24 mois
50k-55k €
358-550 €
Massy, Île-de-France
Expérience de plus de 8 ans, majoritairement dans la data. Minimum 3 ans chez un acteur du retail ou chez un cabinet de conseil pour des clients du secteur. Minimum 3 ans sur des sujets Supply Chain. Excellentes capacités analytiques et statistiques, capacité à comprendre les principes de modèles data science. Très bonnes capacités dans la manipulation de grandes volumétries de données ; maîtrise d'un langage de requêtage des données (SQL, BigQuery), d'outils de datavisualisation (Tableau, Google Looker Studio) ; la maîtrise de Python et GitLab est un plus. Capacité de formalisation irréprochable. Excellente communication écrite et orale, posture impeccable & aptitude à expliquer, vulgariser et convaincre (des interactions top management dans les précédentes expériences seraient un vrai atout). Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. Capacité de prise de recul : Aptitude à évaluer les problématiques avec objectivité et à proposer des solutions d'amélioration. Capacité à respecter les délais tout en maintenant des standards élevés. Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs. Organisation, rigueur, autonomie, proactivité, persévérance
CDI

Offre d'emploi
Data Engineer GCP

K2 Partnering Solutions
Publiée le
Google Cloud Platform (GCP)

48k-57k €
Belgique
En tant que Data Engineer, vous serez impliqué(e) dans la conception, le développement et l’optimisation de solutions data modernes sur Google Cloud Platform. Vous bénéficierez : d’un accompagnement terrain (on-the-job training) , d’un encadrement par des experts reconnus , d’un environnement collaboratif mêlant équipes IT et métiers . C’est une opportunité unique de développer vos compétences tout en évoluant dans une équipe dynamique et conviviale 🌟 Pourquoi nous rejoindre ? Projet de transformation stratégique à forte visibilité Utilisation de technologies modernes et innovantes Environnement international et collaboratif Réelles opportunités d’apprentissage et d’évolution
CDI

Offre d'emploi
Data analyst F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python

Levallois-Perret, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
MLOPS / Machine Learning

SILKHOM
Publiée le
Docker
MLOps
Pandas

3 mois
France
La mission : Au sein d’une équipe technique resserrée (5 personnes), vous intervenez sur l’amélioration et l’optimisation d’algorithmes appliqués à l’analyse d’images médicales. Votre rôle consiste à analyser des modèles existants, identifier des axes d’amélioration et proposer des solutions techniques permettant d’optimiser la performance et la fiabilité des traitements. Ces algorithmes ont vocation à assister les radiologues dans l’analyse d’images et à contribuer à la fiabilité des démarches de diagnostic. Aujourd’hui, les enjeux du poste évoluent vers des problématiques de MLOps et d’industrialisation des modèles. Vos missions principales seront les suivantes : ·Améliorer et optimiser des modèles existants en Computer Vision ·Travailler sur des problématiques d’imagerie (notamment 2D type tomosynthèse) ·Mettre en place des pipelines de déploiement et de gestion du cycle de vie des modèles ·Structurer la libération des modèles (versioning, reproductibilité, fiabilité) ·Industrialiser les modèles existants dans un environnement contraint (données sensibles) ·Collaborer avec les équipes techniques pour garantir la robustesse et la performance des solutions ·Être force de proposition sur les bonnes pratiques MLOps Environnement technique ·Python ·TensorFlow ·Pandas ·MLflow ·Docker ·Traitement d’images
CDI

Offre d'emploi
Data Engineer (H/F)

Link Consulting
Publiée le
Big Data
Python
SQL

38k-40k €
Castelnaudary, Occitanie
Notre client, acteur majeur du secteur de la grande distribution, recherche son futur Data Engineer (H/F) pour son site basé dans l'Aude, à 45 minutes de Toulouse, dans le cadre du développement et de l’évolution de ses outils de pilotage. ### Vos missions Intégré à l’équipe informatique du client, vous devrez : * Centraliser et fiabiliser les données issues des outils métiers (logistique, commerce, marketing, qualité, finance). * Concevoir et déployer des architectures robustes pour collecter, structurer et exploiter des volumes importants de données. * Développer, automatiser et optimiser les flux et traitements de données, notamment depuis l’environnement SAP BusinessObjects via l’ETL BODS. * Garantir la performance, la disponibilité et la pérennité des infrastructures data. * Collaborer étroitement avec les équipes métiers et les Data Analysts afin de fournir des données fiables et exploitables pour la prise de décision. Les compétences techniques * Maîtrise des langages : Python, C/C++, Java, Perl. * Solide expérience des environnements UNIX, Linux, Solaris. * Bonne connaissance des bases de données et du SQL. * Compréhension globale des enjeux Big Data. * Atouts complémentaires : Access, VBA, Google Cloud Platform (GCP).
Freelance
CDI

Offre d'emploi
Data Engineer Streaming

KLETA
Publiée le
Apache Kafka
Apache Spark

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
3336 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous