Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 360 résultats.
Freelance

Mission freelance
Data Engineer / Data Analyst Python

Publiée le
Analyse
KPI
Python

3 ans
320 €
Marseille, Provence-Alpes-Côte d'Azur
🔍 Nous recherchons un(e) Data Analyst / Data Engineer pour renforcer une équipe existante et accompagner la transformation digitale et la gestion des données réglementaires du département Chartering , dans un contexte fortement exposé aux enjeux de conformité FUEL EU . 1) Suivre et agir pour la transformation digitale et la gestion/collecte des données réglementaires du département Chartering (état des lieux et mise en place de process) 2) Collecter les informations nécessaires pour le calcul de la compliance FUEL EU et tenir à jour les bases de données spécifiques pour ces calculs et leurs couts 3) Elaborer et comparer les différentes options pour diminuer l’exposition réglementaire 4) Contrôler et challenger les informations et projections communiquées par les armateurs et les lignes exploitantes 5) Mettre en place des outils et KPI’s permettant des prises de décisions opérationnelles 6) Négocier / coordonner avec les armateurs le timing et la nature des mesures pour compenser ou neutraliser les déficits réglementaires 7) Présenter et partager les résultats avec les lignes, plateau IMO, départements/métiers concernés
Freelance
CDI

Offre d'emploi
Lead Technical Architect – Environnement Finance de Marché (H/F)

Publiée le
Big Data
Finance
Time series

3 ans
46k-58k €
400-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Un département stratégique dédié à la recherche quantitative en finance de marché recherche un Lead Technical Architect pour renforcer ses équipes. La mission s’inscrit au cœur d’un environnement global, à forte intensité data et compute, travaillant en étroite collaboration avec des équipes Quant , IT , Research et Ops . Vous interviendrez sur des plateformes critiques liées au pricing , au risk management , aux time-series data et à la performance des systèmes de calcul. 🛠 Vos responsabilités Au sein du groupe en charge des infrastructures compute et market data, vous aurez pour missions : Repenser et optimiser l’architecture des services Compute et Histo . Améliorer la scalabilité , la performance et la résilience de l’infrastructure grid. Fournir des recommandations structurantes sur la stack haute disponibilité. Rewriting / refactoring de composants techniques ne répondant pas aux exigences de performance. Participer à la définition des frameworks pour les services de market data haute demande. Travailler au quotidien avec les équipes quant, recherche et ingénierie.
Freelance

Mission freelance
Chef.fe de projet Data

Publiée le
Animation
Dataiku
Pilotage

3 mois
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Notre client recherche un.e Chef.fe de projet Data qui sera un point pivot essentiel essentiel dans le cycle de vie de la donnée. Le consultant sera au cœur du nouveau modèle DATA, il en sera l'animateur. Les missions principales incluront : · Pilotage d'activité Management opérationnel d'une équipe composée de 2 pôles Accompagner l'équipe dans les conceptions Accompagner les PO dans l'aide à la relation métier Etre le garant des livrables avec nos clients ( entrants / sortants ) Mener à bien des ateliers métiers Mener à bien des Task force en cas d'incidents Compétences Techniques et Expertise Requises Nous recherchons un profil hybride : Pilotage & animation technique. L'appétence aux sujets techniques : DATA | IA | RPA | Data Science doit être présente.
Freelance

Mission freelance
Data Analyst

Publiée le
Cognos
Microsoft SQL Server
PowerBI

24 mois
100-530 €
Mer, Centre-Val de Loire
Télétravail partiel
Le service Modélisation des Données, dans le cadre de son activité projet et MCO autour de la restitution et l’analyse de données, recherche un Data Analyst. Le service Modélisation des Données est en charge du SI Décisionnel centré sur un Datawarehouse qui est la source de données pour les briques de : - Reporting/dataviz (Power BI, COGNOS) - DataScience : mise en oeuvre de cas d’usage IA Ce Datawarehouse est alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Le service Modélisation des Données intervient : - sur les aspects techniques des projets Décisionnel / Data. - dans la constitution de datamarts métier et la réalisation de dashboards / rapports - sur la gouvernance des données - Sur la mise en place d’outils IA Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il exécutera les missions suivantes :  Projets métier de mise en place de SI Décisionnels : modélisation de données, conception de rapports, accompagnement des utilisateurs finaux (sur la conception de rapport, leur adoption et la prise en main des modèles de données par des publishers métier).  Power BI : être le point de contact technique des utilisateurs finaux ou des Publishers de Power BI , réalisation de reporting complexes  Intervention sur un projet de migration de dataplatform : refonte de reporting COGNOS/Power BI vers superset, refonte de chaînes ETL TALEND vers Dagster, conception de datamarts. Projet en agilité. Le poste a une dimension technique mais aussi une dimension relationnelle forte autour de l’analyse des besoins, leur recette et le suivi en mode projet. La sensibilité aux problématique de gouvernance des données (contribution au dictionnaire de données d’entreprise, qualité des données) est un enjeu fort du poste.
CDI

Offre d'emploi
 Ingénieur Big Data / Bases de Données

Publiée le
AWS Cloud
BigQuery
Cassandra

40k-54k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Freelance

Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER

Publiée le
AWS Cloud
DBT
Snowflake

8 mois
600-700 €
Paris, France
Télétravail partiel
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
Freelance

Mission freelance
Data ingénieur ( H/F) - Full remote

Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)

1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Freelance

Mission freelance
Expert Azure Data Factory F/H - 3 mois

Publiée le
Azure Data Factory
ETL (Extract-transform-load)

3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
CDI
Freelance

Offre d'emploi
Data Engineer (spécialisation Snowflake)

Publiée le
Agile Scrum
Azure
Data analysis

12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Freelance

Mission freelance
PMO IA avec une gestion de chefferie de projet ponctuel (H/F)

Publiée le
Big Data
Google Cloud Platform (GCP)
IA

3 mois
400-480 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement du pôle de pilotage des projets DATA & IA, la mission consiste à coordonner et piloter des projets et expérimentations IA , tout en assurant un rôle de PMO pour le portefeuille de delivery IA . À ce titre, les responsabilités incluent : Pilotage de projets Pilotage de la prestation réalisée par un partenaire externe (éditeur) Coordination des activités internes : validation des livrables, préparation des environnements de tests, constitution des jeux de données Planification et suivi des différentes phases projet : étude, développement, intégration, tests et déploiement Organisation et coordination des travaux opérationnels avec les équipes SI et les Métiers Mise en place de la gouvernance projet et du reporting opérationnel Suivi, consolidation et communication sur l’avancement des projets Rôle PMO – Pilotage de portefeuille Animation des revues de portefeuille de delivery IA Organisation des ateliers d’arbitrage et d’analyse Mise en œuvre et maintien d’un reporting complet et régulièrement mis à jour
Freelance
CDI

Offre d'emploi
Développeur data F/H

Publiée le
ETL (Extract-transform-load)
SAP

1 an
40k-45k €
350-500 €
Ille-et-Vilaine, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Développeur data F/H pour intervenir chez un de nos clients. Contexte : Dans le cadre d’un projet structurant pour la DSI, vous intervenez sur la conception, le développement et l’optimisation des solutions décisionnelles et d’intégration de données. L’objectif : garantir la qualité, la cohérence et la traçabilité des données tout en proposant des solutions adaptées aux besoins métiers et en assurant leur intégration dans des architectures robustes et évolutives.
Freelance

Mission freelance
Data Engineer

Publiée le
Big Data
IA
Java

3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
CDI
Freelance

Offre d'emploi
Data Engineer H/F

Publiée le
AWS Cloud
Google Cloud Platform (GCP)

6 mois
Rouen, Normandie
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Freelance
CDI

Offre d'emploi
Data Scientist LCB-FT

Publiée le
Data science

3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Freelance

Mission freelance
Data / AI Engineer

Publiée le
Databricks
Git
Python

1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, Data Scientists, équipes Produit), vous interviendrez sur l’ensemble de la chaîne data & IA , de la construction des pipelines jusqu’à la mise en production et au suivi des modèles. Vos principales responsabilités : Concevoir et développer des pipelines data robustes (batch et streaming) Préparer, transformer et structurer les données pour les cas d’usage IA Entraîner, évaluer et industrialiser des modèles de Machine Learning Mettre en place le monitoring des données et des modèles Garantir la qualité, la traçabilité et la fiabilité des traitements Collaborer étroitement avec les Data Scientists et équipes produit 🛠️ Industrialisation & MLOps Mise en place des bonnes pratiques de versioning et CI/CD Industrialisation des pipelines et des modèles Contribution à la documentation technique Amélioration continue des performances et de la maintenabilité Participation aux phases de déploiement et de stabilisation
Freelance

Mission freelance
Architecte Data

Publiée le
Amazon S3
AWS Glue
DBT

6 ans
680-700 €
Paris, France
Télétravail partiel
Dans le cadre de l’accélération de sa stratégie data & omnicanale , un acteur majeur du retail / e-commerce renforce sa Data Platform afin de mieux exploiter ses données clients, ventes, logistique et marketing. Nous recherchons un Architecte Data pour accompagner les équipes et garantir une architecture performante, scalable et sécurisée, capable de soutenir de forts volumes et des usages analytiques avancés. Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists, équipes Marketing & Supply), vous interviendrez de manière transverse sur la conception et l’évolution de l’architecture Data de la plateforme. Vos principales responsabilités Définir et garantir la cohérence de la stack Data (ingestion, traitement, exposition) Assurer le respect des normes et standards d’architecture Data & Cloud Mettre en place et sécuriser les contrats d’interface entre les différentes équipes (data, applicatif, BI) Auditer l’architecture existante et proposer des axes d’optimisation (performance, coûts, scalabilité) Accompagner les équipes sur les bonnes pratiques data (qualité, gouvernance, sécurité) Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions data Participer aux phases de tests et d’intégration de nouvelles briques techniques 🛠️ Developer Experience & FinOps Contribution à l’écriture et à l’industrialisation de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et les pipelines CI/CD Définition des standards de développement, de déploiement et d’exploitation Mise en place du suivi budgétaire par équipe et par usage (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification, priorisation et pilotage des optimisations de coûts Cloud
1360 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous