Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 635 résultats.
Freelance

Mission freelance
Data analyst - Alteryx / Power BI

Publiée le
Alteryx

12 mois
600 €
Île-de-France, France
Télétravail partiel
Notre Client bancaire recherche un consultant Data analyst (H/F) pour intervenir au sein d'une équipe de la Direction Finance traitant les besoins liés aux reportings règlementaires Finance et Risques, à savoir industrialisation de processus métiers et création de reportings automatisés. La mission interviendra sur différents processus (risques ou finance) en mode support, évolution et surtout projet : - Création de tableaux de bord sur Power BI - Industrialisation de processus métiers par le développement de workflows Alteryx et leur déploiement sur Alteryx Server - Création d’applications à l'aide de PowerApps. - Accompagner les équipes Finance et Risques dans l’automatisation de leurs reportings - Participer à des projets transverses Finance/Risques en mode projet, évolution ou support Environnement : Power BI, Alteryx, SSIS, SSAS, SQL Server, Sharepoint, PowerApps, Power Automate.
Freelance

Mission freelance
Data steward/ Data specialist

Publiée le
Data analysis
Data governance
Data visualisation

6 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
La mission principale du Data Steward/Data specialist sera de transformer la vision du responsable du domaine commercial en actions quotidiennes. Votre rôle s’inscrit dans le cadre d'une fusion de deux entités et donc de l’unification des processus de vente soutenu par un CRM commun et un catalogue produit unifié soutenu par le PIM ( SAP/Salesforce ). Vous serez positionné en priorité sur la partie produit. Cette mission s'articule donc autour des piliers suivants : Data Gouvernance : Aider le responsable des processus métier de l'équipe Excellence commerciale à définir les actifs de données. Comprendre et analyser les points faibles commerciaux en termes de gestion des données (en mettant l'accent sur les matériaux, les clients et les prix) Mettre en place un plan de remédiation et le communiquer Avec l'aide des équipes opérationnelle et commerciale, définir les règles et les contrôles de qualité à mettre en place dans les solutions commerciales afin de garantir la fiabilité des données (intégrité, exhaustivité, accessibilité...) Garantir les données commerciales : documentation adéquate dans le catalogue de données, définir, suivre et partager les indicateurs clés de performance (KPI) concernant l'état et l'évolution de la qualité des données, l'utilisation des données dans le domaine commercial, etc. Maîtrise/Culture des données : Participer à la démocratisation des données en formant et en animant tous les utilisateurs commerciaux des données Communiquer largement sur les applications de reporting « officielles » Partager les règles de qualité à respecter par l'équipe opérationnelle 3. Analyse des données : Aider les équipes commerciales à analyser les données, identifier les tendances, les modèles et les opportunités d'amélioration commerciale. Le Data Steward/Data specialist sera en étroite collaboration avec : Business Process Managers : en charge de la gestion du catalogue de produits, services et options ; gestion de l'entonnoir de vente ; gestion des devis, gestion des demandes des clients, gestion des tarifs. Force commerciale : responsable produit PIM, SALESFORCE et base de données tarifaire
CDI

Offre d'emploi
Data Architect - SI Energie H/F

Publiée le

50k-60k €
France
Télétravail partiel
Contexte de la mission : Dans le cadre d'un programme de transformation Data d'envergure, notre client souhaite renforcer son équipe Data avec un Data Architect expérimenté. La mission s'inscrit au sein d'un environnement regroupant des équipes de transformation, d'ingénierie et de développement, avec un fort niveau d'interaction entre les directions métiers et les équipes techniques. Le consultant interviendra dans un contexte structuré autour d'une plateforme Data moderne (Data Lake, Data Warehouse, services de traitement & de gouvernance), et contribuera activement à la définition, l'évolution et la cohérence de l'architecture Data globale. Responsabilités : Cadrer, concevoir et sécuriser l'ensemble de la chaîne de valeur Data ; Garantir la cohérence, la performance et la qualité des modèles et flux de données ; Etre garant des bonnes pratiques d'architecture ; Participer aux choix technologiques et contribuera à la roadmap des services Data ; Assurer la promotion des services Data ; Participer à la cartographie et à la gouvernance des usages.
Freelance

Mission freelance
Expert DATA Gouvernance

Publiée le
Data governance
Gouvernance

6 mois
550-620 €
Île-de-France, France
Télétravail partiel
TEKsystems accompagne son client dans la recherche d'un(e) Expert(e) Gouvernance DATA : Dans le cadre d’un programme de transformation Data , nous lançons un chantier stratégique de gouvernance des données . L’objectif est de définir un cadre de modernisation de la gouvernance Data , en lien avec les enjeux de valorisation des données, de structuration des rôles et responsabilités, et de mise en place de processus robustes. L’expert sera intégré à une équipe projet pilotée par notre direction , en étroite collaboration avec les parties prenantes métiers et IT.
Freelance
CDI

Offre d'emploi
Data Engineer Junior (H/F)

Publiée le
Apache Spark
Databricks
Python

3 ans
35k-40k €
350-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Intégré(e) au sein d’une équipe Agile, vous participerez à : La conception et la mise en place de pipelines ETL performants L’ingestion, la transformation et la qualité des données La gestion et l’optimisation des flux Data dans un environnement Azure / Databricks / Spark L’automatisation des traitements et le monitoring des workflows La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels
Freelance
CDI

Offre d'emploi
DATA SCIENTIST

Publiée le
Azure
Databricks
Python

3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client nous recherchons un Data Scientist 👽. Contexte Notre client a misé sur une plateforme Big Data sur Microsoft Azure pour centraliser ses flux data, stocker des pétaoctets de données dans des Data Lakes et industrialiser des cas d’usage IA stratégiques. La Data Science joue un rôle clé, notamment dans les projets de maintenance prédictive, d’information voyageurs et d’optimisation opérationnelle. Missions principales Développer des modèles de Machine Learning et d’IA sur des volumes massifs de données stockées sur Azure (Data Lake, Data Factory, Databricks). Construire des features temporelles , utiliser des séries temporelles ou des méthodes statistiques avancées pour modéliser des phénomènes (ex : retards, maintenance). Analyser les données météorologiques, de trafic, IoT, capteurs ou autres sources pour créer des prédictions (ex : retards, pannes) ou des systèmes d’alerte. Industrialiser les pipelines d’entrainement et d’inférence sur Azure (notamment via Azure Databricks, Azure ML, etc.). Monitorer les performances des modèles, mettre en place des métriques qualité, des alertes, des feedback loops. Collaborer avec les équipes infrastructure / Data Engineering pour garantir la scalabilité et la gouvernance des flux data. Accompagner les équipes métier (opération, maintenance, transport, marketing) dans l’exploitation des modèles prédictifs. Documenter les modèles, écrire des rapports, créer des visualisations et restituer les résultats de manière pédagogique. Cloud Azure : Data Lake, Data Factory, Databricks. Big Data : Spark (Scala ou Python) pour traitement distribué. Langages : Python (pandas, scikit-learn, ML frameworks), SQL / T-SQL. Machine Learning / IA : régression, classification, séries temporelles, modèles statistiques, ou algorithmes supervisés / non supervisés. Data Engineering / Pipeline : connaissance des pipelines ETL/ELT, ingestion de données, feature engineering. MLOps : pipelines de déploiement, scoring, orchestration, monitoring, versioning des modèles. Gouvernance des données : qualité, sécurité, catalogage. Architecture des données : conception de schémas, datalakes, modélisation. Compétences transverses Esprit analytique et méthodique . Capacité à vulgariser des concepts complexes auprès des équipes métier. Autonomie, rigueur, curiosité et force de proposition. Aisance relationnelle et collaboration interdisciplinaire (Data, produit, exploitation). Capacité à prioriser et structurer le travail sur des sujets long terme. Profil recherché Formation : Bac+5 (informatique, data, maths, statistique, IA…). Expérience : minimum 3 à 6 ans en data science / machine learning, idéalement sur des environnements cloud / Big Data. Langues : bon niveau d’anglais technique. Atout : expérience antérieure dans le transport, l’IoT, la maintenance, ou de lourdes infrastructures data.
Freelance

Mission freelance
développeur Rust

Publiée le
Azure Data Factory
Rust

3 mois
400-550 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail 100%
* Full remote possible, avec déplacements ponctuels à prévoir (région Aix-en-Provence). Nous recherchons pour notre client, un acteur majeur de l’e-commerce en forte croissance, un(e) développeur(se) Rust confirmé(e) à senior pour renforcer une équipe technique en pleine transformation. L’entreprise amorce une modernisation progressive de son système d’information (legacy C#.NET & PHP). L’objectif est de migrer les fonctionnalités critiques vers un nouveau socle moderne, scalable et robuste, basé sur Rust. Intégré(e) au sein d’une équipe à taille humaine (4 développeurs) fonctionnant en mode Agile (sprints de 2 semaines, daily meetings), vous contribuerez à la maintenance évolutive et à l’optimisation de nos solutions de gestion de flux. Ces solutions, développées en no code à l’aide d’Azure Data Factory et de Logicap, permettent la génération automatisée de fichiers CSV en vue du transfert de référentiels entre différents systèmes d’information. Vos missions : - Contribuer à la maintenance des flux existant - Réaliser des refontes des solutions existantes no code vers du Rust - Contribuer aux migrations fonctionnelles du legacy vers le nouveau socle Rust. - Revoir et challenger les bases de données et workflows existants. - Collaborer étroitement avec le lead développeur et les autres membres de l’équipe pour sécuriser la réussite des projets.
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
BigQuery
Docker
Domain Driven Design (DDD)

1 an
10k-60k €
100-550 €
France
Télétravail partiel
Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data
Freelance

Mission freelance
DATA ARCHITECTE GCP

Publiée le
Google Cloud Platform (GCP)

3 mois
400-650 €
Paris, France
· Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation
Freelance
CDI

Offre d'emploi
Business Analyst ERP / D365 Finance

Publiée le
ERP
Microsoft Dynamics
Power Automate

6 mois
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst ERP Finance (Microsoft Dynamics 365) confirmé pour rejoindre une équipe IT dédiée au domaine Finance dans un environnement international. Vos missions principales : Recueillir, analyser et documenter les besoins métiers auprès des équipes Finance. Rédiger les spécifications fonctionnelles et participer à la conception des solutions. Accompagner les chefs de projet dans la mise en œuvre des évolutions ERP. Élaborer les plans de tests et piloter les UAT . Former et accompagner les utilisateurs clés. Contribuer à l’amélioration continue des processus et outils Finance. Compétences requises : Maîtrise confirmée d’un ERP Finance – Microsoft Dynamics 365 (D365) . Bonne connaissance des processus comptables et de contrôle de gestion . Connaissances en workflow / Power Automate et reporting électronique appréciées. Notions de gestion de projet (planification, suivi, coordination). Anglais professionnel impératif.
Freelance

Mission freelance
Data Architecte (Secteur Energie / Industrie)

Publiée le
Apache Airflow
Apache Spark
Architecture

12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Freelance
CDI

Offre d'emploi
DATA ENGINEER Python

Publiée le
Python
Terraform

6 mois
40k-45k €
380-470 €
Boulogne-Billancourt, Île-de-France
Nous sommes à la recherche deux consultants de haut niveau spécialisés en Data Engineering, disposant d’une expertise approfondie dans les technologies Python, Data, GenAI, AWS (Kinesis, S3, EMR, etc.), Airflow, Terraform, GitLab CI/CD, Python ainsi qu’une solide maîtrise de SQL, Snowflake et les architectures Data Streaming. Une expertise en Scala et Spark serait fortement appréciée. Il sera chargé de concevoir et développer des pipelines de données, développer sur des chatbots AI dans un environnement cloud tout en contribuant activement à la fiabilité, l’automatisation et la scalabilité de notre plateforme data.
Freelance

Mission freelance
Consultant AMOA MDM / Gouvernance de la donnée

Publiée le
Data governance
Data management
Master Data Management (MDM)

6 mois
400-800 €
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de son Data Office, un groupe international du secteur industriel engage un projet de mise en place d’un Master Data Management (MDM) visant à fiabiliser et centraliser les référentiels de données (clients, fournisseurs, produits…). Ce programme, piloté par le Chief Data Officer rattaché à la Direction Financière, s’inscrit dans une dynamique de montée en maturité data et de mise en conformité réglementaire liée à la dématérialisation des factures prévue en 2025. Le consultant interviendra sur: Coordination entre les équipes métiers et techniques, Structuration de la gouvernance de la donnée, Participation aux ateliers de cadrage et de conception, Support à la mise en œuvre et au déploiement de la solution.
Freelance

Mission freelance
Administrateur de plateforme Big Data

Publiée le
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)

3 ans
Paris, France
Télétravail partiel
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.
Freelance

Mission freelance
Consultant IDR – Data Replication & Kafka (H/F)

Publiée le
Apache Kafka

5 jours
France
Télétravail 100%
Nous recherchons un consultant senior pour accompagner l’évolution d’un modèle de réplication de données vers une architecture Publish & Subscribe dans un environnement IBM. Missions principales : Analyser l’architecture de réplication existante. Configurer et optimiser CDCRE for Kafka . Paramétrer les User Exit et propriétés Kafka. Assurer la publication au format key/value. Stabiliser la chaîne de réplication et documenter les bonnes pratiques. Conseiller sur les évolutions cibles et les modèles de réplication adaptés.
Freelance
CDI

Offre d'emploi
PMO IT (H/F)

Publiée le
Big Data
Gestion de projet

3 ans
40k-45k €
400-460 €
Île-de-France, France
Pour notre client grand compte du secteur bancaire, nous recherchons un PMO / Chef de Projet confirmé afin d’accompagner les évolutions réglementaires du dispositif Big Data de stress tests Risque. La mission couvre : • Les projections des paramètres de risque basées sur les variables macroéconomiques • Les simulations mesurant l’impact des chocs sur le coût du risque et les provisions • La mise en conformité du dispositif avec les exigences réglementaires et prudentielles Le consultant interviendra au sein de l’équipe Stress Test Risk SI, en coordination avec les équipes Data, Risk Modeling, IT et Architecture. Missions • Organiser, préparer et animer les instances de gouvernance (COPIL, COPROJ, comités transverses) • Piloter l’état d’avancement des projets : KPI, indicateurs, tableaux de bord, reporting d’avancement • Assurer le suivi du planning, de la charge, du budget et de la qualité des livrables • Identifier et analyser les risques projet, définir les plans d’actions et suivre leur exécution • Coordonner les interactions avec les équipes Stress Test, Data Engineering, Modélisation et Architecture • Contribuer à la structuration et à la cohérence de la documentation opérationnelle et réglementaire • Participer aux échanges offshoring/onshoring et assurer la cohérence des travaux • Préparer les éléments attendus dans le cadre des audits internes et externes • Accompagner la mise en place ou l’amélioration des pratiques Agile au sein des équipes • Intervenir sur le pilotage technique lié au dispositif Big Data (Hadoop, Cloudera, Hortonworks, Databricks, GCP Dataproc/BigQuery, AWS EMR/Redshift, Azure Synapse/HDInsight)
2635 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous