Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 667 résultats.
Freelance

Mission freelance
Consultant Senior Big Data CDP/HDP

Nexius Finance
Publiée le
CI/CD
Dynatrace

1 an
440-510 €
Paris, France
Contexte : Notre client, acteur majeur du secteur bancaire, recherche un Expert CDP (Cloudera Data Platform) avec une solide expérience sur HDP (Hortonworks Data Platform). Le consultant interviendra sur l’amélioration continue des services Big Data, la gestion des incidents et la coordination des équipes techniques situées en France et en Inde. La maîtrise d’Ansible pour l’automatisation est indispensable pour optimiser l’infrastructure et les processus critiques. Responsabilités : Assurer l’amélioration continue des services sur CDP : optimisation des performances et configurations. Gérer les incidents sur HDP et CDP en production. Automatiser les processus via Ansible : mise à jour et création de playbooks pour le déploiement et la gestion des clusters. Coordonner et collaborer avec les équipes techniques en France et en Inde. Livrables attendus : Documentation technique à jour des environnements. Playbooks automatisés et opérationnels.
Freelance
CDI

Offre d'emploi
Data Engineer H/F

OBJECTWARE
Publiée le
Microsoft Power BI
Python
SQL

1 an
Tours, Centre-Val de Loire
Missions : Animation du processus (Coordination des correspondants, Suivi des données d’entrée nécessaires à l’exécution, reporting…) Administration et exploitation de l'application métier (Paramétrage, Exécution des traitements…) Support utilisateur & MCO (Assistance fonctionnelle niveau 1 & 2, Diagnostic, résolution d’incidents, escalade si nécessaire...) Planification et organisation des recettes, Formalisation des PV Création/mise à jour de fiches d’assistance, manuels utilisateurs, procédures d’ingénierie
Freelance

Mission freelance
Data Engineer Azure / Databricks

Signe +
Publiée le
Snowflake

12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Freelance

Mission freelance
Data Analyst

CAT-AMANIA
Publiée le
Databricks
Google Sheets
Looker Studio

1 an
100-550 €
Lille, Hauts-de-France
Vous serez le garant de la qualité et de la cohérence des données pour nos tableaux de bord et audits. Analyse & Modélisation : Concevoir des modèles de données (fichiers plats/CSV) à partir de sources variées et définir les règles de transformation et d'agrégation. Reporting & Visualisation : Alimenter et optimiser les tableaux de bord sous Google / Looker Studio pour assurer un pilotage efficace. Consolidation Internationale : Collecter, vérifier et uniformiser les données de formation issues de différents pays (gestion des UUID, formatage CSV standardisé). Qualité & Documentation : Mettre en place des contrôles qualité rigoureux (audit, nettoyage), documenter les processus de transformation et maintenir le référentiel des règles de gestion. Approche Analytique : Traduire les problématiques business en questions analytiques claires et proposer des recommandations actionnables.
Freelance

Mission freelance
Data engineer

CAT-AMANIA
Publiée le
CI/CD
Databricks
PySpark

1 an
100-450 €
Lille, Hauts-de-France
la data est au cœur de notre stratégie, elle guide chaque décision, de la conception du produit à l'expérience client. Notre équipe Managed tools au coeur de la Data Factory est une brique essentielle de cette mission. Organisée autour des outils de compute, orchestration et expostion, l'équipe Managed tools est chargée de mettre à disposition la stack data pour l'ensemble du groupe Decathlon et d'en assurer sa robustesse et scalabilité. Au sein de la squad Compute nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme.
Freelance

Mission freelance
AWS Platform Engineer – Environnement Data & Analytics

Comet
Publiée le
AWS Cloud

1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data & Analytics, vous rejoignez une équipe en charge de la construction et de l’évolution d’une plateforme cloud AWS. L’environnement est en pleine transformation technologique avec des enjeux forts autour de la gouvernance, la sécurité et la performance. Rôles & responsabilités Au sein de l’équipe Data & Analytics Platform : Développement et mise à jour de l’infrastructure Terraform (Infrastructure as Code) Mise en œuvre des règles de sécurité et des bonnes pratiques cloud Gestion et optimisation des environnements AWS Administration du datalake (stockage, lifecycle policies, gouvernance data) Gestion des VPC, NACLs, IAM Conception et maintenance des pipelines CI/CD Déploiement de microservices conteneurisés (EKS / ECS) Monitoring & supervision Documentation technique et accompagnement des équipes Compétences requises (minimum 2 ans d’expérience AWS) Cloud & Data Exploitation d’un datalake AWS S3 (schemas, lifecycle policies) Gouvernance & sécurité des données Performance & optimisation des coûts DevOps / Infra Terraform CI/CD GitHub / GitHub Actions Infrastructure as Code Docker Monitoring Développement Python APIs REST (event-driven apprécié)
CDI

Offre d'emploi
DATA ANALYST - PILOTAGE COMMERCIAL F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

Villejuif, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist - (h/f)-JLA F/H - Système, réseaux, données

█ █ █ █ █ █ █
Publiée le

69007, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Product Owner Data & GenAI (DataLab)

Signe +
Publiée le
GenAI

12 mois
400-560 €
Vélizy-Villacoublay, Île-de-France
Contexte Un DataLab transverse structure et pilote des produits Data (BI, Analytics, Data Science) tout en développant des initiatives en IA Générative. L’enjeu est double : Industrialiser un portefeuille de produits Data Structurer et accélérer les usages GenAI à l’échelle de l’organisation Objectif principal Piloter le portefeuille Data comme un véritable produit et animer la stratégie GenAI. Rôle proche d’un Lead Product Data / Head of Data Product , pas d’un PO “exécutant”. ResponsabilitésPilotage produits Data Identifier et formaliser les besoins fonctionnels Construire et maintenir la roadmap Data Prioriser selon valeur métier Arbitrer capacité vs demandes Animer comités produits/projets Suivre adoption et valeur délivrée Interface principale entre métiers, IT et équipes Data Structuration GenAI Recenser et structurer les cas d’usage GenAI / POC Identifier les opportunités à forte valeur business Mettre en visibilité les solutions existantes Promouvoir les usages IA auprès des métiers Assurer une veille technologique continue (LLM, RAG, outils IA) Animer ateliers, communautés et acculturation Compétences attendues Product management confirmé Pilotage de portefeuille / roadmap stratégique Culture Data / BI solide Connaissance IA générative (LLM, RAG, cas d’usage métier) Capacité à structurer des initiatives transverses Soft skills clés Leadership d’influence Vision stratégique Forte autonomie décisionnelle Capacité à embarquer des équipes non techniques Esprit entrepreneurial
Freelance

Mission freelance
Data Scientist / ML Engineer (Credit Risk & GenAI)

Codezys
Publiée le
API
Azure
Data science

12 mois
Lille, Hauts-de-France
Dans le cadre de sa feuille de route en intelligence artificielle, ce client s'engage à développer et accélérer l’intégration des technologies de Machine Learning , Deep Learning , NLP (traitement du langage naturel) ainsi que des solutions d’IA Génératives . L’objectif est de maximiser l’exploitation des données, d’optimiser les processus opérationnels et d’améliorer l’expérience client. Objectifs et livrables Credit Risk Scoring Concevoir et optimiser, pour les équipes Risque et Validation, des modèles de scoring d’octroi et de comportement, en explorant des approches innovantes. Assurer la stabilité du coût du risque en entraînant et déployant ces solutions, tout en mettant en place un monitoring efficace de la dérive des modèles. Collaborer étroitement avec les experts métier et les équipes Risque pour garantir la pertinence et l’efficacité des solutions développées. Solutions d’Intelligence Artificielle Optimiser l’expérience client en intégrant en temps réel nos modèles d’IA via des API dans les parcours digitaux (ex. scoring en temps réel, personnalisation des offres de paiement, etc.). Participer à l’architecture technique pour une intégration fluide des modèles, en suivant les meilleures pratiques en matière de développement (notamment Cloud et MLOps). Collaborer avec les équipes Produit et IT afin d’industrialiser et déployer ces solutions à grande échelle. Intelligence Artificielle Générative (GenAI) Transformer les processus internes (Marketing, Audit, Risque, etc.) ainsi que la relation et le support client, en prototypant puis en déployant en production des solutions d’IA Générative sous forme d’agents (ex. LLM, RAG). Automatiser l’octroi de crédits, réaliser des analyses documentaires complexes et faciliter l’interaction avec la clientèle en mettant en place des architectures orientées agents. Évaluer, optimiser et suivre les performances des agents (cohérence, diversité, utilisation de LLM en tant que juge, etc.).
Freelance

Mission freelance
Data Engineer Azure Python

Cherry Pick
Publiée le
Azure
Python
SQL

12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Freelance

Mission freelance
Data Analyst Expert Power BI

Gentis Recruitment SAS
Publiée le
Data analysis
Microsoft Power BI
Power Query

20 jours
Paris, France
Contexte de la mission Dans le cadre d’une démarche d’amélioration continue, un grand groupe du secteur de l’énergie souhaite réaliser un audit complet de son environnement Power BI , afin d’évaluer : La performance des jobs de rafraîchissement La fiabilité des datasets et modèles La qualité de la gouvernance Power BI La conformité aux meilleures pratiques Microsoft La scalabilité et la pérennité de l’architecture existante L’objectif est d’identifier les axes d’optimisation et de proposer une feuille de route claire et priorisée. Périmètre de la mission L’audit couvrira l’ensemble de la chaîne Power BI : Scheduled Refresh (Jobs) Datasets / Semantic Models Sources de données & Gateway Transformations Power Query / Dataflows Modélisation DAX & relations Rapports & dashboards Capacity management / Workspaces / Gouvernance Performance Analyzer & outils de monitoring Travaux attendusAnalyse des jobs Power BI Durées d’exécution Échecs récurrents Dépendances et enchaînements Consommation de ressources Analyse des logs d’erreurs Évaluation des modèles Structure des tables Types de stockage (Import / DirectQuery / Dual) Optimisation des mesures DAX Cardinalité & performance du modèle Analyse des sources de données Performance des requêtes Gouvernance des connexions Sécurité & gestion des credentials Optimisation Power Query (M) Gouvernance & sécurité Organisation des Workspaces Gestion des accès Row-Level Security (RLS) Sensitivity Labels Bonnes pratiques Microsoft Plan d’amélioration Recommandations techniques Quick wins & chantiers structurants Architecture cible Roadmap d’évolution Livrables attendus Rapport d’audit complet et structuré Liste priorisée des points critiques Plan d’optimisation détaillé Documentation des bonnes pratiques adaptées au contexte Présentation de restitution aux équipes
CDI
Freelance

Offre d'emploi
Data Analyste

VISIAN
Publiée le
Dataiku
Tableau software

1 an
40k-45k €
400-560 €
Paris, France
Contexte Au sein du département Artificial Intelligence & Innovation, l'équipe Analytics exploite les données et fournit des tableaux de bord sur l'adoption et la consommation des offres du département. Ceci à destination du management, des offering managers, et des clients de ces offres. Ces tableaux de bord s'appuient sur un pipeline de collecte et de transformation de la donnée organisé de la façon suivante : Collecte des données source : scripts python hébergés dans le cloud interne Stockage des données collectées : base postgreSQL et COS (fichiers Json et parquets) Préparation / enrichissement des données : pipelines Dataiku Production des Tableaux de bord : Tableau Server La fréquence de mise à jour des dashboards varie selon les sources (quotidienne, hebdomadaire et mensuelle). Descriptif des Prestations et des Livrables Le prestataire accompagnera l'équipe dans la préparation, la visualisation et l'analyse des données liées au suivi d'adoption et de consommation des offres IA du département (LLM as a service, Raag as a service, Robot automation, Gen AI, etc). Production de dashboards Tableau Exploration des données et mise en place de KPI pertinents, en concertation avec le Top management d'A3I et les offering managers Création de dashboards permettant un suivi de l'adoption, de l'usage et de la performance des offres Optimisation des dashboards existants (lisibilité, structuration) Préparation de données Transformation et enrichissement des données via Dataiku Exploration et manipulation SQL sous PostgreSQL Contribution à la gestion de la qualité des données
Freelance
CDI

Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)

CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python

6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
CDI
Freelance

Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD

Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud

5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Freelance

Mission freelance
Data Engineer expert sur Snowflake et DBT

Nicholson SAS
Publiée le
DBT
Snowflake
SQL

6 mois
500 €
Paris, France
Mon client recherche un Data Engineer expert sur Snowflake et DBT pour rejoindre ses équipes basées à Paris , avec une présence impérative de 3 jours par semaine sur site . La mission débutera dès que possible pour une durée initiale allant jusqu’au 30 juin 2026 . Le taux journalier maximum est fixé à 500 euros . Dans un contexte de modernisation et d’optimisation de la plateforme data, l’expert interviendra pour structurer et organiser l’environnement Snowflake , définir et diffuser les bonnes pratiques de développement ainsi que mettre en place les standards de qualité et de performance . Il accompagnera les équipes techniques dans l’ adoption de ces standards et s’assurera de la cohérence des modèles de données et des pipelines existants. Le profil recherché dispose de plus de 6 ans d’expérience en ingénierie data et justifie d’une excellente maîtrise de Snowflake, DBT et SQL . Une aisance en anglais est indispensable pour évoluer dans un environnement international. Ce rôle stratégique allie vision technique, rigueur et pédagogie afin de garantir la robustesse et la scalabilité des solutions data au sein du groupe.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1667 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous