Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 587 résultats.
Freelance

Mission freelance
Data Engineer confirmé

Publiée le
Azure Data Factory

6 mois
400-500 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
Freelance

Mission freelance
Développeur Python / Vue 3 – Data & Dashboards

Publiée le
Dash
FastAPI
Pandas

3 mois
400-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Développeur Python / Vue 3 (TypeScript) pour renforcer l’équipe en charge du développement d’ outils d’analyse et de dashboards data dans un environnement technique moderne et exigeant. 🎯 Contexte de la mission : Vous participerez à la conception, au développement et à l’amélioration continue d’applications et de dashboards interactifs permettant de transformer des données complexes en insights clairs, rapides et utiles . 🧩 Stack technique principale : Backend : Python 3.13, Pandas (obligatoire), FastAPI, Dash, Streamlit, Bokeh, Polars (bonus) Frontend : Vue 3, TypeScript, Vuetify Tests : Pytest, Vitest, tests end-to-end (bonus) ⚙️ Vos missions principales : Traiter, transformer et structurer les données avec Pandas . Développer des dashboards interactifs avec Dash ou Vue.js . Concevoir et maintenir des APIs performantes avec FastAPI . Garantir la qualité du code : tests, revues, documentation et bonnes pratiques. Contribuer à l’optimisation continue des performances et de l’expérience utilisateur.
Freelance

Mission freelance
Data Engineer Python AWS

Publiée le
AWS Cloud
Python

12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment :  Collecter les exigences des métiers et des utilisateurs  Concevoir l'architecture de données  Concevoir les pipelines de données  Mettre en production l'architecture  Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Freelance

Mission freelance
Data Engineer GCP

Publiée le
DBT
Google Cloud Platform (GCP)

18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Freelance

Mission freelance
Data Analyst / BI Analyst

Publiée le
Data analysis
Microsoft Power BI

6 mois
Paris, France
Télétravail partiel
Contexte de la mission: Dans le cadre d’un projet stratégique de transformation data au sein d’un acteur majeur du secteur bancaire, nous recherchons un Data Analyst / BI Analyst capable d’intervenir sur la modélisation, la visualisation et l’analyse des données métier. L’objectif de la mission est d’optimiser la qualité, la fiabilité et la mise à disposition des données analytiques pour les directions métiers (finance, risque, marketing). Responsabilités principales: · Collecter, nettoyer et modéliser les données issues de différentes sources (internes et externes). · Concevoir et maintenir les tableaux de bord décisionnels sur Tableau et Dataiku . · Développer et maintenir les modèles BI afin de répondre aux besoins métiers (finance, risque, opérations). · Identifier les Data Issues et assurer le suivi de leur résolution. · Accompagner les utilisateurs métier dans l’interprétation et l’exploitation des dashboards. Stack technique: · BI & Data Visualisation : Tableau, Power BI (apprécié) · Data Science / Workflow : Dataiku, SQL, Python (optionnel) · Modélisation & Gouvernance : Data Warehouse, DataCube, Data Modeling (dimensionnel, relationnel) · Base de données : Oracle, Snowflake ou équivalent · Environnement Cloud : AWS (S3, Redshift, Glue, Lambda, etc.) Profil recherché: · Minimum 3 ans d’expérience en tant que Data Analyst ou BI Analyst. · Bonne maîtrise des outils de visualisation et de modélisation ( Tableau, Dataiku, SQL ). · Connaissance du secteur Banque / Finance fortement appréciée. · Expérience dans un environnement AWS est un vrai plus. · Capacité à comprendre les enjeux métiers et à vulgariser les insights auprès des décideurs. · Bon niveau de communication et autonomie dans la gestion de projet data. Informations complémentaires: · Localisation : Île-de-France (hybride possible) · Démarrage : ASAP
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Freelance

Mission freelance
Data Analyst

Publiée le
Data Lake
Data visualisation
Dataiku

2 mois
250 €
Nantes, Pays de la Loire
Télétravail partiel
Compétences techniques indispensables : Maîtrise de SQL et Dataiku (indispensable). Bonne connaissance des environnements Big Data (type Data Lake, Hive, Impala, Spark…). Maitrise des bases du web marketing Connaissance des outils de dataviz : Digdash, Qlik Sense, Power BI, etc. Maîtrise de Piano Analytics ou d’un outil équivalent de web analytics est un plus. Compréhension des enjeux liés à la qualité, à la structuration et à la gouvernance de la donnée. Compétences fonctionnelles : Capacité à analyser, synthétiser et vulgariser des résultats complexes. Sens de la rigueur, de l’autonomie et de la curiosité. Excellentes aptitudes à travailler en équipe et à interagir avec des interlocuteurs variés (techniques et métiers).
Freelance
CDI

Offre d'emploi
Cybersécurité gouvernance / Cybersecurity Officer

Publiée le
Big Data
Cybersécurité

1 an
40k-45k €
400-600 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre du Group Data CISO vis à vis de l'évolution de la stratégie relative à la sécurité de la DATA en étant l'interlocuteur privilégié des différentes fonctions ayant des responsabilités vis à vis de Data. Il est un élément clé dans la préparation et l'organisation des "Group Data Steering Committee" Missions principales Interaction avec l'ensemble des parties prenantes pour définir les priorités en termes d'exigences cyber autour de la Data
Freelance

Mission freelance
TRANSVERSAL DATA PRODUCT OWNER H/F

Publiée le
BI
Data visualisation

2 ans
400-500 €
Annecy, Auvergne-Rhône-Alpes
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un TRANSVERSAL DATA PRODUCT OWNER H/F à Annecy, France. Fluent en anglais (contexte international) ! Responsabilités principales Piloter la définition de la feuille de route et la planification des sprints en collaboration avec les Product Owners de la plateforme Data/BI, en étant responsable de la fixation de délais, en tenant compte des priorités métiers et de la capacité réelle de l’équipe. Mettre en place et consolider des réunions récurrentes avec les Product Owners de la plateforme Data/BI et les experts pour garantir l’alignement interne et l’adoption du cadre produit, tant dans les activités de livraison que de découverte. Animer des sessions de découverte pour recueillir les besoins métiers, rédiger des user stories, challenger et prioriser les activités tout en proposant proactivement des solutions et en évaluant leur faisabilité avec les Product Owners de la plateforme Data/BI. Gérer les comptes-rendus de réunion, assurer le suivi avec les métiers et soutenir les équipes lors de la validation et des tests des données. Assurer le suivi avec les parties prenantes sur l’état d’avancement des livrables, la communication et l’adoption des différents produits data pour alimenter les améliorations continues.
CDI

Offre d'emploi
DevOps / Architecte Azure

Publiée le
Azure Data Factory
Azure DevOps Services
Azure Synapse

Paris, France
Télétravail partiel
1. Présentation de Codezys Codezys est une entreprise innovante spécialisée dans la conception et le développement de solutions numériques sur mesure. Notre mission est de soutenir nos partenaires dans leur transformation digitale à travers des architectures cloud performantes, sécurisées et scalables. Dans le cadre de notre croissance, nous lançons un appel à candidature pour le recrutement d’un DevOps / Architecte Azure confirmé (H/F) en CDI . 2. Objet de l’appel à candidature Le présent appel d’offres a pour objet le recrutement d’un ingénieur DevOps expérimenté ayant une solide expertise sur Microsoft Azure , afin de renforcer notre pôle d’ingénierie cloud et d’architecture logicielle. 3. Description du poste Intitulé du poste : DevOps / Architecte Azure Type de contrat : CDI Expérience requise : Minimum 5 ans d’expérience dans un environnement similaire. Lieu de travail : Siège Codezys / Télétravail hybride Prise de poste : Dès que possible 4. Missions principales Concevoir et maintenir des architectures cloud Azure performantes et résilientes. Automatiser le déploiement des infrastructures et applications (IaC) via Terraform , Bicep ou ARM Templates . Gérer les pipelines CI/CD (GitHub Actions, Azure DevOps, Jenkins, etc.). Assurer la supervision , la sécurité , et la haute disponibilité des environnements. Collaborer étroitement avec les équipes de développement pour favoriser une culture DevOps. Participer à la définition des bonnes pratiques en matière de cloud, sécurité et monitoring. Proposer des évolutions d’architecture et des optimisations coûts/performance.
Freelance
CDI

Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)

Publiée le
Apache Kafka
AWS Cloud
Big Data

12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Freelance

Mission freelance
Consultant(e) Data Privacy & Compliance

Publiée le

3 mois
390-450 €
Paris, France
Télétravail partiel
Métier : Pilotage de projet ou de programme Fonction : Consultant Spécialités technologiques : Conduite du changement RGPD Cybersécurité Gestion des projets Migration de données Type de facturation : Assistance Technique (facturation au taux journalier) Compétences : Technologies et Outils : Amazon Méthodes / Normes : Adapter Soft skills : Autonomie, Rigueur Langues : Anglais Secteurs d'activités : Assurance Description de la prestation : Le consultant intervient pour renforcer la gouvernance et la conformité des données personnelles dans un environnement international. Il soutient l’équipe Data Privacy dans la mise en œuvre des politiques de protection des données, la gestion des projets de conformité et la coordination transversale entre entités. Principaux axes d’intervention : Gouvernance et conformité : Adapter et déployer les politiques internes selon la réglementation (RGPD, etc.) Maintenir le registre de traitement et assurer la conformité documentaire Contribuer aux contrôles permanents et suivre les audits internes Participer aux comités de gouvernance et faire le reporting Accompagnement des projets et support aux équipes : Apporter un appui opérationnel sur projets liés aux données personnelles (nouveaux produits, migrations, IA, cloud) Réaliser ou contribuer aux Data Privacy Impact Assessments (DPIA) et évaluations de conformité Soutenir la due diligence et évaluation fournisseurs (Microsoft, Amazon, Cyber) Participer à la distribution des produits Data Privacy Faire interface avec les équipes gestion des incidents et demandes d’accès Transformation et conduite du changement : Accompagner la montée en maturité sur Data Privacy Contribuer au déploiement de la plateforme OneTrust (migration, paramétrage, intégration) Promouvoir bonnes pratiques et optimiser les processus
CDI

Offre d'emploi
Architecte Data Expérimenté

Publiée le
Big Data
Cloudera
Teradata

3 ans
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de l'équipe Socles Data pour un grand acteur bancaire, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plateformes DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux réflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modernisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....).
Freelance

Mission freelance
CHEF DE PROJET MOVE TO CLOUD VERS AZURE

Publiée le
Azure
Chef
Cloud

24 mois
375-750 €
La Défense, Île-de-France
Télétravail partiel
Nous recherchons plusieurs profils seniors, avec une bonne connaissance du Cloud AZURE techniquement, mais surtout avec une casquette Gestion de projet/pilotage pour cadrer et suivre les sujets de migration vers le Cloud. CONTEXTE vous intégrez une équipe programme à taille humaine en charge du programme Move to Cloud. Le programme Move to Cloud est un des programmes majeurs de la transformation de la DSI. Ses principaux objectifs sont la mise en conformité de l'ensemble des applications centrales et locales avec de nouveaux standards IT et cybersécurité ainsi que de migrer les applications éligibles vers le cloud Microsoft Azure. Ce programme a été initié début 2023 et est actuellement à la fin de la phase pilote. Intégrant un périmètre d'environ 550 applications (centrales et locales), la migration vers Azure devra passer en mode industrialisée pour compléter cette transformation majeure d'ici à fin 2024. 1. MISSION ET RESPONSABILITÉS En tant que Chef de Projet Move to Cloud sur la plateforme Azure, vous serez responsable de la gestion du processus de migration des applications et des services vers Azure. Vous travaillerez en étroite collaboration avec les équipes techniques ainsi que les parties prenantes métier pour garantir le succès des projets de migration. Dans le cadre de cette mission, vos activités s'articuleront notamment autour des thématiques suivantes : Planification et Gestion de Projet : Élaborer des plans de migration détaillés, en tenant compte des dépendances et des contraintes. Coordonner et superviser la mise en œuvre des projets de migration dans le respect des délais et des budgets établis. Piloter le provisionnement (priorisation, respect des délais) des environnements et composants Azure par l'équipe d'Ingénieurs Azure Analyse des Besoins : Travailler en étroite collaboration avec les équipes métier pour comprendre les exigences spécifiques liées à la migration vers Azure. Assurer une coordination efficace avec les architectes et les experts techniques pour évaluer les performances des applications existantes. Proposer des solutions d'optimisation en concertation avec les équipes techniques lors de la migration. Gestion des Risques et de la Qualité : Identifier les risques liés à la migration et mettre en place des plans d'atténuation. Assurer la qualité des livrables tout au long du processus de migration. Communication et Formation : Communiquer efficacement avec les parties prenantes à tous les niveaux de l'organisation. Fournir une formation et un support aux équipes internes concernant les bonnes pratiques et les normes Azure.
Freelance

Mission freelance
Product Owner Data

Publiée le
Data science
MLOps
Product management

12 mois
500 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026 , le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté . Rattaché(e) au Centre de Data Management , vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques.
Freelance

Mission freelance
Data Engineer

Publiée le
Apache Airflow
AWS Cloud
Dataiku

12 mois
Paris, France
Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication
2587 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous