Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 008 résultats.
CDI

Offre d'emploi
Architecte Opérationnel Cloud Public – GCP

AGH CONSULTING
Publiée le
Active Directory
Design
DNS

70k-85k €
Meudon, Île-de-France

Missions principales : • Concevoir et documenter les architectures opérationnelles GCP (Compute, stockage, réseau, sécurité, supervision). • Définir les bonnes pratiques de design cloud (patterns, standards, guides). • Réaliser des POC techniques et valider les solutions en environnement hybride (on-prem et cloud). • Garantir l’intégration avec le SI existant : DNS, Active Directory, bastion, fédération d’identité. • Contribuer aux études d’impacts et recommandations FinOps pour la maîtrise des coûts. • Participer aux revues de conception, aux comités techniques et à la gouvernance Cloud.

Freelance

Mission freelance
Data Ingénieur cloudera

MLMCONSEIL
Publiée le
Apache Spark
Cloudera
Python

6 mois
260-430 €
Lille, Hauts-de-France

Data Engineer avec compétence sur la stack technique Hadoop, Python, Spark/PySpark, Cloudera Expérimenté 3 à 5 années d'expérience sur des activités similaires ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... .

Freelance

Mission freelance
Product Owner Plateforme Data Audiovisuel

INSYCO
Publiée le
Agile Scrum
Big Data
Product management

6 mois
500-550 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Product Owner Plateforme Data Audiovisuel. Nous étudions prioritairement les candidatures adressées à freelance à insyco . fr avec : Un argumentaire écrit répondant de façon ciblée au besoin ci-dessous Un CV à jour au format Word Une date de disponibilité Un tarif journalier Merci d’indiquer la référence MDE/PO/4914 dans l'objet de votre message Vos responsabilités : Définir la feuille de route du projet, le périmètre et le calendrier des livraisons en accord avec les parties prenantes Veiller au bon déroulement des projets, au respect des délais et des budgets Planification du Maintien en Condition Opérationnel de la plateforme et les processus opérationnels pour l’ingénierie de la fiabilité des sites (SRE) Collaboration avec l’équipe technique : ingénieurs, développeurs, analystes data et les autres membres de l'équipe pour assurer une exécution fluide du projet et participer aux rituels agiles des équipes Définir et suivre les indicateurs de performance clés (KPIs) pour évaluer la charge, capacité des équipes et le suivi des livraisons pour les différentes équipes Identifier les risques et mettre en place des plans de contingence pour minimiser l'impact sur le projet Identifier et mettre en œuvre des actions d’amélioration continue (processus, outils, pratiques) et mettre en place et gérer une base de connaissances de projets pour capitaliser sur les leçons apprises et favoriser le partage des meilleures pratiques Fournir des mises à jour régulières sur l'état du projet aux parties prenantes et à la direction et assurer la mise en place et le déroulement des réunions de suivi. Fournir une formation et un soutien aux utilisateurs finaux sur les meilleures pratiques en matière de gestion des données Utilisation de Jira et Confluence Utilisation des méthodologies Agiles (SCUM, Kanban, Lean) Connaissance des process ITIL Connaissance de l’environnement Cloud GCP (une certification est un plus) Excellentes compétences en gestion de projet, y compris la planification, l'organisation, la gestion du temps et la résolution de problèmes Excellentes compétences en gestion de produits, suivi et roadmap Excellentes compétences en communication écrite et verbale en français et en anglais, et savoir discuter dans des situations tendues Excellente compétence dans l’animation de communauté d’utilisateurs Autonomie et capacité à gérer plusieurs tâches et équipes métier simultanément Une expérience préalable de gestion de projet avec des équipes DevOps

CDI
Freelance

Offre d'emploi
Data Engineer

OBJECTWARE MANAGEMENT GROUP
Publiée le
DAX
Microsoft Power BI
MySQL

6 mois
37k-45k €
320-420 €
Tours, Centre-Val de Loire

Dans le cadre d’un projet industriel d’envergure nationale, nous recherchons un Data Engineer / Data Manager pour accompagner la mise en place et le suivi des processus de production de données au sein d’équipes techniques et métiers. La mission allie coordination, support utilisateur, data management et reporting opérationnel dans un environnement à forte exigence qualité. Vos missions principales : Animation & coordination : • Appuyer le Data Manager projet dans la coordination des contributeurs métiers • Suivre la qualité et la complétude des données d’entrée nécessaires aux traitements • Produire des KPI d’avancement et des reportings réguliers • Participer à l’animation du processus de production et aux réunions de suivi Administration & exploitation de l’application métier : • Paramétrer, administrer et superviser l’application • Exécuter les traitements, injections et extractions de données • Gérer les habilitations, l’archivage et les accès utilisateurs Support & accompagnement : • Assurer le support fonctionnel niveau 1 & 2 et le suivi des incidents • Contribuer au plan de contrôle interne des habilitations • Participer à la recette fonctionnelle : planification, organisation, PV de validation Documentation & capitalisation : • Rédiger et maintenir la documentation technique et fonctionnelle • Créer des fiches d’assistance, manuels utilisateurs et procédures • Participer à l’accompagnement au changement et à la diffusion des bonnes pratiques Profil recherché : • Expérience confirmée en Data Management, Data Engineering ou MCO applicatif • Bonne maîtrise des outils : Power BI, Jira, ServiceNow, Excel, Office 365, Netvibes • Langages : SQL, Python, PowerQuery, DAX, JSON, XML • Connaissance des environnements industriels ou projets techniques complexes • Compétences en recette, support, reporting et coordination multi-acteurs Soft skills : • Leadership naturel, rigueur, pédagogie • Esprit d’analyse et de synthèse • Excellent relationnel, diplomatie et sens du service Les + de la mission : • Projet structurant dans un contexte industriel stratégique • Équilibre entre technique, coordination et accompagnement métier • Équipe collaborative et dynamique

Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Airflow
ETL (Extract-transform-load)
Python

1 an
40k-45k €
100-550 €
Montreuil, Île-de-France

Contexte Dans le cadre du chantier Knowledge Management (KM), une base de connaissance doit être constituée à partir de documents non structurés (PDF, Word, HTML). Cette base servira à formaliser la connaissance sous une forme agnostique des usages, en vue d'une réutilisation large et durable. Un pipeline initiale de structuration des connaissances a été établi, mais doit maintenant être industrialisé pour une exécution fiable, scalable et maintenable. Objectif de la mission Development des pipelines d'ingestion, transformation et alimentation de la base de connaissance, tout en assurant le versioning et la traçabilité des traitements.

Freelance
CDI

Offre d'emploi
Data Product Manager

1G-LINK CONSULTING
Publiée le
Data governance
SAP

1 mois
La Défense, Île-de-France

Mission principale Conduire une étude stratégique Data dans le périmètre Construction Chemicals chez Saint-Gobain. Jouer un rôle de chef d’orchestre entre le business, l’IT et les équipes data pour cadrer le besoin, organiser le projet et préparer son exécution. Responsabilités clés Cadrer et organiser l’étude : identifier les acteurs, collecter les besoins, animer les ateliers avec les métiers. Analyser les processus business et IT (globaux et régionaux). Formaliser une architecture fonctionnelle et une feuille de route projet (planning, budget, organisation). Coordonner les experts Data & Analytics (architecte, ingénieurs BI, etc.). Communiquer avec des interlocuteurs de haut niveau (C-level) et présenter clairement les résultats. Préparer la bascule en phase de projet (“Go to project”). Compétences attendues Communication bilingue (français/anglais) avec dirigeants. Planification stratégique et organisation multi-régions. Maîtrise des concepts et outils Data/BI (Agile, CI/CD, gouvernance, MDM, architecture). Connaissance des systèmes ERP (SAP), CRM (Salesforce), MES et supply chain (atout). Forte orientation client, capacité à conduire des interviews et synthétiser rapidement. Profil recherché Senior/Expert, avec expérience confirmée dans la conduite de projets data stratégiques à dimension internationale.

Freelance

Mission freelance
Business Analyst – BI

Mon Consultant Indépendant
Publiée le
BI
Big Data
SQL

6 mois
530-550 €
Paris, France

Pour l'un de nos clients du secteur bancaire, nous recherchons un Business Analyst BI. PROJET : - Recueil et formalisation des besoins métiers. - Conception et rédaction de spécifications fonctionnelles BI (indicateurs, dimensions, modèles de données). - Capacité à challenger les besoins métiers et à proposer des solutions pragmatiques. - Rédaction de documentation fonctionnelle et utilisateurs. - Tests fonctionnels et validation des développements BI. METIER : - Bonne connaissance des environnements BI et Data. - Compréhension des processus de gestion de la donnée en environnement bancaire/financier (sécurité financière) - Maîtrise de SQL. ANGLAIS : excellent niveau.

Freelance
CDI

Offre d'emploi
DATA ENGINEER AZURE / DATABRICKS F/H | MARIGNANE (13)

HIGHTEAM GRAND SUD
Publiée le
Apache NiFi
Azure Data Factory
Data Lake

1 an
10k-45k €
100-420 €
Marignane, Provence-Alpes-Côte d'Azur

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Configurer, structurer, déployer Azure Data Lake et DataBricks Développer et industrialiser des pipelines d’ingestion robustes sur Apache NiFi à partir des différentes sources, en tenant compte des contraintes techniques (mémoire, réseau…) Mettre en place et maintenir une instance Unity Catalog pour renforcer la gouvernance et permettre le Data self-service Environnement Technique : Azure Data Lake, Databricks, Apache NiFi, Unity Catalog, Python, Pyspark, SQL Le poste est basé en périphérie de Marignane (13) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre intégration. Vous devez impérativement être véhiculé.e pour pouvoir accéder sur site.

CDI
Freelance

Offre d'emploi
Data Engineer orienté DevOps

STORM GROUP
Publiée le
Apache Spark
DevOps
Hadoop

2 ans
40k-45k €
400-550 €
Charenton-le-Pont, Île-de-France

- Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python

Freelance

Mission freelance
Consultant Data

Mon Consultant Indépendant
Publiée le
Data Lake

6 mois
570-590 €
Paris, France

Pour le compte d’un grand groupe français, nous recherchons un consultant spécialisé en data afin d’accompagner le Data Office dans la mise en conformité d’un Data Lake. La mission consiste à assurer la bonne gouvernance des données et leur alignement avec les exigences réglementaires et internes, en collaboration avec les équipes techniques et métiers. Le/la consultant(e) interviendra sur l’analyse des pratiques existantes, la définition et le suivi des plans d’action, ainsi que la mise en place de procédures garantissant la qualité, la sécurité et la conformité des données. Une bonne compréhension des environnements Big Data et des problématiques de data governance est indispensable pour réussir cette mission stratégique.

Freelance

Mission freelance
Data engineer Python & SQL H/F

LeHibou
Publiée le
Microsoft SQL Server
MySQL
Python

6 mois
500-570 €
Paris, France

Pour l'un de nos clients dans le secteur de la prévention qui déploie un Saas, nous recherchons un profil hybride Data Engineer/Chef de projet technique: Comprendre les besoins en termes de données de différents corps de métiers (professionnels de santé, ingénieurs de prévention, gestionnaires de facturation ...) Analyser et comprendre l’état et la structuration de la donnée de différents métiers (ex: professionnels de santé, gestionnaires de facturation... ) dans les anciennes bases de données des clients Remonter les besoins d’amélioration technique complexe à la squad plateforme intégrée à l'équipe d'intégration en fonction des cas d’usages clients rencontrés Participer à la prise de décision pour nettoyer et traduire ces données dans la solution Mettre à jour le pipeline de données pour récupérer ces données et les injecter dans notre logiciel (grande diversité de données : + de 250 informations différentes, avec jusqu’à plusieurs millions de points de données pour certaines informations) Assurer que le pipeline soit robuste, testé et permettre un maximum de traçabilité sur les traitements subis par la donnée et les incohérences détectées (python + SQL), tout en étant réutilisable Assurer la maintenance et l’évolution de la base de données du produit, en discutant avec les équipes produits pour s’assurer de continuer à reprendre toutes les données disponibles Travailler en collaboration avec les référents métiers ainsi qu’avec les clients des différents métiers (professionnels de santé, gestionnaires de facturation, etc.) Communiquer de manière exemplaire au cours du projet pour assurer un reporting régulier

Freelance
CDI

Offre d'emploi
Ingénieur DevOps Cloud H/F

WINSIDE Technology
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Kubernetes

1 an
Nantes, Pays de la Loire

Contexte Pour l’un de nos clients grands comptes nantais, nous recherchons un Ingénieur Cloud / DevOps afin de renforcer les équipes en charge de la transformation Cloud et de l’automatisation des environnements. Vos missions Participer à la mise en place et à l’industrialisation des environnements Cloud (AWS, Azure ou GCP) Automatiser les déploiements via Infrastructure as Code (Terraform, Ansible, CloudFormation…) Intégrer et maintenir des pipelines CI/CD (GitLab CI, Jenkins, GitHub Actions…) Contribuer à la sécurisation et à la supervision des plateformes (monitoring, alerting, observabilité) Collaborer avec les équipes projets et développement pour fluidifier le delivery et garantir la fiabilité des environnements Participer aux choix d’architecture et à la mise en place des bonnes pratiques DevOps Assurer une veille active sur les technologies Cloud & DevOps pour proposer des améliorations continues Winside Technology est une ESN Tech & Digital présente à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Créée en 2020, nous réunissons aujourd’hui plus de 250 consultants, accompagnons plus de 50 clients grands comptes et avons réalisé 30 M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective.

CDI
CDD

Offre d'emploi
Technicien support applicatif Intégration de données- La Défense (H/F)

RIDCHA DATA
Publiée le
Microsoft Excel
SQL
UNIX

3 mois
La Défense, Île-de-France

🎯 Contexte Dans le cadre du maintien en conditions opérationnelles de nos solutions TEM , nous recherchons un Technicien support applicatif afin de renforcer l’équipe RUN . L’objectif principal est d’assurer l’intégration et la fiabilité des données clients dans l’application. 📌 Objectifs et tâches principales Vos missions seront les suivantes : Générer des fichiers à intégrer en base à partir des portails opérateurs. Intégrer en base les données de parc et de facturation. Lancer des batchs et assurer le suivi des traitements. Effectuer des requêtes SQL pour extraction, injection ou correction en masse. Mettre à jour les référentiels et contrôler la cohérence des données visibles dans l’application client. Assurer le contrôle des intégrations automatisées. 📑 Livrable attendu Dossier d’exploitation documentant les intégrations et traitements réalisés. 🛠️ Compétences techniques requises Unix – Confirmé – Impératif SQL – Confirmé – Impératif Excel – Confirmé – Impératif

Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Atlas Connect
Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France

Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

CDI

Offre d'emploi
Data Architect

Inventiv IT
Publiée le
AWS Cloud
Azure
BI

65k-80k €
Paris, France

Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps

Freelance

Mission freelance
Data Engineer Big Data & API – Spark/PySpark/Scala, Hadoop / Starburst, CI/CD, Control-M

CAT-AMANIA
Publiée le
Control-M
Hadoop
JIRA

2 ans
400-490 €
Île-de-France, France

Contexte Équipe IT Data Management & BI – Squad Big Data & API. Le data lake “ESG” sert de plateforme de données pour des équipes IT et métiers. La mission peut évoluer vers d’autres squads Data selon les besoins. Missions Assurer le rôle de Data Engineer et développeur d’API au sein de la squad. Exploitation/production : supervision des traitements, corrections, optimisation des performances. Gestion de la dette technique : refactor, qualité, sécurité. Architecture : revue de l’existant et propositions d’évolutions . Développements projets : pipelines de données et APIs d’exposition.

2008 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous