Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 113 résultats.
Freelance
CDI

Offre d'emploi
Business Analyst Data / Expert Data Management - Banque

Publiée le
Data analysis
Data governance
Data Lake

6 mois
45k-60k €
470-700 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique pour une grande banque européenne , nous recherchons deux profils complémentaires : Business Analyst Data et Expert Data Management. Vous interviendrez sur des sujets clés liés à la migration de Datalake et à la gouvernance des données . Vos responsabilités incluront : Participer à la migration et à la valorisation des données. Implémenter des contrôles de Data Governance (Ownership, Definition, Quality). Gérer les Metadata et le Data Lineage . Superviser le End User Computing (EUC) . Définir et exécuter des plans pour garantir la conformité avec les frameworks Data Management & EUC.
Freelance

Mission freelance
Chef de Projet Technique Retail

Publiée le
Gestion de projet
Google Cloud Platform (GCP)
Linux

3 ans
100-420 €
Lille, Hauts-de-France
Télétravail partiel
Responsabilités Gestion de projet (70%) : Piloter des projets techniques liés à l’infrastructure et aux systèmes retail. Coordonner les équipes internes et les prestataires. Assurer le suivi des plannings, budgets et livrables. Run / Support (30%) : Intervenir sur les incidents en magasin (Linux, Windows, GCP). Analyser et résoudre les problèmes techniques en collaboration avec les équipes. Garantir la continuité opérationnelle des systèmes. Pourquoi rejoindre cette mission ? Projet stratégique pour un acteur majeur du retail. Environnement dynamique et polyvalent. Équipe à taille humaine (3 personnes).
Freelance
CDI

Offre d'emploi
DevOps Infrastructure – Spécialisation Agentic AI & LLM (H/F)

Publiée le
AI
Ansible
AWS Cloud

3 ans
61k-67k €
530-640 €
Île-de-France, France
Télétravail partiel
Nous recrutons un profil DevOps expérimenté pour intervenir sur des environnements innovants autour des agents autonomes (Agentic AI) et des modèles de langage (LLM). Vous participerez à la conception, au déploiement et à l’expérimentation de POC avancés visant à améliorer la supervision, l’automatisation et la résolution proactive d’incidents au sein d’infrastructures complexes. Le poste s’inscrit dans une démarche agile, collaborative et orientée industrialisation. Missions Concevoir et gérer des environnements d’expérimentation Kubernetes/Docker, intégrés à des pipelines CI/CD (Jenkins, GitLab CI, ArgoCD). Automatiser la collecte, la préparation et l’exploitation de datasets d’infrastructure (logs, CMDB, monitoring) pour alimenter des agents IA basés sur LLM. Développer et intégrer des pipelines de déploiement d’agents IA (LangChain, AutoGen, équivalents). Mettre en place des scripts/tools d’automatisation (Python, Bash, Go) pour l’orchestration et le monitoring. Garantir la sécurité des développements et déploiements (DevSecOps, SAST/DAST, gestion des accès, RGPD). Produire la documentation technique et les livrables nécessaires à une future industrialisation. Assurer une veille active sur les évolutions LLM, architectures agentiques et outils d’automatisation. Compétences techniques requises Systèmes & Réseau Maîtrise avancée Linux/Unix Solides bases réseaux (TCP/IP, HTTP, DNS, VPN) Cloud & IaC AWS, Azure ou GCP Terraform, Pulumi ou CloudFormation Conteneurisation & Orchestration Docker, Kubernetes, Helm CI/CD Jenkins, GitLab CI, ArgoCD Automation / Config Management Ansible, Puppet, Chef Langages Python (niveau avancé) Bash, Go (appréciés) Monitoring & Logging Prometheus, Grafana, ELK Stack Sécurité / DevSecOps SAST/DAST (SonarQube, Snyk, Aqua Security) Conformité RGPD
CDI

Offre d'emploi
Développeur Data/Data Engineer

Publiée le
AWS Cloud
Azure
Azure Data Factory

40k-65k €
Gosselies, Hainaut, Belgique
Télétravail partiel
ATTENTION, 2 JOURS DE PRESENCE SUR SITE A GOSSELIE NON NEGOCIABLE. Ne pas postuler le cas échéant. Le consultant rejoindra l’équipe Factory Data , spécialisée dans les technologies Microsoft Fabric et Azure Data . La mission s’inscrit dans le cadre de la mise en place et l’optimisation des flux de données, la modélisation du Lake House et l’architecture médaillon (Silver & Gold). Responsabilités Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory). Développer les flux de transformation via Fabric Factory Notebook . Optimiser les requêtes de transformation en tenant compte des coûts Azure. Contribuer à la modélisation du Lake House et à l’architecture médaillon. Établir le design technique et rédiger la documentation. Mettre en place et exécuter les tests unitaires automatisables . Participer à l’estimation des efforts de développement. Contribuer à la maintenance et résolution des incidents en production. Participer à l’amélioration continue (guidelines de développement).
Freelance
CDI

Offre d'emploi
Lead Technical Architect – Environnement Finance de Marché (H/F)

Publiée le
Big Data
Finance
Time series

3 ans
46k-58k €
400-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Un département stratégique dédié à la recherche quantitative en finance de marché recherche un Lead Technical Architect pour renforcer ses équipes. La mission s’inscrit au cœur d’un environnement global, à forte intensité data et compute, travaillant en étroite collaboration avec des équipes Quant , IT , Research et Ops . Vous interviendrez sur des plateformes critiques liées au pricing , au risk management , aux time-series data et à la performance des systèmes de calcul. 🛠 Vos responsabilités Au sein du groupe en charge des infrastructures compute et market data, vous aurez pour missions : Repenser et optimiser l’architecture des services Compute et Histo . Améliorer la scalabilité , la performance et la résilience de l’infrastructure grid. Fournir des recommandations structurantes sur la stack haute disponibilité. Rewriting / refactoring de composants techniques ne répondant pas aux exigences de performance. Participer à la définition des frameworks pour les services de market data haute demande. Travailler au quotidien avec les équipes quant, recherche et ingénierie.
Freelance
CDI

Offre d'emploi
Data Steward (H/F)

Publiée le
Data governance

1 an
45k-50k €
450-480 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du renforcement de nos activités Data & IA , Winside recherche un Data Steward pour intervenir en régie chez un grand acteur national du secteur des services publics (nom volontairement anonymisé). Rattaché au Responsable Data du client, le Data Steward jouera un rôle clé dans l’ opérationnalisation de la gouvernance, de la qualité et de la valorisation des données , en collaboration avec les équipes IT et les équipes métiers. Le projet prioritaire du client en 2026 est la migration de son système d’information métier . L’enjeu consiste à capitaliser sur les travaux réalisés dans le cadre de cette migration pour structurer et documenter les données, tout en minimisant l’effort demandé aux équipes métiers. Les périmètres de données concernés sont : Les objets métiers impactés par les nouvelles fonctionnalités du SI cible. L’objet métier Client (référentiel client). Missions principales 1. Mise en place d’un Data Catalog & Glossaire métier Définir l’outil et la structure du data catalog dans une approche « juste nécessaire » (Excel, Notion… pas de solution outillée prévue en 2026). Rédiger les définitions fonctionnelles des données (glossaire). Formaliser le cycle de vie des données. Structurer, harmoniser et animer la documentation fonctionnelle et technique des données. 2. Mise en place d’un cadre de Data Quality Management Définir les principes, règles et contrôles de qualité des données. Concevoir les workflows de gestion entre acteurs IT et métiers. Participer à la conception des tableaux de bord de qualité et de l’alerting associé. 3. Appui à la conception du modèle de gouvernance des données Définir processus, rôles, responsabilités et instances de gouvernance. Accompagner la structuration du modèle opérationnel.
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
Apache Hive
Apache Kafka
Apache Spark

6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Freelance

Mission freelance
[SCH] Data Engineer – Confirmé - 1162

Publiée le

10 mois
385-418 €
Niort, Nouvelle-Aquitaine
Contexte de la mission : Mon client recherche un Data Engineer confirmé pour intervenir sur des activités d’analyse, de spécification, de développement, de test et de maintenance au sein d’un environnement Data. Missions : -Analyser les besoins et spécifier les solutions Data -Développer les traitements et flux de données -Réaliser les tests -Assurer la maintenance des développements existants Environnement technique : -Outils de développement : PowerCenter (Informatica), SQL Developer, DbVisualizer -Langages : SQL, PL/SQL -SGBD : Oracle, Hive -Méthodologie : SAFE Profil recherché : Data Engineer confirmé (3 à 8 ans) disposant d’une expérience significative sur des environnements Data, avec une forte maîtrise des outils ETL, des bases de données et des langages SQL / PL-SQL.
Freelance

Mission freelance
Ingénieur Data / BI

Publiée le
Azure Data Factory
Databricks
Scala

12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
CDI

Offre d'emploi
Ingénieur Data

Publiée le
Apache Hive
Apache Spark
Cloudera

28k-42k €
Vannes, Bretagne
Missions principales Contribuer au développement et à l’industrialisation des traitements Big Data. Intervenir en transverse auprès des différentes équipes (IT et métiers). Challenger les besoins métiers et proposer des solutions techniques pertinentes. Participer à l’amélioration continue des performances et de la qualité des données. Environnement technique Environnement technique : SPARK, CLOUDERA, HADOOP, Java, Hive Profil recherché – Hard & Soft Skills 5 à 8 ans d’expérience en environnement Big Data (Spark / Hadoop / Hive / Java). Solide culture data et environnement distribués (type Cloudera). Excellente capacité de prise de recul et de compréhension des enjeux métiers. Aisance relationnelle et posture transverse : capacité à challenger et à accompagner les équipes métiers. Présence à Vannes 3 jours par semaine - Non négociable
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

Publiée le

50k-60k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : sliv9e59p7
Freelance

Mission freelance
Data Analyst

Publiée le
Cognos
Microsoft SQL Server
PowerBI

24 mois
100-530 €
Mer, Centre-Val de Loire
Télétravail partiel
Le service Modélisation des Données, dans le cadre de son activité projet et MCO autour de la restitution et l’analyse de données, recherche un Data Analyst. Le service Modélisation des Données est en charge du SI Décisionnel centré sur un Datawarehouse qui est la source de données pour les briques de : - Reporting/dataviz (Power BI, COGNOS) - DataScience : mise en oeuvre de cas d’usage IA Ce Datawarehouse est alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Le service Modélisation des Données intervient : - sur les aspects techniques des projets Décisionnel / Data de CA Titres. - dans la constitution de datamarts métier et la réalisation de dashboards / rapports - sur la gouvernance des données - Sur la mise en place d’outils IA Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il exécutera les missions suivantes :  Projets métier de mise en place de SI Décisionnels : modélisation de données, conception de rapports, accompagnement des utilisateurs finaux (sur la conception de rapport, leur adoption et la prise en main des modèles de données par des publishers métier).  Power BI : être le point de contact technique des utilisateurs finaux ou des Publishers de Power BI de CA Titres, réalisation de reporting complexes  Intervention sur un projet de migration de dataplatform : refonte de reporting COGNOS/Power BI vers superset, refonte de chaînes ETL TALEND vers Dagster, conception de datamarts. Projet en agilité. Le poste a une dimension technique mais aussi une dimension relationnelle forte autour de l’analyse des besoins, leur recette et le suivi en mode projet. La sensibilité aux problématique de gouvernance des données (contribution au dictionnaire de données d’entreprise, qualité des données) est un enjeu fort du poste.
Freelance

Mission freelance
Responsable Opérationnel Data Gouvernance

Publiée le
Data governance
Méthode Agile
RGPD

3 ans
600-700 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Responsable Opérationnel Data Gouvernance répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/5001 en objet du message Vos responsabilités Assurer le rôle de référent opérationnel en matière de gouvernance des données. Planifier, préparer et animer le Comité de Gouvernance Data. Contribuer à la construction et au suivi de la feuille de route Data. Organiser et animer les comités Qualité des Données (QDD) avec les entités concernées. Garantir l’alignement des actions entre équipes métiers, équipes IT et rôles data. Maintenir la cartographie des responsabilités (Data Owners, Data Stewards, référents IT). Coordonner les acteurs pour assurer la cohérence et la continuité de la gouvernance. Piloter la mise à jour, l’enrichissement et la validation du Catalogue de Données. Garantir l’accès, la lisibilité et la cohérence des métadonnées. Participer à la validation des dashboards QDD. Identifier les écarts entre la modélisation logique et les implémentations physiques. Piloter les audits de conformité des référentiels. Contribuer à la définition et au suivi des plans de remédiation. Évaluer les impacts data, référentiels et flux lors des cadrages fonctionnels des projets. Contribuer à la définition des architectures fonctionnelles et applicatives en cohérence avec les principes de gouvernance. Participer aux travaux de cartographie (domaines de données, objets métiers, dépendances systèmes). Modéliser ou contribuer à la modélisation des flux de données (fonctionnels, logiques, applicatifs). Appuyer les décisions d’urbanisation pour simplifier et rationaliser le SI. Connaissance des référentiels, outils de catalogage, métadonnées et tableaux de bord QDD. Maîtrise des enjeux réglementaires (RGPD), conformité et gestion des référentiels. Compréhension des principes d’architecture d’entreprise et d’urbanisation (idéalement TOGAF). Capacité à analyser ou challenger des architectures fonctionnelles, applicatives et data. Compétences en modélisation des données, processus et flux inter-applicatifs.
Freelance
CDI

Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN

Publiée le
Apache Hive
Apache Spark
Big Data

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
CDI
Freelance

Offre d'emploi
Développeur Fullstack (java/ Python/ GCP)

Publiée le
CI/CD
Google Cloud Platform (GCP)
Java

3 ans
40k-45k €
460-520 €
Paris, France
Télétravail partiel
Contexte: Dans le cadre du développement des solutions Data & Cloud de l'entreprise, nous recherchons un Développeur confirmé maîtrisant les écosystèmes Python, Java et Google Cloud Platform (GCP) , avec une forte culture CI/CD et des compétences sur les outils d’orchestration de workflows data. Vous rejoindrez une équipe stratégique au sein de la DSI Natixis, orientée innovation, performance et industrialisation des services Cloud. Vos missions: Développer et maintenir des applications backend en Python et/ou Java Concevoir et optimiser des pipelines de données dans GCP (Google Cloud Platform) Implémenter et maintenir des processus d’orchestration via : Composer (Apache Airflow) de préférence ou Google Workflows Exploiter et interroger des données dans BigQuery Gérer le stockage des données sur Cloud Storage Mettre en place et maintenir des pipelines CI/CD via Jenkins Participer à l’industrialisation, à l’automatisation et à la fiabilisation des déploiements Collaborer avec les équipes Data, Cloud et Architecture Compétences techniques requises: Langages : Python – Confirmé à Expert Java – Confirmé Cloud & Data : Google Cloud Platform (GCP) BigQuery, Cloud Storage Orchestration : Composer / Airflow ou Google Workflows DevOps / CI-CD : Jenkins (impératif) Git / GitLab (apprécié) Environnement : Méthodologies Agile / Scrum Bonne capacité de troubleshooting et optimisation performance
Freelance

Mission freelance
EXPERT SECURITE CLOUD GCP

Publiée le
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Télétravail partiel
Mission : Cloud Security Expert – GCP 👤 Profil recherché Consultant senior (7 ans d’expérience) en sécurité cloud GCP Solide maîtrise : Gouvernance sécurité Cloud & environnements hybrides Sécurisation multi-tenant et architectures GCP Normes CIS Benchmarks, ISO 27001, Zero Trust Expertise technique : IAM, VPC, KMS, logging, API & network security Expérience grands comptes internationaux Soft skills : autonomie, rigueur, esprit analytique, collaboration internationale 🧠 Missions principales Analyser les implémentations de sécurité GCP existantes dans le groupe Rédiger des Security Technical Guidelines pour les services GCP utilisés Définir et documenter les guardrails et policies GCP : organisation policies, IAM, KMS, logging, réseau Assurer la conformité au CIS Benchmark GCP Level 1 et à la politique sécurité interne Produire les livrables : Cartographie de l’environnement GCP Documentation technique de référence Rapport de conformité et écarts résiduels Présentation synthétique aux équipes GO Security & Cloud Engineering 🎯 Objectif global Garantir la sécurité by design de la nouvelle plateforme GCP hébergeant les modèles Vertex AI et Gemini, en définissant les principes d’architecture, lignes directrices techniques et garde-fous sécurité à l’échelle du groupe.
2113 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous