Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 003 résultats.
Freelance

Mission freelance
Architecte Sécurité Cloud & Données (H/F)

HOXTON PARTNERS
Publiée le
Data Lake
Databricks
IAM

6 mois
650-810 €
Boulogne-Billancourt, Île-de-France
Nous recherchons un Architecte Sécurité Cloud & Données pour l’un de nos clients dans le cadre d’un programme de transformation numérique à dimension internationale. La mission s’inscrit dans la sécurisation des environnements cloud et des plateformes data au sein d’un écosystème en forte évolution. Missions principales : Concevoir des architectures sécurisées pour les environnements cloud et data (Azure et environnements hybrides) Réaliser des évaluations de sécurité sur les services et architectures data et proposer des recommandations Définir les exigences de sécurité pour les projets cloud (identité, intégration, plateformes data/IA) Mettre en place les politiques, standards et bonnes pratiques de sécurité des données Piloter des initiatives de sécurité (choix de solutions, cadrage, mise en œuvre) Accompagner les équipes dans le déploiement sécurisé des workloads et la gestion des risques
Freelance

Mission freelance
Tech Lead Customer Data Cloud

EBMC
Publiée le
SAP

6 mois
300-600 €
France
Dans le cadre d’un projet digital dans le secteur pharmaceutique, nous recherchons un Tech Lead spécialisé SAP Commerce Cloud afin d’accompagner une équipe projet sur des sujets de développement et d’évolution de la plateforme e-commerce. Le consultant interviendra en tant que référent technique sur le périmètre Commerce Cloud, avec pour mission de structurer les travaux, sécuriser les choix techniques et garantir la qualité des livrables. Il participera également à l’encadrement et à la montée en compétence de consultants, tout en contribuant activement aux activités de conception et de delivery.
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Intégration HPC – Simulation Numérique

RIDCHA DATA
Publiée le
Calcul hautes performances (HPC)
Google Cloud Platform (GCP)
Linux

1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’un programme stratégique autour de la simulation numérique , une grande organisation industrielle renforce ses équipes afin d’optimiser le développement de produits via des solutions de calcul avancé (HPC). La simulation numérique joue un rôle clé dans la réduction des coûts de prototypage et l’amélioration des performances, en s’appuyant sur un écosystème de logiciels métiers spécialisés (acoustique, thermique, etc.). 🚀 Missions principales Mise en place et maintien d’environnements Linux (Shell / Bash) Développement de scripts pour orchestrateurs HPC (Slurm, LSF) Installation et configuration de postes Windows 10/11 (Batch, PowerShell, XML) Monitoring des ressources (serveurs, licences) Diagnostic des incidents multi-environnements : Windows Linux Orchestrateurs Logiciels de simulation Utilisation de MPI pour le calcul distribué (multi-nœuds) Accompagnement des utilisateurs (support, compréhension des besoins) Participation à des projets en mode Agile Contribution à des environnements Cloud (notamment GCP) 📦 Livrables attendus Documentation technique (conception) Code source développé Tests unitaires et d’intégration
Freelance

Mission freelance
Data Analyst Opérations & Maintenance

NEXTWYN
Publiée le
Azure Data Factory
BI
Big Data

3 mois
Paris, France
Nous recrutons un·e Data Analyst Opérations & Maintenance (Paris) Dans le cadre d’un projet stratégique au sein d’un grand groupe industriel international, nous renforçons notre pôle Data & IA et recherchons un Data Analyst O&M capable de valoriser des données issues de réseaux industriels complexes (IoT, supervision, maintenance, signalisation…). 🎯 Votre mission : transformer des données opérationnelles en insights concrets pour améliorer la performance, la supervision des actifs, la sécurité et la sobriété énergétique. Vous interviendrez sur la conception de tableaux de bord (Qlik) , l’ analyse de données , la qualité , la documentation , et la collaboration avec les équipes métiers dans un environnement international. 🔍 Vos responsabilités Recueillir et prioriser les besoins métiers avec les PO, CSM et équipes opérationnelles. Explorer, auditer et qualifier les données issues des systèmes industriels. Concevoir et développer des tableaux de bord (Qlik principalement). Standardiser et rationaliser les modèles de données avec les Data Managers. Documenter les règles de gestion et maintenir le dictionnaire de données. Réaliser les recettes fonctionnelles et mettre en place des plans de tests data.
CDI
CDD

Offre d'emploi
Conduite de projet MOE N2 Data

OCTOGONE
Publiée le
Data Warehouse
SQL

1 an
30k-60k €
Issy-les-Moulineaux, Île-de-France
Au sein de l'équipe en charge du Data Warehouse (DWH) de gestion, le poste s'inscrit dans un environnement transverse au cœur des enjeux data de la banque. Le DWH constitue un élément stratégique du système d'information, notamment pour la production réglementaire COREP liée au risque de crédit, mais aussi pour de nombreux usages métiers : reporting, analyses, modélisations, pilotage de l'activité et connaissance client. Il couvre de nombreuses activités et alimente différents départements tels que le Contrôle de gestion, l'ALM, le Risque, le Marketing, le CRM et Pilotage commercial. Dans ce contexte, la mission MOE consiste à assurer les travaux de maîtrise d'œuvre nécessaires au maintien, à l'évolution et à la fiabilité des pipelines de données de la plateforme analytique. Le collaborateur prend en charge des activités variées mêlant conception technique, développement de flux ETL, maintenance applicative et collaboration étroite avec la MOA. L'environnement applicatif repose sur une stack technique mature et documentée, que le collaborateur devra s'approprier rapidement afin d'assurer une montée en compétence opérationnelle dans les meilleurs délais. La capitalisation des connaissances existantes, la compréhension des flux en place et la maîtrise des spécificités fonctionnelles du DWH constituent un enjeu central du démarrage de la mission.
CDI
Freelance

Offre d'emploi
Data Ingénieur Python ELK

CHARLI GROUP
Publiée le
Elasticsearch
ELK
Python

3 ans
Paris, France
ngénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Freelance

Mission freelance
Data Engineer

SKILL EXPERT
Publiée le
DBT
Microsoft Power BI
Python

6 mois
450 €
Bordeaux, Nouvelle-Aquitaine
A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : •⁠ ⁠Effectuer des alimentations de données, •⁠ ⁠Travailler en binome avec un Data Analyst sur un sujet IA/Data. •⁠ ⁠Travailler autour d'agent IA pour du requetage SQL en langage naturelle •⁠ ⁠Mise à dispo d'outillage d'aide aux développement, monitoring… , •⁠ ⁠Faire une veille technologique autour des architectures data,
Freelance
CDI

Offre d'emploi
Ingénieur Support Production Big Data

VISIAN
Publiée le
ITIL
Plan de reprise d'activité (PRA)

1 an
Île-de-France, France
Contexte L’entité assure la disponibilité, l’évolution et les mises en production des applications de reporting réglementaire d’une grande institution financière internationale Global Markets, ainsi que la surveillance des communications et la gestion d’un portefeuille applicatif lié à des référentiels instruments. La prestation visée porte exclusivement sur le reporting réglementaire. Environnement technique Système d’exploitation : Linux (Ubuntu / RedHat) Data & streaming : PostgreSQL, MSSQL, Oracle, Opensearch, logstash, kafka, airflow, spark Langages de développement : HTML, CSS, JS, Python, Bash Protocoles & interfaces : TCP, HTTP / REST API IA : LLM, MCP, Agents Conteneurisation & orchestration : docker/podman, kubernetes Supervision : Grafana, Nagios, ICINGA, Dynatrace Déploiement : Ansible, GIT, Artifactory Jira pour le suivi des actions de l'équipe Servicenow pour gérer les requests & les incidents Missions Gestion des évolutions Déploiement et validation des changements applicatifs, d’infrastructure et de sécurité sur les environnements de test (Staging/UAT) puis en production. Automatisation & outillage Conception des scripts et des solutions d’automatisation des interventions récurrentes. Mise en place des outils facilitant le support et l’évolution de l’application. Monitoring Mettre en place ou améliorer le monitoring applicatif sous ICINGA & Dynatrace (définition de métriques, alertes, dashboards).
Freelance
CDI

Offre d'emploi
Data Steward

DATAMED RESEARCH
Publiée le
Collibra
Microsoft Power BI
MySQL

24 mois
45k-55k €
400-550 €
Paris, France
Contexte Intervention au sein d’une équipe Data/Gouvernance, avec des enjeux forts autour de la qualité de la donnée , de la conformité et de la fiabilisation des référentiels métiers . Missions principales Assurer la qualité, la cohérence et la fiabilité des données Mettre en place et suivre les règles de gestion et de contrôle de la donnée Définir et maintenir le data catalog et les référentiels métiers Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts…) Identifier et analyser les anomalies de données Mettre en place des indicateurs de qualité (KPI Data Quality) Participer aux initiatives de gouvernance des données (politiques, standards, process) Accompagner les métiers dans la bonne utilisation des données
CDI

Offre d'emploi
Data Analyst (H/F) - CDI

GROUPE ARTEMYS
Publiée le

76000, Rouen, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Le terrain de jeu ? Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le profil que nous recherchons : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 37 000 - 40 000 € (Selon votre expertise) Prise de poste ASAP Mode de travail hybride, 1 journée de télétravail par semaine Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Tech Lead FullStack .Net / IAM Expert

PROPULSE IT
Publiée le
.NET
IAM

24 mois
300-600 €
Paris, France
Tech Lead FullStack .Net / IAM Expert.e • CONTEXTE Nous recherchons un(e) TECH LEAD sur le périmètre Authentification et Customer Identity and Access Management qui gère l'authentification des clients pour les sites eCommerce du groupe . Un Tech Lead est le.la garant.e de la qualité logicielle du delivery de l'équipe. Il décide des choix techniques en collaboration avec l'équipe, le Head Of Tech, la team architecture et les team DevOps. Il.Elle possède une capacité relationnelle et méthodologique permettant de faire monter l'équipe en compétence. • ACTIVITES PRINCIPALES Vision stratégique / business • Comprend le fonctionnel pour pouvoir porter la vision technique : - Comprend les implications techniques des nouvelles epics et user-stories, - Est garant.e des cadrages techniques des user-stories à implémenter, - Propose des compromis techniques/fonctionnels et lève les alertes. • Travaille en étroite collaboration avec le.la Product Owner : - Challenge ses besoins fonctionnels et collabore sur les priorisations des sujets techniques - Product Owner et Tech Lead forment un binome fort pour piloter l'équipe et son produit. Vision technique • Est garant.e de la qualité logicielle de la réalisation, organise et effectue des revues de codes dans ce but, • Est le.la décideur des choix techniques en collaboration avec l'équipe et le.la Head of Tech, • Collabore à l'identification des contraintes d'architecture et s'assure d'être dans la trajectoire définie avec les ambitions techniques définies par la team architecture, • Collabore à la fois avec les OPS et des contributeurs techniques externes à l'équipe afin de fluidifier la réalisation du projet et les challenger, • Co-construit une roadmap à 3 mois des améliorations techniques permettant de garantir un investissement en continue sur la qualité. • Synchronise la roadmap technique et fonctionnelle avec les autres équipes de la Digital Factory. Vision équipe • Etre le référent technique sur les pratiques de développement de l'équipe, • Guide l'équipe vers l'excellence technique et l'autonomie : - Favorise l'apprentissage et la progression des développeurs de l'équipe en mettant en œuvre des bonnes pratiques. • Participe aux développements Vision opérationnelle • Est garant du bon fonctionnement de ses livraisons en production : - Etablit le plan de déploiement, - Prévoit le bon niveau de monitoring/log, - Anticipe, planifie et suit les livraisons, - Analyse les problèmes identifiés en production, - Gère les situations de crise et est apte à prendre les bonnes décisions.
CDI

Offre d'emploi
Data analyst (Databricks) H/F

HAYS France
Publiée le

La Ferté-Bernard, Pays de la Loire
Vos responsabilités incluent notamment : Concevoir et développer un modèle de données global pour le périmètre France Exploiter les bases de données Corporate sous Databricks (couche Silver) Réaliser les transformations de données jusqu'à la couche Gold Consolider des données métiers variées : Finance, Comptabilité, Logistique, Qualité, Production, RH Participer à la conception des modèles analytiques, au développement des indicateurs, ratios financiers et KPI métiers Développer et maintenir des dashboards Power BI à destination des équipes opérationnelles et managériales Contribuer à la standardisation, à la fiabilité et à la gouvernance de la donnée au niveau France Collaborer étroitement avec le futur profil Contrôle de Gestion / BI
CDI

Offre d'emploi
Data Scientist - (H/F)

DAVRICOURT
Publiée le

40k-45k €
Bolbec, Normandie
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans le département Seine-Maritime. À ce titre, vos missions quotidiennes seront les suivantes : - Développer en Python des algorithmes et scripts modulaires intégrables sur GCP, basés sur les modèles statistiques métiers ; - Automatiser les tâches répétitives et proposer des solutions simples, robustes et à forte valeur ajoutée ; - Mettre en place des scripts de collecte, structuration et ingestion des données issues des équipements industriels vers GCP ; - Assurer le rôle de relais technique entre les équipes métiers, l'IT et la Data Factory, tout en développant des outils de visualisation et en contribuant à l'acculturation Data des équipes locales.
CDI

Offre d'emploi
Data Engineer Databricks

ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark

Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Alternance
CDI
Freelance

Offre d'emploi
Business Analyst Data F/H

AIS
Publiée le
Business

1 mois
42k-52k €
260-520 €
Nantes, Pays de la Loire
Intégré(e) aux équipes d'un de nos clients grand compte, vous interviendrez sur un projet de déploiement d'une fonctionnalité "Talk to your data", permettant aux collaborateurs d'interroger les données en langage naturel grâce à un AI Agent (LLM) capable de générer automatiquement des requêtes SQL fiables. La mission se concentre sur le backend et la couche sémantique, garantissant la qualité, la cohérence et la pertinence des requêtes générées par l'IA. Le détail de vos missions sera le suivant : - Assurer l'alignement entre les besoins métiers et les capacités du data product. - Garantir la cohérence fonctionnelle et la qualité globale de la plateforme. - Collaborer avec les équipes sources pour clarifier les besoins et garantir la disponibilité des données. - Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités. - Participer à la rédaction des user stories et à la définition des fonctionnalités. - Contribuer à la planification des releases. - Prioriser les features et ajuster le périmètre au fil des itérations. - S'assurer que les user stories sont prêtes pour le développement et alignées avec la roadmap. - Valider ou rejeter les livrables selon les critères d'acceptation. - Contribuer à la création et à l'exécution des cas de test. - Valider les modèles de données et leur adéquation aux besoins analytiques. - Participer aux contrôles de qualité des données et aux tests fonctionnels. Environnement technique : - SQL - Snowflake - Modélisation de données - Data quality, tests et validation - Concepts AI / GenAI - Projet data-driven - Excel - Méthodologie : Agile (Scrum) - Langues : Anglais (Courant - Niveau C1)
CDI

Offre d'emploi
Data Engineering confirmé

AVA2I
Publiée le
DBT
Microsoft Power BI

Île-de-France, France
Concevoir, développer et maintenir les pipelines de données, les modèles analytiques et les tableaux de bord décisionnels afin de garantir une donnée fiable, exploitable et performante pour les équipes métiers. ResponsabilitésData Engineering Concevoir et maintenir les pipelines ETL/ELT. Intégrer des données depuis différentes sources (API, bases SQL, ERP, CRM, fichiers, cloud). Optimiser les traitements de données et la performance des flux. Assurer la qualité, la fiabilité et la gouvernance des données. Mettre en place des tests, monitoring et alertes sur les pipelines. Participer à l’architecture data et aux choix techniques. dbt (Data Build Tool) Développer et maintenir les modèles dbt. Structurer les couches Bronze / Silver / Gold. Créer des tests de qualité et documentation dbt. Gérer les dépendances et transformations SQL. Industrialiser les déploiements CI/CD dbt. Power BI Concevoir des dashboards et rapports interactifs. Créer des modèles de données optimisés. Développer des mesures DAX avancées. Mettre en place la sécurité des accès (RLS). Optimiser les performances des rapports Power BI. Collaborer avec les métiers pour comprendre les besoins analytiques. Compétences techniques requisesObligatoires SQL avancé Power BI (Power Query, DAX, Modélisation) dbt Python ou autre langage scripting Data Warehouse (Snowflake, BigQuery, Redshift, Synapse…) Git / GitLab / GitHub ETL / ELT Modélisation de données Appréciées Airflow / Dagster Azure Data Factory / Microsoft Fabric Docker CI/CD Cloud AWS / Azure / GCP Méthodologies Agile
2003 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous