Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 095 résultats.
CDI
CDD

Offre d'emploi
Lead Developer .NET / Vue.js

RIDCHA DATA
Publiée le
.NET
API REST
Vue.js

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d’un projet applicatif stratégique , un Lead Developer .NET / Vue.js est recherché afin de piloter techniquement une équipe de développement. Le Lead Developer interviendra au sein d’une squad composée de 5 personnes : 2 développeurs Full Stack 1 Architecte 1 développeur Backend (mi-temps) 1 alternante L’objectif est d’assurer le pilotage technique des développements , garantir la qualité des livrables et accompagner l’équipe dans la réalisation des projets. Missions principalesPilotage technique Encadrer techniquement les développeurs afin de garantir le respect des standards et exigences technologiques . Participer aux choix techniques et à l’architecture applicative . Assurer la qualité du code et des bonnes pratiques de développement . Développement Participer activement aux développements applicatifs en .NET et Vue.js . Contribuer au développement et à la maintenance des applications existantes . Intervenir sur le développement d’ API et d’applications client lourd . Coordination et suivi Identifier et anticiper les points bloquants techniques . Assurer un reporting régulier auprès des parties prenantes du projet. Accompagner les membres de l’équipe dans leur montée en compétences. Environnement technique .NET Vue.js API REST Architecture applicative Développement client lourd Organisation du travail 3 jours sur site à Lyon 2 jours en télétravail
Freelance

Mission freelance
Data Product Owner

SKILLWISE
Publiée le
Azure
MySQL
Python

3 mois
400-550 €
La Défense, Île-de-France
Nous recherchons pour un de nos clients un Data Product Owner qui sera le responsable de la vision analytique d’un domaine métier. Son rôle est de comprendre en profondeur les besoins des utilisateurs, de transformer ces besoins en produits data concrets et de garantir que les équipes techniques livrent des solutions fiables, utiles et alignées sur les priorités de l’entreprise. Il travaillera au quotidien avec les métiers, les Data Engineers, les Data Analysts et les équipes IT pour créer de la valeur grâce aux données.
Freelance

Mission freelance
Architecte technique SI H/F

Cheops Technology
Publiée le
AWS Cloud

12 mois
400-520 €
Nantes, Pays de la Loire
Mission principale L’architecte technique assure la cohérence et l’évolution de l’architecture technique en conformité avec le Schéma Directeur des Produits technologiques (SDP) et l’architecture globale Architecture Technique Prod Il intervient principalement sur les projets liés aux domaines Production et Référentiels de la Fabrique SI. Activités et responsabilités 1. Études d’architecture amont Analyse de l’existant et cadrage technique Étude de faisabilité et scénarios d’architecture Comparaison et synthèse des solutions possibles Estimation macro des coûts techniques Identification et modélisation des flux inter-applicatifs Définition des standards d’échanges Livrables possibles : DAL (Dossier d’Architecture Logique) note d’architecture étude de cadrage technique. Architecture Technique Prod Tra… 2. Conception de l’architecture technique Définition de l’architecture technique cible Validation des choix technologiques Cohérence avec les standards du SI SNCF Participation aux comités d’architecture Contribution aux documents d’architecture (DAT, DAL). 3. Accompagnement des projets Support technique aux équipes projet Collaboration avec : architectes SI lead tech équipes infrastructures autres DSI du groupe Suivi de la mise en œuvre de l’architecture. 4. Gouvernance technique Veille technologique Conseil aux équipes de conception Contribution à la définition des infrastructures Amélioration des processus d’architecture. Livrables attendus Études d’architecture technique DAL / DAT notes de cadrage recommandations techniques modélisation des flux et des infrastructures.
Freelance

Mission freelance
Developpeur ETL sous Synapse

ALLEGIS GROUP
Publiée le
Azure Synapse
Qlikview

36 mois
400-500 €
Angoulême, Nouvelle-Aquitaine
Description : Nous recherchons un Testeur/Développeur ETL spécialisé en Business Intelligence pour rejoindre notre équipe SI BI au sein d'une mutuelle. Vous serez en charge de la qualité et du développement des processus d'alimentation de notre Data Warehouse, en garantissant la fiabilité et la cohérence des données dans un environnement assurantiel. Missions : - Concevoir, réaliser et exécuter des tests fonctionnels de bout en bout sur les développements ETL - Assurer les tests de non-régression de bout en bout sur les flux d'alimentation du Data Warehouse - Développer et maintenir des processus ETL pour l'alimentation du DWH - Participer au projet d'agrégation des indicateurs métier - Contribuer à l'intégration des données des portails dans le DWH - Assurer l'intégration des données de téléphonie dans le Data Warehouse - Identifier et documenter les anomalies détectées - Collaborer avec les équipes métier et IT pour garantir la qualité des livrables - Etablir les plans de recette, PV de recette conformément à méthodologie définie
Freelance
CDI

Offre d'emploi
Business Analyst / Data Analyst

R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.
Freelance

Mission freelance
Architecte DATA - Paris

SKILL EXPERT
Publiée le
Azure
Big Data
CI/CD

1 an
520-540 €
Paris, France
Mission : Analyser les besoins et usages en données des différents métiers de l’entreprise. Recommander des solutions de stockage et gestion de Big Data. Contribuer à la conception de l’architecture de la plateforme, Contribuer à l’observabilité de la plateforme, Implémenter la plateforme et les outillages associés, Assurer le maintien en condition opérationnelle de la plateforme, Assurer la sécurité des accès et de la plateforme, Mettre en place une stratégie de monitoring des coûts et d'optimisation des ressources Azure
CDI
Freelance

Offre d'emploi
Production Engineer (K8S / AWS / Datadog) — Lille (59)

NEWRAMA
Publiée le
Datadog

3 ans
Paris, France
Rejoignez une équipe d'experts Ops en charge de l'exploitation d'une plateforme digitale critique à très fort trafic. Au sein d’un domaine orienté RUN, Fiabilité et Performance, vous intervenez sur un environnement technologique de pointe où l'observabilité est la clé de la réussite. Ici, le défi est de garantir une disponibilité sans faille pour des millions d'utilisateurs quotidiens, tout en modernisant l'infrastructure en continu. Vos Objectifs En tant que Senior Production Engineer, vous portez une vision "Reliability" et industrialisez la production : Exploitation (RUN) : Assurer la disponibilité et la performance des applications en production. Observabilité & Pilotage : Utilisation avancée de Datadog pour le monitoring, la supervision de la QoS et le diagnostic. Gestion d'Incidents : Analyse, debug et pilotage des incidents majeurs (approche SRE). Modernisation : Contribuer aux chantiers de rebuild / refactoring (scalabilité et optimisation des coûts Cloud). Automatisation : Industrialiser les processus dans une approche GitOps / DevOps (FluxCD, GitLab CI). Stack Technique Cloud : AWS (Full Cloud) Orchestration : Kubernetes (K8S), Helm, FluxCD Infrastructure as Code : Terraform Observabilité : Datadog (Expertise indispensable) CI/CD / Container : GitLab CI, Docker Ecosystème : Cloudflare, Keycloak, MongoDB, Java
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks

VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL

1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Freelance
CDI

Offre d'emploi
DBA MONGODB EXPERT / PAAS AZURE

Gentis Recruitment SAS
Publiée le
Azure
Database
Finance

12 mois
Paris, France
CONTEXTE Dans un environnement Cloud First (Azure / AWS) et dans le cadre d’un remplacement, l’équipe DBA infrastructure renforce son expertise sur les environnements MongoDB et Azure Database PaaS. Le parc comprend : ~4000 serveurs (Azure / AWS / On-Prem) 95% environnements virtualisés Environnements haute disponibilité Contexte international Le besoin porte sur un DBA Infrastructure expert , capable d’intervenir du RUN N1 au N4 (architecture) , avec une dominante très forte sur MongoDB. MISSIONS PRINCIPALES Expertise MongoDB (prioritaire – 80%) Administration experte MongoDB (clusters, réplication, sharding) Performance tuning avancé (analyse requêtes, indexation) Gestion haute disponibilité & résilience Sauvegardes / restauration / continuité d’activité Support niveau N3/N4 Gouvernance & standards MongoDB Documentation & monitoring RUN critique en environnement production Environnement : Azure IaaS principalement, AWS marginalement, OnPrem résiduel. Référent PaaS Azure Database Azure SQL Database SQL Managed Instance Cosmos DB PostgreSQL Flexible Server MySQL Flexible Server Responsabilités : Gouvernance sécurité (RBAC, accès) Stratégie backup & supervision Observabilité / alerting Support projets Contribution architecture Alignement standards cloud groupe ACTIVITÉS TRANSVERSES Participation aux projets de transformation Cloud Collaboration avec équipes Infra, Platform, Automation & Observability Intégration aux processus Agile Contribution à l’évolution des actifs infra Production livrables techniques normés EM-IS Participation aux astreintes LIVRABLES ATTENDUS Dossier d’architecture technique Documentation standards & bonnes pratiques Modèle base de données Reporting performance & capacity planning Base de connaissance & procédures RUN Automatisation / industrialisation activités Contribution gestion configuration
Freelance
CDI

Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud

VISIAN
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Freelance
CDI

Offre d'emploi
Développeur Power Platform

R&S TELECOM
Publiée le
Azure
Microsoft Fabric
Power Apps

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : L'objectif est de développer une solution interne stratégique pour renforcer les capacités de l'équipe commerciale. Cette solution doit fournir des outils et des insights basés sur les données, afin de favoriser une croissance commerciale plus efficace. Pour cela, un développeur spécialisé en Power Platform (Power Apps, Power Automate, Microsoft Fabric) est recherché pour concevoir, intégrer et optimiser des solutions avancées, performantes et sécurisées, adaptées aux enjeux de l'entreprise. Tâches à réaliser : Concevoir et développer des applications Power Apps Canvas et Model-Driven avancées, en utilisant Power Fx et en assurant leur responsivité. Intégrer la solution avec Microsoft Fabric, notamment en connectant efficacement OneLake, Lakehouses, et Data Warehouses via SQL endpoints. Concevoir et implémenter des workflows complexes avec Power Automate, incluant une gestion avancée des erreurs, des branchements parallèles, et des architectures parent-enfant. Modéliser et gérer les données dans Dataverse, en assurant la sécurité, la configuration des variables d’environnement, et l’alignement avec l’architecture Medallion. Développer des composants UI personnalisés en utilisant TypeScript/JavaScript via le Framework PCF. Créer et intégrer des connecteurs personnalisés pour envelopper des API RESTful et assurer l’intégration avec des systèmes externes ou des services Azure. Gérer le déploiement et la synchronisation des environnements en utilisant Azure DevOps ou GitHub, en automatisant les processus de CI/CD. Optimiser les performances des applications et workflows, notamment en résolvant les limites de délégation et en améliorant la gestion des requêtes sur de grands datasets. Mettre en œuvre des mesures de sécurité d’entreprise, telles que la sécurité au niveau des lignes (RLS), les politiques DLP, et l’authentification via Entra ID. Concevoir des interfaces utilisateur intuitives, performantes et accessibles, conformes aux standards WCAG.
Freelance
CDI

Offre d'emploi
Développeur Back-End Expert Java – Secteur Transport / Mobilité – Lille – ASAP

ASAP TECHNOLOGIES
Publiée le
Apache Maven
AWS Cloud
CI/CD

1 an
40k-50k €
400-550 €
Lille, Hauts-de-France
Nous recherchons un(e) Développeur(se) Back-End expert pour renforcer une équipe produit qui développe un espace client WEB utilisé par des acteurs ferroviaires pour : Réserver des sillons Gérer la maintenance Suivre l’avancement et les interactions avec l’opérateur réseau Le besoin porte sur un renfort Back-End pour retravailler l’affichage des services mis à disposition, avec des services reçus en mode push automatiquement selon l’étape du processus. Contexte équipe Équipe actuelle : 2 dev Back (dont 1 lead) + 1 dev Front Objectif : 4 dev Back / 2 dev Front Missions Développer et faire évoluer les composants Back-End existants Garantir un haut niveau de qualité, performance et sécurité Être force de proposition sur les bonnes pratiques et le design applicatif Accompagner techniquement l’équipe ( revues de code, échanges, conseils/mentorat ) Participer aux rituels agiles et aux échanges techniques Intégrer / maintenir les tests automatisés dans les pipelines existants Documenter les évolutions Être opérationnel(le) rapidement (autonomie, adaptabilité)
Freelance

Mission freelance
Data Custodian

MLMCONSEIL
Publiée le
Data governance

6 mois
100-500 €
Nantes, Pays de la Loire
Pour mon client basé à Nantes , je suis à la recherche d'un Data Custodian : En tant que Data Custodian, on assure la visibilité, la qualité et la disponibilité des données issues du RAW, tout au long de la chaîne de traitement au sein de la Plateforme. On accompagne les équipes dans l’identification et l’accès aux données pertinentes, en facilitant la compréhension des structures et des flux, ainsi que la documentation des sources pertinentes. Capacité à travailler dans un framework Agile Capacité à tracer les flux et documenter les transformations Connaissance des sources et du RAW Anticipation des effets des évolutions des sources sur les socles Le Data Custodian doit avoir un passif de Data Engineer/LeadTech Data ou Data Steward.
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Freelance

Mission freelance
Data Gouvernance / Data Custodian – Paris / Nantes

FRENCHOPS SERVICES
Publiée le
Data governance
Data Lake
Data management

1 an
Paris, France
Nous recherchons deux profils complémentaires : Expert Data Gouvernance : définition du cadre stratégique et de la gouvernance des données Data Custodian : mise en œuvre opérationnelle et supervision des données Ces deux rôles interviennent sur la visibilité, la qualité et la fiabilité des données tout au long de la chaîne de traitement. Expert Data Gouvernance Objectif Définir le cadre de gouvernance des données et apporter la vision stratégique permettant de structurer les pratiques autour de la plateforme data. Responsabilités Définir le cadre de gouvernance des données Structurer les rôles et responsabilités autour de la data Accompagner les équipes métiers et techniques Apporter une vision stratégique sur l’organisation et la gestion des données Informations mission Durée : 2 à 3 mois renouvelable Charge : 40 à 60 % Localisation : Paris ou Nantes Déplacements ponctuels à Nantes Data Custodian Rôle Le Data Custodian garantit la visibilité, la qualité et la disponibilité des données issues du RAW et agit comme point de contact privilégié avec les systèmes sources. Objectifs Garantir la disponibilité, la qualité et la traçabilité des données Assurer la complétude des sources Maintenir la visibilité sur les données brutes et leurs transformations Garantir la cohérence des données pour les équipes métiers et techniques Activités BUILD Cartographier les données RAW et identifier les sources Documenter les sources et les transformations Participer aux ateliers de conception Mettre en place des outils de catalogue / dictionnaire de données Définir les métriques et alertes pour la supervision Activités RUN Superviser la chaîne technique du RAW Suivre les flux et indicateurs Informer les équipes des évolutions des systèmes sources Analyser l’impact sur les socles data Sponsoriser les évolutions SI améliorant la qualité des données Durée : 1 an renouvelable Charge : temps plein Localisation : Nantes
Freelance

Mission freelance
Ingénieur(e) Système Azure

emagine Consulting SARL
Publiée le
Azure
Microsoft Windows
VMware

3 ans
Île-de-France, France
· Assurer le support de niveau 3 pour les incidents liés à l'infrastructure de nos applications étant hébergés sur nos cloud provider (Azure et GCP) · Suivre le backlog d’incidents et de demandes via l’outil ServiceNow · Qualification des demandes avant soumission à nos infogérant cloud. · Suivi des infogérant cloud "techniquement N3" pour les demandes d'incidents et de changements. · Rédiger et maintenir la documentation technique à jour. · Automatiser les tâches d'administration système. · Réaliser la qualification et suivi des remédiations de sécurité (CVE, Cloud, etc.) en lien avec nos infogérant · Réaliser les demandes d’ouvertures de flux réseau vers notre partenaire réseau · Prendre en charge les demandes urgente (installation de VM, test de reprise après sinistre isolé
5095 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous