L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 711 résultats.
Offre d'emploi
Tech Lead Data Engineer - Databricks
VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL
1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Mission freelance
Profil Data Azure (modernisation applicative)
Signe +
Publiée le
ETL (Extract-transform-load)
12 mois
400-550 €
Gémenos, Provence-Alpes-Côte d'Azur
Contexte général Mission de modernisation Data dans un environnement industriel (Industry 4.0). L’application concernée est une solution critique de traçabilité industrielle, aujourd’hui basée sur des bases Oracle et des systèmes legacy. Elle présente des limites en termes de performance, monitoring, sécurité et coûts. L’objectif est de transformer cette solution en une application PaaS sur Microsoft Azure. Le consultant interviendra sous pilotage interne, avec des instances de validation formelles et un cadre projet structuré (réunions hebdomadaires et revues mensuelles). Objectifs de la mission Étudier l’existant et identifier les limitations techniques et fonctionnelles Définir une architecture cible Azure (coûts, sécurité, performance, gains attendus) Migrer les données et traitements depuis Oracle et systèmes legacy vers Azure Moderniser les pipelines Data (cloud-native, automatisés, sécurisés) Mettre en place le monitoring, la sécurité et les processus DevOps Documenter et assurer le transfert de connaissances Missions principales Conception et implémentation de pipelines ETL / ELT (Azure Data Factory / Fabric) Migration de données Oracle vers Azure Refactoring et automatisation de scripts legacy Mise en place de CI/CD pour les workflows Data (GitLab ou Azure DevOps) Supervision, logging, alerting des pipelines et services Gestion de la sécurité : RBAC, chiffrement, conformité Rédaction de la documentation technique et accompagnement des équipes Compétences clés attendues Forte expertise Azure Data Factory / Microsoft Fabric Expérience concrète de projets de modernisation Data Très bonne maîtrise des bases de données Oracle (admin, optimisation) Bonne pratique des environnements Windows Mise en place de pipelines CI/CD Data Sensibilité forte aux enjeux sécurité et coûts cloud Capacité à travailler en autonomie avec des interlocuteurs variés (IT, sécurité, sites industriels) Organisation & gouvernance Réunions techniques : hebdomadaires + à la demande Suivi d’avancement : hebdomadaire Présentations management / stakeholders : trimestrielles Forte autonomie attendue dans la conduite des échanges (en anglais) Planning prévisionnel Étude de l’existant et définition de la cible : 1 mois Mise en place de l’environnement cible : 1 mois Implémentation des pipelines ETL : 2 mois Monitoring, sécurité et DevOps : 1 mois Documentation et support : 1 mois Contraintes Localisation : Gemenos Démarrage : ASAP Télétravail : 1 à 2 jours maximum par semaine
Mission freelance
Architecte technique SI H/F
Cheops Technology
Publiée le
AWS Cloud
12 mois
400-520 €
Nantes, Pays de la Loire
Mission principale L’architecte technique assure la cohérence et l’évolution de l’architecture technique en conformité avec le Schéma Directeur des Produits technologiques (SDP) et l’architecture globale Architecture Technique Prod Il intervient principalement sur les projets liés aux domaines Production et Référentiels de la Fabrique SI. Activités et responsabilités 1. Études d’architecture amont Analyse de l’existant et cadrage technique Étude de faisabilité et scénarios d’architecture Comparaison et synthèse des solutions possibles Estimation macro des coûts techniques Identification et modélisation des flux inter-applicatifs Définition des standards d’échanges Livrables possibles : DAL (Dossier d’Architecture Logique) note d’architecture étude de cadrage technique. Architecture Technique Prod Tra… 2. Conception de l’architecture technique Définition de l’architecture technique cible Validation des choix technologiques Cohérence avec les standards du SI SNCF Participation aux comités d’architecture Contribution aux documents d’architecture (DAT, DAL). 3. Accompagnement des projets Support technique aux équipes projet Collaboration avec : architectes SI lead tech équipes infrastructures autres DSI du groupe Suivi de la mise en œuvre de l’architecture. 4. Gouvernance technique Veille technologique Conseil aux équipes de conception Contribution à la définition des infrastructures Amélioration des processus d’architecture. Livrables attendus Études d’architecture technique DAL / DAT notes de cadrage recommandations techniques modélisation des flux et des infrastructures.
Mission freelance
Data Gouvernance / Data Custodian – Paris / Nantes
FRENCHOPS SERVICES
Publiée le
Data governance
Data Lake
Data management
1 an
Paris, France
Nous recherchons deux profils complémentaires : Expert Data Gouvernance : définition du cadre stratégique et de la gouvernance des données Data Custodian : mise en œuvre opérationnelle et supervision des données Ces deux rôles interviennent sur la visibilité, la qualité et la fiabilité des données tout au long de la chaîne de traitement. Expert Data Gouvernance Objectif Définir le cadre de gouvernance des données et apporter la vision stratégique permettant de structurer les pratiques autour de la plateforme data. Responsabilités Définir le cadre de gouvernance des données Structurer les rôles et responsabilités autour de la data Accompagner les équipes métiers et techniques Apporter une vision stratégique sur l’organisation et la gestion des données Informations mission Durée : 2 à 3 mois renouvelable Charge : 40 à 60 % Localisation : Paris ou Nantes Déplacements ponctuels à Nantes Data Custodian Rôle Le Data Custodian garantit la visibilité, la qualité et la disponibilité des données issues du RAW et agit comme point de contact privilégié avec les systèmes sources. Objectifs Garantir la disponibilité, la qualité et la traçabilité des données Assurer la complétude des sources Maintenir la visibilité sur les données brutes et leurs transformations Garantir la cohérence des données pour les équipes métiers et techniques Activités BUILD Cartographier les données RAW et identifier les sources Documenter les sources et les transformations Participer aux ateliers de conception Mettre en place des outils de catalogue / dictionnaire de données Définir les métriques et alertes pour la supervision Activités RUN Superviser la chaîne technique du RAW Suivre les flux et indicateurs Informer les équipes des évolutions des systèmes sources Analyser l’impact sur les socles data Sponsoriser les évolutions SI améliorant la qualité des données Durée : 1 an renouvelable Charge : temps plein Localisation : Nantes
Offre d'emploi
Ingénieur Systèmes & Cloud – Automatisation / Build & Run (H/F)
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Azure Active Directory
Windows Server
3 ans
Villeneuve-d'Ascq, Hauts-de-France
Dans le cadre d’une mission longue durée, nous recherchons un Ingénieur Systèmes & Cloud pour intervenir chez l’un de nos clients stratégiques. 📌 Répartition des activités : 80% Build (projets, modernisation, automatisation) 20% Run (maintien en conditions opérationnelles) 🚀 Vos missions 🔧 Administration & Exploitation Administration et évolution des environnements Microsoft Windows Server , Active Directory , Entra ID (Azure AD) Support N3 sur les infrastructures serveurs Gestion et optimisation des environnements VMware (vSphere, vCenter) ☁️ Cloud & Transformation Participation à la migration et à l’exploitation d’environnements Cloud publics et privés Mise en œuvre de solutions Infrastructure as Code (IaC) : Terraform, Packer, Ansible, PowerShell Contribution aux projets de transformation IT : sécurité, automatisation, modernisation Veille technologique et recommandations sur les bonnes pratiques Cloud & Systèmes
Offre d'emploi
Développeur Java 17/21 (H/F)
AVA2I
Publiée le
AWS Cloud
Back-end
Java
3 ans
Île-de-France, France
Dans le cadre d’un projet de migration applicative , notre client grands comptes dans le secteur de l'énergie recherche un Développeur Java pour intervenir sur une application stratégique de lecture et analyse de contrats , intégrant des composants d’Intelligence Artificielle. L’application exploite des services AWS et des solutions IA (Bedrock). Équipe projet composée de 5 personnes : 2 développeurs externes 2 développeurs internes 1 Data Scientist Missions principales Participation au projet de migration technique Développement backend en Java (17 / 21 / 25) Évolutions et maintenance de l’application Intégration avec services AWS Collaboration avec le Data Scientist sur les composants IA Participation aux rituels d’équipe Compétences obligatoires Java 17 / 21 (25 apprécié) Expérience projet de migration API / développement backend AWS Connaissance ou exposition à l’IA (idéalement Bedrock) ➕ Apprécié Angular (front léger) Travail en petite équipe agile
Offre d'emploi
Développeur Backend Kotlin
VISIAN
Publiée le
Amazon DynamoDB
AWS Cloud
Kotlin
1 an
Paris, France
Nous recherchons un·e développeur·euse backend confirmé·e ou senior pour renforcer une équipe mixte entre Nantes et Paris, afin de travailler sur les problématiques Paiement dans le cadre de la refonte du moteur booking. Le prestataire intégrera un chantier déjà en cours, avec des deadlines critiques en Q1 2027. Les objectifs clés de la refonte : Modélisation des API et du modèle de données selon la norme européenne OSDM. Construction d'un moteur d'orchestration agnostique des spécificités fournisseurs, avec déport de la logique complexe vers les équipes en charge des connecteurs fournisseurs. Sortie du monorepo historique et mise en place d'une nouvelle chaîne de delivery (GitLab repos, CI/CD GitLabCI, Helm, ArgoCD — modèle GitOps). La mission se concentre sur le stream Paiement du moteur booking et inclut notamment : La réalisation d'études et cadrages technico-fonctionnels (initiation, exécution, post‑paiement, réconciliation, refunds, gestion des échecs, interactions PSP, etc.). Le développement backend en Kotlin. La conception et l'implémentation d'API REST basées sur OSDM. La contribution aux choix d'architecture en tant que contributeur. La mise en qualité : tests (unitaires, intégration, performance), revues de code, amélioration CI/CD. Le monitoring et l'optimisation des performances. Les interactions quotidiennes avec les autres profils de l'équipe (PO, SM, Lead Dev, Dev, QA). Les interactions régulières avec les autres équipes du domaine. La définition des contrats d'interface entre moteur et connecteurs fournisseurs. La prise en compte des exigences de sécurité et conformité PCI‑DSS. La participation aux cérémonies agiles.
Offre d'emploi
Production Engineer (K8S / AWS / Datadog) — Lille (59)
NEWRAMA
Publiée le
Datadog
3 ans
Paris, France
Rejoignez une équipe d'experts Ops en charge de l'exploitation d'une plateforme digitale critique à très fort trafic. Au sein d’un domaine orienté RUN, Fiabilité et Performance, vous intervenez sur un environnement technologique de pointe où l'observabilité est la clé de la réussite. Ici, le défi est de garantir une disponibilité sans faille pour des millions d'utilisateurs quotidiens, tout en modernisant l'infrastructure en continu. Vos Objectifs En tant que Senior Production Engineer, vous portez une vision "Reliability" et industrialisez la production : Exploitation (RUN) : Assurer la disponibilité et la performance des applications en production. Observabilité & Pilotage : Utilisation avancée de Datadog pour le monitoring, la supervision de la QoS et le diagnostic. Gestion d'Incidents : Analyse, debug et pilotage des incidents majeurs (approche SRE). Modernisation : Contribuer aux chantiers de rebuild / refactoring (scalabilité et optimisation des coûts Cloud). Automatisation : Industrialiser les processus dans une approche GitOps / DevOps (FluxCD, GitLab CI). Stack Technique Cloud : AWS (Full Cloud) Orchestration : Kubernetes (K8S), Helm, FluxCD Infrastructure as Code : Terraform Observabilité : Datadog (Expertise indispensable) CI/CD / Container : GitLab CI, Docker Ecosystème : Cloudflare, Keycloak, MongoDB, Java
Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP
PROPULSE IT
Publiée le
Azure
Cloud
Infrastructure
24 mois
350-700 €
Paris, France
o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
Offre d'emploi
Enseignant chercheur en Big Data & IA (H/F)
█ █ █ █ █ █ █
Publiée le
Big Data
Deep Learning
Bordeaux, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Developpeur ETL sous Synapse
ALLEGIS GROUP
Publiée le
Azure Synapse
Qlikview
36 mois
400-500 €
Angoulême, Nouvelle-Aquitaine
Description : Nous recherchons un Testeur/Développeur ETL spécialisé en Business Intelligence pour rejoindre notre équipe SI BI au sein d'une mutuelle. Vous serez en charge de la qualité et du développement des processus d'alimentation de notre Data Warehouse, en garantissant la fiabilité et la cohérence des données dans un environnement assurantiel. Missions : - Concevoir, réaliser et exécuter des tests fonctionnels de bout en bout sur les développements ETL - Assurer les tests de non-régression de bout en bout sur les flux d'alimentation du Data Warehouse - Développer et maintenir des processus ETL pour l'alimentation du DWH - Participer au projet d'agrégation des indicateurs métier - Contribuer à l'intégration des données des portails dans le DWH - Assurer l'intégration des données de téléphonie dans le Data Warehouse - Identifier et documenter les anomalies détectées - Collaborer avec les équipes métier et IT pour garantir la qualité des livrables - Etablir les plans de recette, PV de recette conformément à méthodologie définie
Mission freelance
Ingénieur(e) Système Azure
emagine Consulting SARL
Publiée le
Azure
Microsoft Windows
VMware
3 ans
Île-de-France, France
· Assurer le support de niveau 3 pour les incidents liés à l'infrastructure de nos applications étant hébergés sur nos cloud provider (Azure et GCP) · Suivre le backlog d’incidents et de demandes via l’outil ServiceNow · Qualification des demandes avant soumission à nos infogérant cloud. · Suivi des infogérant cloud "techniquement N3" pour les demandes d'incidents et de changements. · Rédiger et maintenir la documentation technique à jour. · Automatiser les tâches d'administration système. · Réaliser la qualification et suivi des remédiations de sécurité (CVE, Cloud, etc.) en lien avec nos infogérant · Réaliser les demandes d’ouvertures de flux réseau vers notre partenaire réseau · Prendre en charge les demandes urgente (installation de VM, test de reprise après sinistre isolé
Offre d'emploi
Ingénieur/e Identité Microsoft Active Directory & Entra ID
Panda Services
Publiée le
Active Directory
ADFS
Azure
12 mois
Paris, France
Panda Services, société de services (ESN) spécialisée dans la délégation de compétences informatiques, recherche pour l'un de ses clients à Paris [75] un(e) Ingénieur/e Identité Microsoft Active Directory & Entra ID Mission Assurer la gestion, la sécurité et l’évolution des annuaires Microsoft Active Directory et Entra ID ainsi que des services associés (DNS, DHCP, MFA), tout en garantissant le support niveau 3 et l’intégration des besoins projets. Activités principales MCO / MCS : maintien opérationnel et support technique Support N3 identités & accès et traitement des tickets d’escalade Sécurité : maintien du Tiering, audits, gestion des escalades Infrastructure : optimisation, migrations, topologie, DRP Administration Entra ID : EntraCONNECT, PTA, Hybridation Projets : intégration des besoins GPO et sécurité Compétences techniques On-Premises Microsoft Active Directory & Tiering DNS, DHCP, PKI GPO, MFA, sécurité des accès et délégations Cloud / Azure AD / Entra ID hybride, EntraConnect PTA / PHS / ADFS Administration M365 / Entra ID Sécurité Entra ID, Conditional Access, EAM Entra ID P1 & P2, gestion des accès Azure, rôles et politiques 👤 Profil recherché Minimum 6 ans d’expérience en environnement Microsoft on-prem et cloud Azure / O365 Expérience en secteur bancaire ou réseau d’agences appréciée Responsabilités clés : Administration et évolution de l’AD (~4000 utilisateurs) Amélioration de la sécurité et application des règles en vigueur Support niveau 3 et référent pour les équipes SI Participation aux audits internes et projets d’infrastructure Mise à jour de la documentation technique Savoir-être Orientation résultat et solution Travail en équipe et en mode projet Communication claire et synthétique Autonomie, engagement et force de proposition Capacité à s’auto-organiser
Offre d'emploi
Data Migration Expert (H/F)
HELPLINE
Publiée le
Data cleaning
Migration
1 an
40k-65k €
510-620 €
Île-de-France, France
Contexte : Nous recherchons pour notre client un Data Migration Expert (H/F), afin de piloter et structurer les activités de migration de données dans le cadre d’un programme de transformation. Le Data Migration Expert gère les activités de migration de données depuis la phase de préparation jusqu’à l’exécution. Il accompagne les équipes locales dans la mise en œuvre des activités allant de la définition de l’approche de migration jusqu’à la validation métier des données. Missions principales Définir et porter la méthodologie Définir la stratégie de data cleansing , les KPIs associés et assurer leur suivi Garantir la cohérence des pratiques entre les régions et contribuer à l’amélioration continue Définir et maintenir les templates et outils de migration : MAD (Migration Approach Definition) Règles de mapping Séquence des tâches DTM Outils de validation et de chargement Rapports et dashboards de qualité de données (NEO) Bibliothèque de connaissances (NEO Fit, FAQ, etc.) Arbitrer les écarts à la méthodologie et gérer les impacts des Deviation Requests Former et animer la communauté des Data Migration Experts sur son périmètre
Offre d'emploi
Lead Cloud Engineer Data & AI
Groupe Aptenia
Publiée le
AWS Cloud
DevSecOps
MLOps
6 mois
Occitanie, France
Lead Cloud Engineer Data & IA pour un programme R&D d’envergure. Conception, automatisation et exploitation de plateformes cloud AWS enterprise, sécurisées et scalables pour soutenir des cas d’usage Data, ML, MLOps et IA. Déploiement de landing zones, pipelines Data/MLOps et Infrastructure-as-Code. Intégration de la sécurité by-design, de la conformité GxP/GDPR et d’une posture audit-ready. Leadership technique, animation de communautés d’ingénierie et collaboration étroite avec équipes data, produit, sécurité et compliance.
Mission freelance
Architecte Data
Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5711 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois