L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 004 résultats.
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Offre d'emploi
Ingénieur infrastructure DevOps / Terraform (6 à 9 ans d'exp) H/F
TOHTEM IT
Publiée le
35k-43k €
Toulouse, Occitanie
Tu interviens dans un environnement IT mutualisé de grande envergure, engagé dans une transformation profonde de ses pratiques d’infrastructure. L’objectif : mettre en place une démarche inner source autour du code Terraform pour standardiser, sécuriser et industrialiser les infrastructures, tout en renforçant la collaboration entre équipes. Ta mission Structurer, fiabiliser et faire évoluer les pratiques d’Infrastructure as Code dans un contexte multi-cloud, en combinant expertise technique, animation transverse et amélioration continue. ️ Ce que tu vas faire Mettre en œuvre des chaînes de contrôle, de validation et de qualité du code Terraform Définir un système d’évaluation des contributions et des contributeurs Animer et structurer une communauté technique autour des bonnes pratiques IaC Contribuer à la conception, au build et au maintien en condition opérationnelle des plateformes d’infrastructure Jouer un rôle d’expert·e et de référent·e technique auprès des équipes projets Assurer une veille technologique active et proposer des améliorations continues
Offre d'emploi
Alternance - Chef de Projet Informatique F/H
█ █ █ █ █ █ █
Publiée le
Rouen, Normandie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Ingénieur DevOps (Bordeaux)
CAT-AMANIA
Publiée le
Ansible
AWS Cloud
Azure
3 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
En tant qu'Ingénieur DevOps et en collaboration avec les équipes de développement, d'exploitation et d'architecture, votre activité sera de : Contribuer à la conception, au déploiement et à l’exploitation de systèmes fiables et scalables Être le Backup de l’architecte DevOps sur la stack GitLab (CI/CD, pipelines, runners) puis maintien en condition opérationnelle Réaliser l'automatisation des déploiements et des infrastructures (IaC) Mettre en oeuvre des pratiques DevSecOps Superviser, monitorer et gérer des incidents Réaliser l'optimisation continue des pipelines CI/CD Documenter et transmettre les compétences vers les équipes internes
Mission freelance
[SCH] Analytics Engineer / Data Engineer Conformité – Lutte contre la fraude - 1413
ISUPPLIER
Publiée le
10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre de la plateforme SPIDER, dédiée à la lutte contre la fraude, le blanchiment et le financement du terrorisme, notre client recherche un Analytics Engineer / Data Engineer orienté conformité. Intégré à la squad compliance de solutions cognitives, le consultant interviendra sur une plateforme d’investigation s’appuyant sur des technologies graphes comme Neo4j et Linkurious, permettant de centraliser les données issues de multiples applications internes et d’offrir une vision 360° des personnes et de leurs interactions. La mission porte plus particulièrement sur le socle d’ingestion de données alimentant la base graphe, avec un fort enjeu de qualité, de modélisation, d’industrialisation et de collaboration avec les métiers fraude et LCB-FT. Missions : -Transformer, modéliser et documenter les données brutes pour les rendre exploitables -Développer des modèles et produits de données orientés conformité pour alimenter la base graphe -Maintenir en condition opérationnelle les flux d’ingestion vers la base de données graphe -Améliorer les processus de traitement des données afin de gagner en rapidité et efficacité -Créer et mettre à jour la documentation des produits de données -Automatiser les contrôles et tests de qualité pour garantir l’intégrité des données -Produire des analyses à destination des métiers pour le calibrage de scénarios de fraude et de vigilance LCB-FT -Collaborer avec les Data Engineers et les métiers de la fraude / conformité pour enrichir la base graphe -Participer à la mise en production des produits de données avec l’équipe Data Platform -Contribuer à la structuration des flux dans une logique ELT / ETL et architecture data moderne Profil attendu : -Expérience confirmée en Analytics Engineering / Data Engineering -Très bonne maîtrise de SQL et Python -Bonne connaissance des concepts ETL / ELT -Expérience en modélisation de données -Connaissance de Snowflake et Dataiku -Bonne compréhension des architectures data modernes (médaillon, data mesh) -Capacité à travailler sur des sujets de qualité, documentation et industrialisation -Aisance à collaborer avec des équipes techniques et métiers -Sensibilité aux enjeux de fraude, conformité et LCB-FT appréciée -Rigueur, autonomie et bon niveau d’analyse
Mission freelance
Ingénieur Production BI : Expert Microsoft (Power BI / SSIS) (H/F)
Link Consulting
Publiée le
BI
microsoft
1 mois
600-700 €
Paris, France
Notre client, acteur majeur du secteur bancaire, recherche un Ingénieur de Production / Middleware spécialisé Microsoft BI (H/F) pour renforcer ses équipes sur un projet critique de build et d’industrialisation des plateformes. Vos missions : Au sein d’une équipe en charge de l'ingénierie des outils BI & ETL, vous interviendrez sur la conception et l'automatisation des environnements Microsoft dans un contexte à forte contrainte opérationnelle. * Build & Ingénierie : Réaliser l’installation et le paramétrage "from scratch" d'infrastructures Power BI Report Server, SSIS et SSRS. * Architecture Technique : Définir l’architecture cible, rédiger les Dossiers d’Architecture Technique (DAT) et assurer l'évolution des environnements. * Automatisation & DevOps : Piloter l’industrialisation des déploiements via Ansible et les outils de CI/CD (XL Release / XL Deploy). * Administration Middleware : Assurer le maintien en condition opérationnelle (MCO) et l'optimisation des serveurs Web IIS et des instances SQL Server. * Sécurisation : Contribuer aux dispositifs de sécurité (SSO, certificats, Kerberos), aux plans de sauvegarde et à la continuité de service (PCA/PRA). * Support & Expertise : Réaliser des diagnostics complexes sur la stack Microsoft, identifier les causes racines et rédiger les procédures d’exploitation pour les supports N1/N2. Compétences techniques : * Expertise Microsoft BI (Power BI RS, SSIS, SSRS) – côté infrastructure et administration. * Maîtrise du Middleware Windows : IIS (Internet Information Services) et gestion des instances SQL. * Industrialisation : Maîtrise d’Ansible et connaissance des outils XL Deploy / XL Release. * Environnements : Expertise Windows Server (et notions Linux). * Sécurité & Réseau : Compétences en SSO, Active Directory et gestion des flux sécurisés. * Documentation : Capacité à rédiger des dossiers d’architecture et des procédures d’exploitation rigoureuses.
Offre d'emploi
Ingénieur Réseau ACI / NSX-T (H/F)
STORM GROUP
Publiée le
Cisco ACI
Python
Terraform
3 ans
60k-65k €
580-650 €
Île-de-France, France
Contexte : Dans le cadre du renforcement de notre équipe infrastructure, nous recherchons un ingénieur réseau expérimenté spécialisé dans les environnements data center modernes, notamment Cisco ACI et VMware NSX-T, avec une forte appétence pour l’automatisation. Missions principales : Concevoir, déployer et maintenir des infrastructures réseau basées sur Cisco ACI et VMware NSX-T Assurer l’intégration des solutions réseau dans des environnements virtualisés et cloud Automatiser les tâches d’exploitation et de déploiement via Python et Terraform Participer à l’industrialisation des déploiements (Infrastructure as Code) Gérer les incidents de niveau 2/3 et assurer le support technique avancé Optimiser les performances, la sécurité et la disponibilité des infrastructures réseau Rédiger la documentation technique et les procédures d’exploitation Collaborer avec les équipes systèmes, sécurité et DevOps Participer aux projets de transformation réseau (SDN, micro segmentation, etc.)
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Offre d'emploi
Expert Data spécialisé sur Semarchy
OBJECTWARE
Publiée le
Semarchy
6 mois
Indre-et-Loire, France
Nous recherchons un Expert Data spécialisé sur Semarchy pour intervenir sur un projet autour de la gestion et de la gouvernance des données . Vos missions : Mise en place et évolution de solutions Semarchy (MDM) Modélisation et gestion des référentiels de données Participation à la gouvernance et à la qualité des données Collaboration avec les équipes techniques et métiers Profil recherché : Expérience sur Semarchy xDM / MDM Bonne compréhension des enjeux data / gouvernance des données Autonomie et capacité à intervenir sur des environnements data 📍 Poste basé en Indre-et-Loire (37) 📅 Démarrage : dès que possible
Offre d'emploi
Ingénieur de production Mainframe H/F
DCS EASYWARE
Publiée le
42k-48k €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de notre développement, nous recrutons un Gestionnaire Applicatif Mainframe pour intervenir chez l’un de nos clients majeurs du secteur bancaire. Vous évoluerez au sein d’un environnement mainframe IBM z/OS critique, supportant l’ensemble des activités bancaires et assurantielles du groupe. Vos principales missions : Concevoir et maintenir le plan de production : ordonnancement, enchaînements, dépendances, fenêtres batch Assurer le suivi de l’exploitation quotidienne : contrôle de bonne fin, analyse des anomalies, corrections Coordonner les mises en production : validation des livrables, intégration, tests d’exploitabilité Gérer les incidents de production : diagnostic, coordination, communication, résolution Piloter les changements techniques : planification, exécution, suivi post-opération Maintenir la documentation d’exploitation : procédures, consignes, plans de reprise Attention, Ce poste n’est pas un poste de développement ! Vus êtes un chef d’orchestre de la production applicative : vous construisez les plans de production, vous pilotez les traitements batch, vous coordonnez les mises en production
Offre d'emploi
Ingénieur Qualité Affaire (H/F)
CELAD
Publiée le
42k-50k €
Nice, Provence-Alpes-Côte d'Azur
Vos principales missions : Être le garant du respect des exigences qualité clients sur les projets Assurer le rôle d’interface qualité avec le client Mettre en place et piloter le plan qualité projet Animer les processus et outils qualité (tableaux de bord, indicateurs, reporting…) Accompagner les équipes projet sur les aspects qualité Participer à l’amélioration continue des processus et outils qualité Sensibiliser et développer la culture qualité au sein des équipes Vos activités principales : Élaborer et déployer les plans d’assurance qualité Veiller à l’application des référentiels qualité et des exigences internes Garantir la conformité des produits aux cahiers des charges clients Participer aux revues de projet et réunions d’avancement (internes et clients) Piloter le suivi des non-conformités (anomalies, dérogations…) Suivre les jalons qualité et assurer leur validation Évaluer la qualité des livrables et produits Réaliser les acceptations internes et accompagner les recettes client Contribuer à l’amélioration du Système de Management de la Qualité Réaliser des audits internes et audits fournisseurs Capitaliser sur les retours d’expérience projets Relations internes : collaboration transverse avec l’ensemble des services (projets, production, méthodes…) Relations externes : clients, représentants qualité, fournisseurs et sous-traitants
Offre d'emploi
Ingénieur DevOps/Cloud
NAVIGACOM
Publiée le
AWS Cloud
Azure
55k-75k €
Puteaux, Île-de-France
Dans le cadre de notre développement, nous recherchons un Ingénieur DevOps/Cloud pour intervenir sur des environnements complexes et internationaux. Vous intervenez sur l’ensemble de la chaîne de valeur, du build à la production : Concevoir, déployer et maintenir des infrastructures cloud (AWS et/ou Azure) Mettre en place et optimiser des pipelines CI/CD pour automatiser les déploiements Industrialiser les environnements via des approches Infrastructure as Code (IaC) Participer à la containerisation des applications (Docker) et à leur orchestration (Kubernetes) Assurer la supervision, la performance et la disponibilité des systèmes Mettre en place des solutions de monitoring, logging et alerting Travailler sur la sécurisation des environnements cloud (IAM, secrets, bonnes pratiques) Participer à l’amélioration continue des processus DevOps Collaborer avec les équipes de développement pour optimiser les architectures applicatives Intervenir en support sur des incidents critiques en production Documenter les architectures, les pipelines et les procédures
Offre d'emploi
Consultant Juriste Confirmé Data Privacy-RGPD 2
KEONI CONSULTING
Publiée le
Architecture
Méthode Agile
Privacy Impact Assessment (PIA)
18 mois
20k-60k €
100-450 €
Toulouse, Occitanie
Contexte Recherche en Droit Numérique MISSIONS - Assister et conseiller les chefs de projets Informatiques dans l'identification des données à caractères personnelles, des traitements associés, documenter les livrables RGPD selon la méthodologie CNIL en lien avec l'expert Sécurité des Systèmes d'Information dans le respect de la méthode Groupe, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. - rédiger les AIPD /PIA en lien avec les Métiers et les DPO concernés, les filières Juridiques/Achat, Conformité du Groupe mais également pour - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de Privacy (RGPD, Cookies et Traceurs, usages Data et IA...) des systèmes d'information. - Effectuer une veille en matière de Protection des données - Assurer le support en cas de violations de données, demandes de la CNIL et d'exercices de droits et en assurer le support auprès des plateformes Métiers et en lien avec la Direction Protection des Données du Groupe Vous êtes autonome rigoureux, pédagogue, communicant, dynamique et proactif. Expertises spécifiques : Compétences Juridiques Requises / Certification DPO CNIL indispensable Compétences informatiques : MOOC ANSSI, Architecture des SI, Iso 27001/27005/27701 Connaissances des métiers Banque et Assurances requises Connaissances Méthode Projet Agile
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Ingénieur.e DevOps Senior
Atlanse
Publiée le
Automatisation
CI/CD
Infrastructure
1 an
60k-65k €
550-600 €
La Défense, Île-de-France
Vous évoluerez dans un environnement technique exigeant et collaboratif, en lien direct avec les équipes infrastructures et les équipes de développement métiers, afin d’optimiser l’automatisation, la fiabilité et la performance des chaînes de delivery. Votre rôleIndustrialisation et automatisation des plateformes • Concevoir et mettre en œuvre des solutions d’automatisation des déploiements et des environnements • Participer à l’industrialisation des processus d’intégration et de livraison continue • Mettre en place et optimiser les pipelines CI/CD sous GitLab • Contribuer à l’amélioration continue des pratiques DevOps Gestion et évolution des infrastructures • Intervenir sur les environnements infrastructures et plateformes techniques • Participer à la mise en place et à l’évolution des architectures conteneurisées • Administrer et optimiser les clusters Kubernetes • Contribuer aux stratégies de sauvegarde et de résilience des environnements Collaboration avec les équipes projets et développement • Travailler en proximité avec les équipes de développement métiers • Apporter une expertise technique sur les problématiques d’intégration et de déploiement • Participer à la résolution d’incidents complexes et à l’amélioration de la stabilité des plateformes • Contribuer à la documentation des processus et des architectures
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Etat du marché 2026: rebond ou stagnation ?
- J'ai lancé un outil IA pour automatiser la rédaction pro des freelances — vos retours ?
- Mission validée en freelance, ESN veut basculer en CDI : que faire ?
- profil effacé
- Déclaration TVA suite dépassement plafond
- Nouveau volet social dans la déclaration d'impôts sur le revenu
3004 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois