L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 306 résultats.
Mission freelance
SysOps Engineer
Publiée le
Active Directory
Veeam Backup & Replication
Virtualisation
14 mois
Paris, France
Télétravail partiel
Nous recherchons un Consultant System Ops/Sécurité pour renforcer une équipe IT en charge de la sécurité opérationnelle et de la fiabilité des infrastructures d’un grand groupe international. Le consultant interviendra en étroite collaboration avec les équipes cybersécurité , infrastructure et infogérance , afin d’assurer la continuité, la conformité et la sécurité des environnements techniques . Missions : Assurer la sécurité opérationnelle des systèmes IT et la conformité des environnements Windows & Linux. Coordonner les actions avec les équipes CyberSOC et les prestataires externes pour la remédiation des vulnérabilités (CVE critiques, patching). Gérer et renouveler les certificats de sécurité (Sectigo, Digicert, sous-CA interne). Administrer l’ Active Directory (création/modification de comptes, intégrations applicatives, remédiation). Superviser les solutions de sauvegarde VEEAM (B&R, Veeam One, intégration Azure, reporting). Contribuer à la gestion des infrastructures de stockage locales et cloud (Azure). Participer à l’administration et à la sécurisation des environnements de virtualisation de postes (Citrix, AVD). Collaborer aux plans de continuité / PRA-DRP pour les serveurs critiques.
Mission freelance
IT Engineer - BELGIQUE
Publiée le
SCADA
1 an
550 €
Belgique
Nous recherchons un(e) IT Engineer pour rejoindre une équipe pluridisciplinaire dédiée à la gouvernance et à la mise à disposition des données industrielles dans une infrastructure Unified Namespace (UNS) . Composition de l’équipe : OT Engineer Senior Technical Leader OT Engineer Développeur Fullstack Expert en Data Governance Contexte et missions : Dans le cadre de la mise en place d’une architecture Industrie 4.0, vous travaillerez avec le Technical Leader pour évaluer et déployer des solutions permettant la collecte, la contextualisation et la standardisation des données machines . Vous contribuerez aux choix technologiques de l’infrastructure industrielle (ex. : HiveMQ, NodeRed, FlowFuse, SCADA, Kepware…). Une fois l’architecture validée, vous participerez à l’intégration des équipements existants dans cette nouvelle infrastructure, comprenant notamment : PLC (majoritairement Siemens S7) Commandes numériques (ex. Siemens 840D SL/PL/One) Robots industriels (majoritairement Fanuc) Étuves Lignes complètes de production Systèmes de traçabilité connectés … Vos responsabilités : Analyse et exploitation des données en collaboration avec l’ingénieur OT Création et configuration des topics dans HiveMQ Gestion des accès et de la sécurité dans HiveMQ Support au développement Low-Code (NodeRed-like) pour l’ingénieur OT Test des communications entre le middleware OT et HiveMQ Rédaction de la documentation complète et des checklists de tests Validation du fonctionnement réel par rapport aux attentes Mise en production et gestion du handover avec les équipes métiers Profil recherché : Expérience sur les systèmes industriels et les architectures IT/OT Connaissance des protocoles et outils de collecte et routage de données industrielles Capacité à travailler en équipe pluridisciplinaire
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Data Engineer H/F
Publiée le
Azure
3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Offre d'emploi
DevOps Engineer - CDI
Publiée le
Ansible
AWS Cloud
DevOps
55k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
🛠️ Missions principales Maintien opérationnel & fiabilité de la plateforme Superviser l’ensemble des environnements (préprod, staging, prod…) Mettre en place / améliorer le monitoring, les alertes et la supervision S’assurer de la bonne exécution des pipelines et des déploiements Garantir la disponibilité, la performance et la stabilité du SaaS CI/CD & automatisation Maintenir et améliorer une CI/CD mature sous GitLab Gérer la génération d’images Docker, pipelines multi-serveurs, tests automatisés Automatiser la création/destruction d’environnements à la volée Soutenir les équipes QA (tests fonctionnels automatisés) Infrastructure & IaC Maintenir l’infrastructure Kubernetes existante Maintenir et faire évoluer l’IaC complète en Terraform Améliorer les process d’automatisation avec Ansible Aider ponctuellement d’autres équipes à industrialiser leurs outils internes FinOps & optimisation des coûts Suivre l’usage de l’infrastructure au quotidien Participer au pilotage de la consommation cloud (alertes quotidiennes, revue hebdo) Analyser l’impact budgétaire des évolutions Terraform (plan vs apply) Proposer des optimisations pragmatiques Sécurité & bonnes pratiques Maintenir les niveaux de sécurité de la plateforme Garantir la conformité des environnements Appliquer les best practices DevOps / Cloud / Kubernetes Collaboration et participation aux rituels Participer activement aux points Kaizen avec les leads techniques Proposer des améliorations continues Fournir des outils fiables aux développeurs & aux équipes métier Travailler en étroite collaboration avec le manager technique (support constant) Stack technique Cloud AWS (maîtrise attendue) Connaissance Azure appréciée (migration prévue à moyen terme) IaC & orchestration Terraform (incontournable) Kubernetes Ansible CI/CD GitLab CI (self-hosted) Docker GitLab Registry Bonus Connaissance des langages de la plateforme : PHP Node.js / TypeScript / NestJS
Mission freelance
Payload Manager Engineer
Publiée le
Administration linux
Administration Windows
Réseaux
6 mois
Toulouse, Occitanie
Le poste vise à renforcer la capacité à servir l'un de nos clients dans le domaine des stations sol surveillant la charge utile des satellites de télécommunication. L’ingénieur projet réalise des tâches standards et avancées liées aux sous-systèmes dans le cadre des activités du client : intégration système, configuration, tests, conception, documentation technique, installation sur site, etc. Missions principales : Analyser les besoins système et proposer des solutions techniques. Participer à la conception des systèmes à livrer. Intégrer les sous-systèmes et participer aux campagnes de tests. Effectuer les tâches logistiques (expédition/réception). Installer, câbler et réaliser les opérations nécessaires à l’intégration. Rédiger la documentation technique (en anglais). Assurer le reporting et participer aux réunions clients. Réaliser des tâches QA et de gestion de configuration. Former les clients sur site.
Offre d'emploi
Data Engineer
Publiée le
Ansible
Big Data
Elasticsearch
1 an
40k-45k €
250-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission se déroule au sein de l'équipe Infrastructure CaaS (Container As a Service) pour la gestion, la maintenance et le contrôle de la Data et des assets de l'équipe. Nous proposons une mission de Data Engineering avec des expertises des produits récents sur le Big Data. Responsabilités Interaction avec REST APIs Gestion des jobs et administration Ansible + Scripts Python BigData Opensearch / Elastic + Dashboard Kibana / Power BI Technologies Confluence / JIRA pour la gestion documentaire, Git / Bitbucket
Mission freelance
Analytics Engineer Senior H/F
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
350-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur High-tech recherche un/une Analytics Engineer Senior H/F Description de la mission: Contexte : Le client déploie un programme stratégique pour fiabiliser et industrialiser ses métriques business. Il recherche un Senior Analytics Engineer Freelance pour piloter la conception et le POC d’un Semantic Layer destiné à +500 utilisateurs internes. Mission : 1. Semantic Layer (mission prioritaire) Concevoir et prototyper l’architecture du Semantic Layer (dbt + BigQuery + GCP). Standardiser et documenter les métriques business clés. Définir une source unique de vérité pour tous les outils analytics (Tableau, BigQuery, GSheets, LLMs…). Intégrer le Semantic Layer aux usages IA (LLM). Produire la documentation technique et les bonnes pratiques. 2. Pipeline Analytics Maintenir et optimiser le pipeline existant (dbt + BI). Développer nouvelles features (qualité, documentation, monitoring). Résoudre incidents & data quality issues. Optimiser coûts et performances BigQuery. Support ponctuel aux équipes internes (code review, mentoring junior). Administration BI (gestion utilisateurs & permissions). Profil recherché : 5+ ans en Analytics Engineering / Data Engineering. Expertise dbt (modélisation, tests, docs) & SQL avancé. Très bonne maîtrise BigQuery (optimisation, coûts). Expérience démontrée Semantic Layer / Metrics Layer (dbt metrics, LookML, Cube.js…). Expérience BI (Tableau, Looker…). Bonus : GCP, modélisation dimensionnelle.
Offre d'emploi
Data Engineer Streamlit SnowFlake expérience santé
Publiée le
Python
Snowflake
Streamlit
3 mois
40k-45k €
340-500 €
Roubaix, Hauts-de-France
Télétravail partiel
La prestation consiste à contribuer activement à la mise en œuvre d’une application Streamlit dédiée à la tarification des contrats Santé et Prévoyance, s’appuyant sur notre socle Snowflake. Cette application sera mise à disposition des équipes métiers. La mission inclut : - Développer des écrans interactifs avec Streamlit - Participer à la conception du modèle de données sous-jacent - Contribuer à la définition des règles de gestion et des calculs pris en charge par l’application - Effectuer les tests (recette) afin de garantir la conformité de l’interface et des calculs aux besoins métiers - Assurer l’optimisation et la performance des traitements - Rédiger la documentation applicative Équipe projet : - Deux développeurs Streamlit/Snowflake - Un chef de projet
Mission freelance
POT8816 - Un Data Engineer sur Clermont-ferrand
Publiée le
Google Cloud Platform (GCP)
6 mois
320-410 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
Mission freelance
GenAI Engineer Junior
Publiée le
GPT
3 ans
300-320 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
🔍 Nous recherchons un profil Data Engineer & GenAI Engineer junior (0–3 ans d’expérience) pour rejoindre l’équipe Support – Amélioration Continue et contribuer à l’optimisation des processus qualité ainsi qu'à l’évolution d’un chatbot interne basé sur l’IA. 📍 Lyon, 3 jours de TT 📅 Démarrage ASAP 🎯 Missions : ✅ Concevoir & automatiser des contrôles qualité via scripts ou outils IA ✅ Améliorer le chatbot interne : analyse de prompts, évaluation, optimisation ✅ Participer à la transformation des processus support grâce à l’IA ✅ Collaborer avec les équipes support, IT et métiers ✅ Produire une documentation claire & fiable
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
Data Engineer Hadoop – Secteur Assurance
Publiée le
Big Data
Hadoop
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Offre d'emploi
Data Engineer H/F
Publiée le
30k-50k €
Strasbourg, Grand Est
Télétravail partiel
Notre client, société financière, recherche un Data Engineer pour rejoindre sa Data Factory. Responsabilités : Au sein d'une équipe dynamique, vous interviendrez sur l'ensemble des étapes des projets décisionnels : - Recueil et analyse des besoins (échanges avec la MOA et les utilisateurs) ; - Rédaction de spécifications fonctionnelles et techniques ; - Modélisatnique ; - Mise en production et suivi.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
DevOps Engineer
Publiée le
Ansible
DevOps
Helm
2 ans
Toulouse, Occitanie
Missions : · Accompagner les équipes de développement sur la démarche DevOps durant leurs itérations agiles. · Collaborer avec les équipes de développement pour intégrer leurs composants et codes de déploiement. · Développer et ajouter des fonctionnalités via des librairies Ansible en fonction des besoins remontés par les équipes, et apporter un support technique · Assurer la conformité des plateformes de tests et opérationnelles aux attentes définies, et participer aux recettes des nouvelles plateformes à livrer prochainement. · Contribuer au développement ponctuel du composant de transfert de données et maintenir le code de déploiement ainsi que le Helm chart.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Création de site Wordpress : BIC ou BNC ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- SCI détenue par une Société bénéficera du taux réduit de 15 % d’IS ?
- Transfert d'activité - cession du fond de commerce
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- SASU à l'IR & ARE
306 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois