L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 313 résultats.
Offre d'emploi
Data Engineer NiFi
Publiée le
Apache NiFi
40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑🚀👩🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Offre d'emploi
Machine Learning Ops Engineer H/F
Publiée le
CI/CD
Github
Gitlab
12 ans
Monaco
Télétravail partiel
ASTERIA recherche, pour l’un de ses Clients basé sur Monaco, Machine Learning Ops Engineer H/F. VOTRE MISSION : Notre Client recherche un ML Ops Engineer H/F afin d’assurer l’industrialisation, la mise en production et la garantie de la fiabilité à grande échelle des cas d’usage de Data Science/Machine Learning. Le ML Ops Engineer H/F sera principalement le point entre l’équipe DATA au sens large (Data Engineer, DataScientist, Ingénieur IA) et l’équipe Opérations/DevOps. L’objectif principal sera d’industrialiser les projets de Machine Learning, de l’expérimentation jusqu’au déploiement en production, en garantissant robustesse, scalabilité et reproductibilité. Ce rôle technique est intégralement orienté Delivery/Développement Logiciel. Missions principales : Industrialisation & Pipelines (CI/CD/CT) : Concevoir et industrialiser les cas d'usage : structurer techniquement le projet, implémenter les tests, ... Concevoir et maintenir les pipelines d'intégration continue (CI), de déploiement continu (CD) et d'entraînement continu (CT) pour les modèles de ML. Automatiser les flux de travail de la donnée (Data Pipelines Airflow) en collaboration avec le Data Engineer. Garantir la reproductibilité des entraînements (versioning des données, du code et des modèles). Infrastructure & Déploiement : Conteneuriser les cas d'usage et modèles (Docker), orchestrer leur déploiement (Kubernetes). Mettre en place des stratégies de "Model Serving" (API REST, gRPC, Batch processing). Monitoring & Maintenance : Mettre en place des outils de surveillance pour suivre la santé des modèles en production. Détecter et alerter sur le Data Drift (dérive des données) et le Model Drift (baisse de performance). Gérer le cycle de vie complet des modèles (re-training, mise hors service). Mise à disposition des résultats : Être capable de développer des interfaces pour mettre à disposition et valoriser les résultats VOS CONDITIONS DE TRAVAIL : Date de démarrage mission envisagée : 02/02/2026 CDI (seuls les ressortissants européens ou détenteurs d'un titre de séjour émis par la Préfecture des Alpes-Maritimes (06) sont éligibles à un emploi en Principauté) : Autres conditions contractuelles envisageables, nous contacter Télétravail : jusqu’à 2 jours / semaine
Offre d'emploi
DevOps Coach / Tribe Release Engineer (TRE)
Publiée le
CI/CD
Docker
Développement
13 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Nous recherchons un(e) DevOps Coach / Tribe Release Engineer pour accompagner une organisation internationale dans la transformation de ses pratiques IT. Vous serez responsable de l’évaluation de la maturité DevOps des équipes, de la définition de roadmaps adaptées et de la mise en place des meilleures pratiques (CI/CD, TDD/BDD, trunk-based development). En parallèle, vous assurerez la stratégie de release au sein d’une tribu, en préparant les livraisons, les réunions et en garantissant un reporting clair. Ce rôle combine expertise technique, coaching et coordination.
Mission freelance
Data Engineer Scala/Spark.
Publiée le
Azure
Databricks
Datadog
1 mois
450-520 €
Saint-Denis, Île-de-France
Télétravail partiel
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
Offre d'emploi
Data Engineer
Publiée le
Apache Hive
Apache Kafka
Apache Spark
6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Offre d'emploi
Data engineer (H/F)
Publiée le
35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Mission freelance
SysOps Engineer
Publiée le
Active Directory
Veeam Backup & Replication
Virtualisation
14 mois
Paris, France
Télétravail partiel
Nous recherchons un Consultant System Ops/Sécurité pour renforcer une équipe IT en charge de la sécurité opérationnelle et de la fiabilité des infrastructures d’un grand groupe international. Le consultant interviendra en étroite collaboration avec les équipes cybersécurité , infrastructure et infogérance , afin d’assurer la continuité, la conformité et la sécurité des environnements techniques . Missions : Assurer la sécurité opérationnelle des systèmes IT et la conformité des environnements Windows & Linux. Coordonner les actions avec les équipes CyberSOC et les prestataires externes pour la remédiation des vulnérabilités (CVE critiques, patching). Gérer et renouveler les certificats de sécurité (Sectigo, Digicert, sous-CA interne). Administrer l’ Active Directory (création/modification de comptes, intégrations applicatives, remédiation). Superviser les solutions de sauvegarde VEEAM (B&R, Veeam One, intégration Azure, reporting). Contribuer à la gestion des infrastructures de stockage locales et cloud (Azure). Participer à l’administration et à la sécurisation des environnements de virtualisation de postes (Citrix, AVD). Collaborer aux plans de continuité / PRA-DRP pour les serveurs critiques.
Offre d'emploi
DevOps Engineer - CDI
Publiée le
Ansible
AWS Cloud
DevOps
55k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
🛠️ Missions principales Maintien opérationnel & fiabilité de la plateforme Superviser l’ensemble des environnements (préprod, staging, prod…) Mettre en place / améliorer le monitoring, les alertes et la supervision S’assurer de la bonne exécution des pipelines et des déploiements Garantir la disponibilité, la performance et la stabilité du SaaS CI/CD & automatisation Maintenir et améliorer une CI/CD mature sous GitLab Gérer la génération d’images Docker, pipelines multi-serveurs, tests automatisés Automatiser la création/destruction d’environnements à la volée Soutenir les équipes QA (tests fonctionnels automatisés) Infrastructure & IaC Maintenir l’infrastructure Kubernetes existante Maintenir et faire évoluer l’IaC complète en Terraform Améliorer les process d’automatisation avec Ansible Aider ponctuellement d’autres équipes à industrialiser leurs outils internes FinOps & optimisation des coûts Suivre l’usage de l’infrastructure au quotidien Participer au pilotage de la consommation cloud (alertes quotidiennes, revue hebdo) Analyser l’impact budgétaire des évolutions Terraform (plan vs apply) Proposer des optimisations pragmatiques Sécurité & bonnes pratiques Maintenir les niveaux de sécurité de la plateforme Garantir la conformité des environnements Appliquer les best practices DevOps / Cloud / Kubernetes Collaboration et participation aux rituels Participer activement aux points Kaizen avec les leads techniques Proposer des améliorations continues Fournir des outils fiables aux développeurs & aux équipes métier Travailler en étroite collaboration avec le manager technique (support constant) Stack technique Cloud AWS (maîtrise attendue) Connaissance Azure appréciée (migration prévue à moyen terme) IaC & orchestration Terraform (incontournable) Kubernetes Ansible CI/CD GitLab CI (self-hosted) Docker GitLab Registry Bonus Connaissance des langages de la plateforme : PHP Node.js / TypeScript / NestJS
Mission freelance
Data Engineer H/F
Publiée le
Azure
3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Offre d'emploi
Data Engineer H/F
Publiée le
45k-55k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 729z7ixwq0
Mission freelance
IT Engineer - BELGIQUE
Publiée le
SCADA
1 an
550 €
Belgique
Nous recherchons un(e) IT Engineer pour rejoindre une équipe pluridisciplinaire dédiée à la gouvernance et à la mise à disposition des données industrielles dans une infrastructure Unified Namespace (UNS) . Composition de l’équipe : OT Engineer Senior Technical Leader OT Engineer Développeur Fullstack Expert en Data Governance Contexte et missions : Dans le cadre de la mise en place d’une architecture Industrie 4.0, vous travaillerez avec le Technical Leader pour évaluer et déployer des solutions permettant la collecte, la contextualisation et la standardisation des données machines . Vous contribuerez aux choix technologiques de l’infrastructure industrielle (ex. : HiveMQ, NodeRed, FlowFuse, SCADA, Kepware…). Une fois l’architecture validée, vous participerez à l’intégration des équipements existants dans cette nouvelle infrastructure, comprenant notamment : PLC (majoritairement Siemens S7) Commandes numériques (ex. Siemens 840D SL/PL/One) Robots industriels (majoritairement Fanuc) Étuves Lignes complètes de production Systèmes de traçabilité connectés … Vos responsabilités : Analyse et exploitation des données en collaboration avec l’ingénieur OT Création et configuration des topics dans HiveMQ Gestion des accès et de la sécurité dans HiveMQ Support au développement Low-Code (NodeRed-like) pour l’ingénieur OT Test des communications entre le middleware OT et HiveMQ Rédaction de la documentation complète et des checklists de tests Validation du fonctionnement réel par rapport aux attentes Mise en production et gestion du handover avec les équipes métiers Profil recherché : Expérience sur les systèmes industriels et les architectures IT/OT Connaissance des protocoles et outils de collecte et routage de données industrielles Capacité à travailler en équipe pluridisciplinaire
Mission freelance
DevSecOps / Security Engineer (H/F)
Publiée le
DevSecOps
ELK
1 an
380-480 €
Rennes, Bretagne
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) DevSecOps / Security Engineer H/F pour intervenir chez un de nos clients. Contexte : Dans le cadre d’une mission courte à fort enjeu, vous serez chargé(e) de configurer et adapter un outil de collecte de logs. Votre mission consistera à garantir un paramétrage optimal afin de permettre un déploiement massif de la nouvelle version du collecteur à horizon T1 2026, tout en assurant la qualité de la chaîne d’audit et de supervision.
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Data Engineer
Publiée le
Ansible
Big Data
Elasticsearch
1 an
40k-45k €
250-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission se déroule au sein de l'équipe Infrastructure CaaS (Container As a Service) pour la gestion, la maintenance et le contrôle de la Data et des assets de l'équipe. Nous proposons une mission de Data Engineering avec des expertises des produits récents sur le Big Data. Responsabilités Interaction avec REST APIs Gestion des jobs et administration Ansible + Scripts Python BigData Opensearch / Elastic + Dashboard Kibana / Power BI Technologies Confluence / JIRA pour la gestion documentaire, Git / Bitbucket
Mission freelance
Payload Manager Engineer
Publiée le
Administration linux
Administration Windows
Réseaux
6 mois
Toulouse, Occitanie
Le poste vise à renforcer la capacité à servir l'un de nos clients dans le domaine des stations sol surveillant la charge utile des satellites de télécommunication. L’ingénieur projet réalise des tâches standards et avancées liées aux sous-systèmes dans le cadre des activités du client : intégration système, configuration, tests, conception, documentation technique, installation sur site, etc. Missions principales : Analyser les besoins système et proposer des solutions techniques. Participer à la conception des systèmes à livrer. Intégrer les sous-systèmes et participer aux campagnes de tests. Effectuer les tâches logistiques (expédition/réception). Installer, câbler et réaliser les opérations nécessaires à l’intégration. Rédiger la documentation technique (en anglais). Assurer le reporting et participer aux réunions clients. Réaliser des tâches QA et de gestion de configuration. Former les clients sur site.
Offre d'emploi
Cloud OPS Engineer - H/F
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)
3 ans
50k-55k €
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu. Contexte de la mission : Vous rejoindrez une équipe "Workspace" d'envergure internationale, dédiée à la transformation digitale de l'expérience utilisateur pour plus de 2000 sites physiques à travers le monde. L'objectif est d'accompagner l'évolution des solutions IT sur quatre périmètres majeurs : l'End User Computing, l'Authentification, la Green Tech et les outils de collaboration. Descriptif de la mission : Au sein de ce pôle technologique, vos missions principales seront : Gestion du Run N3 : Assurer le support de niveau 3 (environ une semaine par mois) pour traiter les incidents complexes et les demandes de services (SR). Support & Conseil Cloud : Accompagner et conseiller les utilisateurs dans leurs actions sur les environnements Cloud (AWS/GCP). Amélioration Continue : Être force de proposition sur l’automatisation et l’industrialisation des processus du support Cloud. Lien N3/N4 : Assurer l'interface technique entre le support opérationnel et les équipes d'ingénierie (N4) ainsi que les Product Owners. Projets & Build : Participer activement aux projets Cloud (outillages, développements, déploiements) et garantir leur bon déroulement technique. Documentation : Créer et maintenir la documentation technique liée au Run et au Build.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Résultat négatif veut dire CCA débiteur donc illégal ?
- Facturation électronique 01 : Rappel du calendrier !
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Création de site Wordpress : BIC ou BNC ?
- SASU a l'IR non présente dans mon memento fiscal
313 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois