L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 950 résultats.
Mission freelance
AI Engineer - Azure
Groupe Aptenia
Publiée le
Azure
MLOps
Python
1 an
450-500 €
Grenoble, Auvergne-Rhône-Alpes
Nous sommes à la recherche d'un AI Engineer qui interviendra chez l'un de nos clients pour développer et industrialiser des modèles d’optimisation énergétique pour anticiper les besoins des bâtiments en fonction de la météo, des coûts et de l’origine de l’énergie. La phase exploratoire a déjà été réalisée, le Focus se fera sur le backend Python et l’industrialisation des modèles existants. 🎯 Vos missions clés ✅ Développer des solutions backend (Python, Azure) pour l’optimisation énergétique. ✅ Industrialiser des modèles de forecasting déjà existants. ✅ Collaborer avec une équipe de 6-7 Data Scientists.
Mission freelance
Data Engineer GCP Airflow (H/F)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
12 mois
380-420 €
Paris, France
Data Engineer GCP/Airflow – (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…)
Offre d'emploi
Ingénieur Devops Senior AZURE F/H
ASTRELYA
Publiée le
Ansible
Azure DevOps
Azure Kubernetes Service (AKS)
75008, Paris, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Composé de 300 experts passionnés, le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, du cadrage à la mise en production, avec une expertise reconnue en Data/IA, Cloud, DevOps et méthodes agiles. Notre modèle repose sur la proximité, la confiance et une culture humaine forte, où les collaborateurs sont au cœur de la création de valeur. Votre mission En tant qu’Ingénieur(e) DevOps Senior spécialisé(e) Azure, vous jouerez un rôle clé dans la conception, l’industrialisation et l’optimisation des plateformes Cloud de nos clients. Vous interviendrez sur des projets à forte valeur ajoutée, au cœur des enjeux de modernisation, d’automatisation et de fiabilisation des environnements de production. Concrètement, vous allez : · Concevoir, déployer et maintenir des architectures Cloud Azure robustes, scalables et sécurisées. · Mettre en place et optimiser des pipelines CI/CD (GitLab, GitHub Actions, Azure DevOps…). · Automatiser l’infrastructure via IaC (Terraform, Bicep, Ansible). · Industrialiser les environnements conteneurisés (Docker, Kubernetes / AKS). · Implémenter les bonnes pratiques DevSecOps (sécurité, conformité, scanning, secrets management). · Superviser et améliorer la performance, la résilience et la disponibilité des plateformes. · Accompagner les équipes de développement dans l’adoption des bonnes pratiques Cloud & DevOps. · Participer à la définition des standards d’ingénierie et à la diffusion de la culture Craft & SRE. Votre futur environnement technique · Cloud : Azure (AKS, App Services, Functions, Storage, Key Vault, APIM, Monitor…) · CI/CD : GitLab CI, GitHub Actions, Azure DevOps, Jenkins · Conteneurs : Docker, Kubernetes, Helm · Infrastructure as Code : Terraform, Ansible, Bicep · Sécurité : DevSecOps, scanning, Azure Defender, secrets management · Observabilité : Prometheus, Grafana, Azure Monitor, ELK · Automatisation & scripting : PowerShell, Bash, Python
Mission freelance
Engineering Manager Data
HAYS France
Publiée le
Snowflake
6 mois
Nouvelle-Aquitaine, France
Notre client dans le secteur Santé recherche un/une Engineering Manager Data H/F Description de la mission: Dans le cadre de la modernisation de sa plateforme Data, le client lance un programme stratégique de migration de son Data Warehouse vers Snowflake. Ce programme s’inscrit dans une transformation globale visant à migrer des environnements legacy vers une architecture cloud scalable, améliorer la qualité, la gouvernance et l’accessibilité des données, et accélérer les usages métiers en BI, analytics et data science. L’environnement est international avec de forts enjeux de coordination entre équipes IT et métiers. Objectifs de la mission En tant qu’Engineering Manager Data, la mission consiste à assurer le pilotage technique et opérationnel de la migration vers Snowflake ainsi que le management des équipes Data. Missions principales • Cadrage et pilotage de la migration vers Snowflake • Définition de l’architecture Data cible • Management et structuration d’une équipe de Data Engineers • Mise en place des bonnes pratiques en qualité, monitoring, CI/CD et gouvernance • Accompagnement des équipes métiers dans l’adoption de la plateforme • Suivi des performances, des délais et des risques projet Profil recherché • Expérience confirmée en tant qu’Engineering Manager ou Lead Data Engineer • Expérience avérée de migration vers Snowflake, fortement souhaitée • Solide background technique en Data Engineering • Expérience en management d’équipe, avec une expérience onshore / offshore appréciée • Capacité à évoluer dans des environnements complexes et internationaux • Bon relationnel et capacité à interagir avec des interlocuteurs métiers Livrables attendus • Roadmap de migration et architecture cible • Suivi des sprints et des livraisons • Documentation technique et bonnes pratiques • Reporting projet : avancement, risques, KPI • Structuration et montée en compétence de l’équipe Compétences / Qualités indispensables : Snowflake, Data Engineering, Management d'équipe Data, Architecture Data, SQL et Python, Airflow / DBT Informations concernant le télétravail : 2 jours par semaine de télétravail Bureaux à Bordeaux
Mission freelance
IT Cloud/ DevOps Tech Lead !
emagine Consulting SARL
Publiée le
Administration Windows
Azure
microsoft
3 ans
Île-de-France, France
Vous jouez un rôle central à plusieurs niveaux dans un environnement cloud, en guidant une équipe technique et en garantissant des pratiques DevOps efficaces. Responsabilités : Assurer le support de niveau 3 pour les incidents liés à l'infrastructure des applications hébergées sur Azure et GCP. Suivre le backlog d'incidents et de demandes via ServiceNow. Qualifier les demandes avant soumission aux infogérants cloud. Suivre les infogérants cloud techniquement N3 pour les incidents et changements. Rédiger et maintenir la documentation technique à jour. Automatiser les tâches d'administration système. Réaliser la qualification et le suivi des remédiations de sécurité (CVE, Cloud, etc.) en lien avec les infogérants. Effectuer des demandes d'ouvertures de flux réseau vers le partenaire réseau. Gérer les demandes urgentes (installation de VM, test de reprise après sinistre isolé, etc.). Management de trois personnes et pilotage d’équipes externes sur le suivi d’incidents plateforme.
Mission freelance
Ingénieur Infra Data / Database – DevOps minded (Expert L3)
HAYS France
Publiée le
Ansible
Cassandra
Linux
3 ans
400-650 €
Île-de-France, France
Nous recherchons pour un de nos clients basés en IDF, un pour une mission freelance (longue visibilité) Objectif de la mission: Dans le cadre du renforcement de ses équipes techniques, notre client recherche un Ingénieur Infra Data / Database senior , disposant d’une double casquette Infra & DevOps , capable d’intervenir sur des environnements critiques en support expert niveau 3 (L3) et sur des projets orientés services et plateformes data . L’objectif est de garantir la fiabilité, la performance, la résilience et l’industrialisation des environnements bases de données, tout en apportant une forte valeur ajoutée en automation et bonnes pratiques DevOps .
Offre d'emploi
Data Engineer spécialisé·e Informatica PowerCenter
ATTINEOS
Publiée le
Informatica
2 ans
Rouen, Normandie
Dans un contexte de projets stratégiques autour de la donnée, nous recherchons un·e Data Engineer spécialisé·e Informatica PowerCenter pour renforcer une équipe agile dynamique. Vous interviendrez sur la création et l’évolution de traitements data et d’applications, dans des environnements variés couvrant plusieurs domaines métiers (assurance IARD, santé, marché professionnel…). Vous participerez à l’ensemble du cycle de vie des projets : de la conception jusqu’à la maintenance en conditions opérationnelles. Vos missions : Rédiger les spécifications techniques détaillées Concevoir, développer et maintenir des traitements d’intégration de données Garantir la qualité, la performance, la sécurité et les délais de livraison Réaliser les tests unitaires et d’intégration Participer aux mises en production et aux déploiements Gérer les incidents et les demandes de changement Mener des analyses d’impact sur les pipelines de données existants Produire la documentation technique et réglementaire Environnement technique : Informatica PowerCenter 10.x, PowerExchange Navigator, SQL Server / SQL, Environnements Mainframe (apprécié), COBOL (lecture de copybooks), CI/CD, JIRA, Confluence
Offre d'emploi
Data Engineering - DBT / SQL Junior (350€ MAX)
BEEZEN
Publiée le
DBT
6 mois
28k-35k €
280-350 €
Île-de-France, France
La prestation s’inscrit au sein de l’équipe technique et participe à l’industrialisation des flux de données. Ses missions principales sont : ● Ingestion Multi-sources : Développer des connecteurs et des scripts pour collecter des données via API (SaaS, partenaires) ou extractions de bases de données. ● Transformation (ETL/ELT) : Nettoyer, enrichir et structurer les données brutes dans BigQuery pour les rendre exploitables par les analystes et Data Scientists. ● Automatisation & Orchestration : Déployer et monitorer les chaînes de traitement (DAGs) pour garantir la disponibilité et la qualité des données au quotidien. Livrables : ● Pipelines de données opérationnels et documentés. ● Scripts de transformation SQL et Python. ● Confi guration des orchestrateurs (Composer/Airfl ow). ● Documentation des schémas de données cibles." ● Maîtriser DBT pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DBT pour structurer les pipelines data
Offre d'emploi
INGÉNIEUR SUPPORT PRODUCTION / APS BACK OFFICE H/F
Savane Consulting
Publiée le
60k-80k €
Montreuil, Île-de-France
Contexte du poste : Nous recherchons un Ingénieur Support Production expérimenté afin d’intégrer les équipes APS (Application Production Support) d’un acteur majeur du secteur bancaire. La Production CIB-ITO regroupe les équipes Infrastructure, Support Applicatif Technique et Fonctionnel ainsi que la Sécurité Production, avec pour objectif de standardiser et industrialiser les services de production à travers l’automatisation et la digitalisation. Vous rejoindrez l’équipe APS Back Office, composée de 40 collaborateurs, en charge du support de production des applications Core Banking (Atlas, moteur de paiement…) pour plus de 25 pays sur la région EMEA. Vous interviendrez dans un environnement critique et international, avec des enjeux forts de disponibilité, de performance et de qualité de service. Missions principales : Assurer l’exploitation et le support des applications Core Banking Participer aux projets techniques et aux évolutions des environnements de production Implémenter et configurer le monitoring applicatif via Dynatrace Assurer la maintenance technique des plateformes Réaliser les tâches techniques sur les différents environnements Analyser et résoudre les incidents de production Qualifier et déployer les changements et correctifs Garantir un suivi rigoureux des changes et incidents Contribuer à l’amélioration continue et à la qualité de service Maintenir et enrichir la documentation technique Communiquer régulièrement avec les équipes métiers, clients et contributeurs Participer aux astreintes (nuit, week-end, jours fériés) lorsque nécessaire
Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)
OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage
3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance • Capacité à interagir avec des équipes techniques et métiers
Mission freelance
EXPERT MIDDLEWARE - ETL & DATA STREAMING
Signe +
Publiée le
Java
12 mois
400-550 €
La Défense, Île-de-France
EXPERT MIDDLEWARE - ETL & DATA STREAMING Centre de competence Architecture et Integration - Group Digital and IT (Saint-Gobain) Contexte Mission au sein de l'equipe Architecture et Integration dans un environnement international et multiculturel. Pilotage des lignes de services integration ETL : Talend (Cloud / hybride) et Data Streaming (Kafka Confluent Cloud). Missions principales Support, suivi et maintenance de l'existant (CRM / Annuaire / PIM) Accompagnement a la creation de nouveaux projets : analyse du besoin, cadrage technique, conception des flux Pilotage de l'equipe en Inde (developpements, tests, deploiements) Gestion du plan de charge et des plannings Administration et suivi operationnel de la plateforme Talend et des composants On Prem Administration et suivi operationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation des deux plateformes Definition et partage des bonnes pratiques (configuration / developpements) Competences requises Talend Data Integration Studio V8 - Expert API et formats Json, Xml, Csv - Confirme Management d'equipe - Confirme Java 8+ - Confirme Linux / Unix - Confirme Kafka - Confirme SQL et Base de donnees - Confirme Source management (Gitlab) - Confirme Connaissances CRM Salesforce - Elementaire
Mission freelance
Product Tech Lead – IA / GenAI - English - Full remote
Net technologie
Publiée le
Agent IA
Azure AI
IA Générative
6 mois
550-600 €
France
🚀 Product Tech Lead – IA / GenAI (Azure) Dans le cadre d’une transformation digitale ambitieuse , nous recherchons un(e) Product Tech Lead pour piloter une solution stratégique basée sur la Data & l’IA Générative , dédiée à la performance des équipes commerciales. 🎯 Objectif : concevoir et déployer une plateforme data-driven fournissant des insights intelligents et des outils innovants pour soutenir la croissance business. 🚀 Missions Définir et piloter l’ architecture technique & data end-to-end Garantir la scalabilité, sécurité et performance des solutions Encadrer une équipe transverse (Dev, Data, AI Engineers) Concevoir et livrer des fonctionnalités IA / GenAI (Azure OpenAI) Structurer les pipelines data , gouvernance et cycle de vie des modèles Assurer l’intégration avec les systèmes ( SAP, Salesforce ) Superviser les déploiements (Azure / Fabric) avec pratiques DevOps, MLOps, LLMOps Collaborer avec le Product Manager pour aligner valeur métier & faisabilité technique
Mission freelance
Data Product Manager/Environnement anglophone
Comet
Publiée le
Data governance
1 an
400-550 €
Île-de-France, France
Dans le cadre de la structuration de ses activités data à l’échelle mondiale, notre client recherche un Data Product Manager Senior pour piloter la conception et la mise en œuvre de modèles de données industriels et de solutions de reporting. Vous interviendrez sur un périmètre stratégique couvrant plusieurs applications déployées dans des usines à l’international, avec un objectif clair : standardiser, fiabiliser et valoriser la donnée au service de la performance industrielle. Vos responsabilités En tant que Data Product Manager, vous serez au cœur de l’interaction entre les équipes métiers et techniques. Vos missions principales : Comprendre les enjeux business liés à la performance industrielle Recueillir et structurer les besoins métiers Animer des ateliers avec les différentes parties prenantes Concevoir et formaliser les modèles de données (data modeling, business layer) Définir l’architecture fonctionnelle des solutions data Coordonner les équipes data (Data Engineers, BI, Architectes) Organiser les contributions autour du modèle "Data as a Service" Documenter les solutions et démontrer leur valeur Préparer les phases de mise en œuvre (budget, planning, roadmap) Formaliser les recommandations finales pour le lancement des projets
Mission freelance
Consultant Senior Data — Migration SAS → Python | Assurance | La Défense
SETELIA
Publiée le
Numpy
Pandas
Python
3 mois
430-550 €
La Défense, Île-de-France
Notre client, acteur majeur du secteur de l'assurance, engage la décommission complète de sa plateforme SAS. L'objectif : migrer l'intégralité des requêtes, programmes et traitements data vers Python, à isorésultat. Le consultant intègre une équipe data en place et travaille en interface directe avec les métiers assurance (actuariat, reporting, conformité). Périmètre : Audit et recensement de l'ensemble des requêtes SAS (KPIs, règles métier, fréquences) - Rétro-analyse fonctionnelle de chaque programme SAS - Ateliers de validation avec les utilisateurs métiers - Développement Python (pandas, numpy, SQL) en miroir exact de l'existant SAS - Tests de non-régression systématiques (comparaison outputs SAS vs Python) - Documentation technique et fonctionnelle du nouveau code Stack & compétences : Python — expertise confirmée (pandas, numpy, scripting data, automatisation) - SAS — lecture, compréhension et rétro-analyse de code - SQL — requêtage avancé, optimisation - Migration SAS → Python — au moins une référence mission similaire - Secteur assurance — connaissance des produits, du reporting réglementaire ou de l'actuariat (un secteur régulé équivalent type banque/mutuelle est accepté) - Interface métier — à l'aise en atelier, recueil de besoin, vulgarisation technique Conditions : Séniorité : 7 ans minimum - TJM : 600€ – 650€ - Démarrage : ASAP - Durée : 3 mois / 60 jours — renouvelable - Lieu : Paris La Défense — 100% sur site - Remote : non - Astreinte / HNO : non Merci d'envoyer CV + TJM + dispo. Réf. : DATA-SAS-PY-2026-05
Offre d'emploi
DEVELOPPEUR(SE) BACK .NET - Clean Architecture - Confirmé (4-10 ans) F/H
SMARTPOINT
Publiée le
.NET
.NET CORE
Data cleaning
12 mois
40k-45k €
100 €
Châtillon, Île-de-France
ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production
Mission freelance
[SCH] Data Ops - 1468
ISUPPLIER
Publiée le
10 mois
300-345 €
Niort, Nouvelle-Aquitaine
Dans le cadre de ses activités Data, le client souhaite renforcer l’industrialisation et l’automatisation de l’exploitation informatique autour des flux de données et de leur orchestration. La mission consiste à mettre en place des outils et des méthodes permettant d’améliorer la gestion des pipelines Data, tout en assurant une meilleure collaboration entre les équipes de développement et d’exploitation. Le consultant interviendra notamment sur l’intégration des pratiques d’infrastructure as code dans les processus d’orchestration des données, ainsi que sur l’optimisation des chaînes CI/CD. Une attention particulière sera portée à la fiabilisation des déploiements, à la gestion des versions des configurations, ainsi qu’au monitoring des assets en lien avec les équipes d’exploitation. Le consultant participera également à la configuration des environnements, notamment via les runners GitLab, afin de garantir la continuité des déploiements. Objectifs et livrables : -Concevoir et maintenir des services d’assistance FINOPS, notamment autour de l’observabilité -Mettre en place et optimiser les pipelines CI/CD et les tests automatisés -Assurer la configuration et la gestion des runners GitLab -Garantir la gestion des versions et la reproductibilité des déploiements -Mettre en place des solutions de monitoring des assets Data -Accompagner les équipes d’exploitation sur les bonnes pratiques, outils et technologies -Rédiger et maintenir la documentation technique (configurations, processus, workflows)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Rituel retour affectif a faire soi meme +2290163392531
- Retour affectif amoureux +2290163392531
- Rituel retour affectif puissant +2290163392531
- Retour daffection rapide en 24h +2290163392531
- Retour affectif rapide efficace +2290163392531
- Spécialiste de retour affectif rapide efficace et très puissant +2290163392531
4950 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois