L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 966 résultats.
Mission freelance
Tech Lead Azure - Hébergeur - IDF (H/F)
EXOCETH
Publiée le
Azure
Cloud
Exploitation
6 mois
550-600 €
Paris, France
Dans le cadre d’un dispositif Cloud à forte criticité, nous recherchons un Tech Lead Azure pour intervenir comme référent technique au sein d’un environnement de production de grande ampleur. La mission s’inscrit dans un contexte exigeant, avec des enjeux élevés de stabilité, de qualité de service et de coordination technique. Le Tech Lead Azure intervient au quotidien auprès des équipes Cloud/DevOps en place afin de les accompagner, de sécuriser les environnements et de garantir le bon fonctionnement des plateformes Azure. Il joue également un rôle clé dans la communication technique, notamment via l’animation de comités techniques, la préparation de supports, le suivi des actions et le reporting. Il ne s’agit ni d’un poste d’architecte ni d’un rôle de management hiérarchique, mais d’un rôle de pilotage technique transverse, avec une forte exposition côté client et des interactions régulières avec différents interlocuteurs IT.
Offre d'emploi
Ingénieur DevOps Multi‑Cloud H/F
Le Groupe SYD
Publiée le
Ansible
Azure
Linux
12 mois
50k-52k €
500-520 €
Boulogne-Billancourt, Île-de-France
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur DevOps Multi‑Cloud H/F 📍 Lieu : Paris – Boulogne-Billancourt 🏠 Télétravail : Flexible 📝 Contrat : Portage ou Freelance 👉 Contexte client : Tu interviens pour un acteur majeur de son secteur d’activité, engagé dans une démarche de modernisation et d’industrialisation de ses plateformes Cloud et DevOps , au sein d’environnements critiques, fortement automatisés et à forts enjeux business . Le contexte combine des environnements multi-cloud , majoritairement Azure , complétés par du GCP , avec une forte exigence sur la fiabilité, la scalabilité, la sécurité et l’automatisation des infrastructures et des pipelines. En tant que DevOps Confirmé , tu interviens en amont et en aval des projets, au cœur des équipes techniques, pour structurer, automatiser et fiabiliser les plateformes et les processus. Tu auras pour missions de : Concevoir, déployer et maintenir des infrastructures Cloud principalement sur Azure , avec une ouverture sur GCP . Industrialiser les environnements via l’ Infrastructure as Code (Terraform). Automatiser les opérations et les déploiements à l’aide d’ Ansible . Concevoir, maintenir et optimiser les pipelines CI/CD sous GitLab . Administrer et optimiser des environnements Linux en production. Accompagner les équipes applicatives dans l’adoption des bonnes pratiques DevOps . Contribuer à la fiabilité, à la sécurité et à la performance des plateformes. Participer à la rédaction de la documentation technique et à l’amélioration continue des procédures. 🧰 Stack technique : Cloud : Azure (80 %), GCP (20 %) Automatisation / IaC : Terraform, Ansible CI/CD : GitLab CI/CD Systèmes : Linux Messaging & APIs : RabbitMQ, Azure API Management Environnements : plateformes Cloud critiques, multi‑environnements, fortement automatisées
Offre d'emploi
Ingénieur(e) R&D Data Scientist expérimenté(e) (F/H)
█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow
Nantes, Pays de la Loire
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Tech Lead Azure H/F
ALLEGIS GROUP
Publiée le
Azure
Java
OS Windows
3 mois
Paris, France
Tu deviens le référent technique d’un acteur majeur en pilotant une plateforme Azure à fort enjeu, au service des patients et des professionnels. Tu animes et coordonnes les intervenants techniques : tu organises et facilites les comités techniques, où tes idées et ton expertise façonneront les décisions techniques de la plateforme. L’amélioration continue est ton atout : tu pilotes l’amélioration continue, en proposant et en mettant en œuvre les meilleures pratiques cloud, sécurité et automatisation. Tu joues un rôle clé dès l’avant-vente : challenge les projets, influence les choix d’architecture et apporte ta vision sur les solutions à déployer. Tu deviens acteur de l’optimisation FinOps : tu contribues directement à la maîtrise et à la rationalisation des coûts, tout en maximisant la performance des services. Tu relèves des défis techniques stimulants : tu interviens sur des incidents complexes et des demandes pointues. Localisation : Paris ou lille Mission longue visibilté Rythme : 2 à 4 jours de télétravail
Offre d'emploi
DATA ENGINEER JAVA / SCALA ( 460€ max)
BEEZEN
Publiée le
Scala
6 mois
40k-61k €
340-460 €
Île-de-France, France
Solide expérience en développement avec des langages comme Scala et/ou Java, et une compréhension approfondie des concepts de programmation fonctionnelle. Compétences avérées dans l'utilisation de plateformes de streaming de données comme Apache Kafka, et de frameworks de traitement de données distribuées comme Apache Spark. Expérience significative dans le domaine de la Data et du Cloud, notamment sur Google Cloud Platform (GCP). Très bonne maîtrise de BigQuery et du SQL avancé, avec une expérience sur des traitements de gros volumes de données. Maîtrise de SQL pour la manipulation, l’analyse et la valorisation de données. Connaissance approfondie de DBT (Data Build Tool) pour la gestion et l’orchestration de pipelines de données. Expérience avec Pubsub pour la gestion de flux de données en temps réel. Maîtrise des outils de CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data. Bonne connaissance de l’environnement Linux et des outils de ligne de commande. Expérience solide avec les systèmes de gestion de version (Git). Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires.
Mission freelance
DATA Engineer - AWS (DataOps)
Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
AWS Glue
6 mois
450-500 €
Paris, France
Nous recherchons un Data Engineer pour industrialiser un prototype d’application existant. Le projet implique une forte dimension infra et scalabilité , avec l’objectif de passer d’un prototype à une architecture robuste, maintenable et industrialisée. Le candidat interviendra également sur des sujets de refonte de la codebase et de préparation du déploiement en infrastructure as code . 🎯 Missions principales Industrialiser un prototype d’application data en environnement SaaS Revoir la codebase existante pour anticiper les enjeux de scalabilité Concevoir et mettre en place une architecture data robuste et évolutive Participer à la mise en place d’une approche Infrastructure as Code Construire et maintenir des pipelines de données fiables et scalables Travailler sur des problématiques d’architecture cloud et d’industrialisation Collaborer avec des interlocuteurs techniques (profil très orienté tech) 🛠 Stack technique Cloud : AWS (GCP apprécié mais non obligatoire) IaC : Terraform Orchestration : Airflow Langage : Python Environnement : SaaS / Data Engineering / Infra scalable
Mission freelance
DevOps Senior - Full remote H/F
Comet
Publiée le
Automatisation
AWS Cloud
Azure
1 an
400-530 €
France
Nous recherchons un(e) DevOps Senior pour une mission en 100% remote, au sein d’un projet innovant à fort impact dans le domaine du Green IT pour une mission de 4 jours par semaine sur 1 an. 🚀 Contexte Vous interviendrez sur une plateforme technologique visant à optimiser et réduire l’empreinte environnementale des infrastructures IT , en vous appuyant sur des mesures dynamiques et des logiques d’optimisation avancées (GreenOps / FinOps). 🛠️ Missions principales Architecture & Infrastructure Concevoir et faire évoluer l’infrastructure cloud Déployer et maintenir des environnements robustes et scalables Appliquer les bonnes pratiques DevOps (CI/CD, IaC) Exploitation & Fiabilité Garantir la disponibilité, la performance et la sécurité Mettre en place des outils d’observabilité (logs, monitoring, alerting) Gérer les incidents et améliorer la résilience des systèmes Produit & GreenOps Contribuer à une plateforme orientée optimisation des ressources IT Challenger les choix techniques avec une vision ops / usage réel Participer à des problématiques FinOps, automatisation et performance Collaboration & Support Travailler étroitement avec les équipes produit et tech Documenter l’infrastructure et les bonnes pratiques Accompagner les déploiements chez les clients (y compris on-premise) 🧰 Stack technique Cloud : AWS (principal), Azure CI/CD : GitLab Containers : Kubernetes IaC : Terraform, Terragrunt Packaging : Helm Observabilité : CloudWatch, Elastic Data : PostgreSQL, DuckDB, MongoDB Langages : Python, Java
Mission freelance
Consultant Senior ETL/ Data Engineering (H/F) - Freelance
GROUPE ARTEMYS
Publiée le
Conception
6 mois
400-500 €
76600, Le Havre, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons dès à présent un Consultant Senior ETL/ Data Engineering H/F en Freelance . Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions pour l'un de nos clients au Havre (76) auprès duquel vous aurez la possibilité d'effectuer les tâches suivantes : Réaliser un audit complet (état des lieux, identification des points de blocage) Formuler des recommandations concrètes sur l’architecture, les workflows et les usages Accompagner les équipes dans la mise en œuvre des préconisations Vos missions : Phase 1 – Audit : Analyse des deux environnements ETL existants Évaluation des workflows, de l’architecture et des usages Identification des axes d’amélioration Rédaction d’un audit structuré avec recommandations actionnables Phase 2 – Accompagnement : Participation à la refonte des workflows et de l’architecture Aide à la mise en œuvre des solutions recommandées Accompagnement des équipes internes (montée en compétences) Contribution à la clarification des usages ETL vs API Le profil que nous recherchons : Minimum 8 ans d’expérience en ETL / Data Engineering Forte capacité d’analyse et de prise de recul (vision architecture et workflows) Expérience sur plusieurs solutions ETL (capacité de comparaison et projection) Solide culture data engineering (architecture, conception, refonte) Bonne maîtrise des bases de données (relationnelles type MySQL et NoSQL type Cassandra) Bonne compréhension des API et capacité à distinguer les usages ETL vs outils API La connaissance de NiFi est un plus Vous êtes reconnu.e pour votre posture de conseil, votre force de proposition, votre vision stratégique, votre pédagogie et votre orientation solutions Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 400€ et 500€ (Selon votre expertise) Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Engineer Big Data / BI
adbi
Publiée le
Apache Hive
Apache Spark
Cloudera
12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)
STORM GROUP
Publiée le
AI
Machine Learning
Python
3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
Mission freelance
Architecte Securite Cloud et Donnees (H/F)
HOXTON PARTNERS
Publiée le
Azure
6 mois
Issy-les-Moulineaux, Île-de-France
Dans le cadre d'une transformation d'envergure internationale, vous intégrez une équipe dédiée à la sécurité des systèmes d'information. Vous apportez votre expertise sur la sécurisation des environnements cloud et des plateformes de données, en contribuant activement à la définition et au déploiement des standards de sécurité du groupe. Missions • Apporter une expertise technique en tant que référent sur la sécurité des données : définir des architectures cloud et on-premise sécurisées, évolutives et résilientes. • Réaliser des évaluations de sécurité sur les architectures et services cloud, et proposer des exigences conformes au cadre de sécurité du groupe. • Définir les prérequis techniques et fonctionnels de sécurité dans les projets cloud structurants, en cohérence avec les stratégies IT et de sécurité des systèmes d'information. • Contribuer à la rédaction et au déploiement des politiques, directives et standards de sécurité du groupe. • Piloter des projets de sécurité cloud : identification des besoins, sélection de solutions, mise en oeuvre et accompagnement des entités dans le déploiement. • Évaluer les risques de sécurité et définir les mesures appropriées pour protéger les données et les systèmes dans les projets métiers, avant mise en production.
Offre d'emploi
Data Engineer / Développeur Java Full Stack
AVA2I
Publiée le
Angular
API REST
AWS Cloud
1 an
Île-de-France, France
Dans le cadre du développement de ses plateformes data et applicatives, notre client recherche un Data Engineer / Développeur Java Full Stack afin de renforcer ses équipes techniques. Vous interviendrez sur l’ensemble de la chaîne de traitement de la donnée, de la collecte à la visualisation, dans un environnement moderne orienté microservices, cloud et DevOps . Missions principales 🔹 Développement backend & collecte de données Concevoir et développer des composants en Java (Spring, Hibernate) Mettre en place des modules de collecte de données (API, fichiers, bases de données) Développer et maintenir des API REST/SOAP en respectant les bonnes pratiques (TDD, sécurité) Implémenter des solutions d’authentification ( OAuth2, SSO ) 🔹 Traitement de données (Big Data) Participer à la mise en œuvre de traitements sous Apache Spark 3 Optimiser les pipelines de données (collecte, transformation, distribution) Assurer la performance et la fiabilité des traitements 🔹 Développement Front & DataViz Développer des interfaces utilisateurs en Angular Concevoir des dashboards et rapports sous Power BI Collaborer avec les équipes métier pour valoriser la donnée 🔹 DevOps & Infrastructure Déployer et gérer des applications sur des clusters Kubernetes Participer à l’optimisation des environnements (CI/CD, performance) Collaborer avec les équipes infrastructure pour : le déploiement la gestion des ressources la sécurité applicative 🔹 Qualité & delivery Écrire et maintenir des tests automatisés (Cucumber) Participer au cycle complet de delivery (build, déploiement, mise en production) Assurer le suivi post-production 🔹 Amélioration continue Être force de proposition sur les choix techniques et l’architecture Contribuer à l’amélioration des performances et de la qualité des applications
Mission freelance
Développeur Fullstack (.NET / Angular / Python)
CAT-AMANIA
Publiée le
.NET
Angular
Azure
6 mois
400-550 €
Île-de-France, France
Nous recherchons pour le compte de notre client, un acteur majeur du secteur bancaire, un Développeur Fullstack expérimenté pour rejoindre une équipe à taille humaine. Vous interviendrez à la fois sur la reprise de projets existants et sur la création d'applications from scratch, dans un environnement technique exigeant. Vos Missions Principales : Reprise et optimisation (Python) : Auditer, maintenir, optimiser et potentiellement migrer des outils et scripts initialement développés par les équipes métiers. Conception et développement (Angular / .NET / Azure) : Créer de nouvelles applications robustes et performantes répondant aux normes de l'entreprise, en assurant le développement Front-end et Back-end. Intégration d'infrastructure : Assurer le déploiement de vos développements en tenant compte des contraintes d'infrastructure d'un grand groupe. Travail en équipe : Travailler en binôme de développement, partager les bonnes pratiques et accompagner le Chef de Projet dans les choix techniques. Profil Recherché : Vous êtes autonome, rigoureux et force de proposition. Vous appréciez le travail en petite équipe et possédez un excellent relationnel pour échanger facilement avec des interlocuteurs techniques et fonctionnels. Vous savez vous adapter aux méthodologies et aux processus propres aux grands groupes.
Offre d'emploi
Data Engineer TERADATA ET BIGDATA
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Mission freelance
Solution Architecte Power BI / Microsoft Fabric - Administration & Architecture
CHOURAK CONSULTING
Publiée le
CI/CD
Confluence
DAX
3 mois
400-700 €
Paris, France
Nous recherchons un Solution Architecte Power BI / Microsoft Fabric avec une expertise avancée en administration Microsoft Fabric , pour intervenir sur des sujets stratégiques de gouvernance, architecture et performance. ⚠️ Il ne s’agit pas d’un poste de Data Analyst Power BI. Nous recherchons un référent technique capable d’administrer les capacités Fabric et de conseiller sur l’architecture globale . 🎯 Contexte de la mission Vous serez le point d’entrée technique sur l’ensemble des sujets Power BI / Fabric , avec une forte responsabilité sur : L’administration des capacités Fabric L’optimisation des performances La gouvernance et la sécurité Les bonnes pratiques d’architecture BI ⚙️ Missions principales Administrer et monitorer les capacités Microsoft Fabric (analyse de consommation, optimisation, gouvernance). Définir et mettre en œuvre les standards d’architecture Power BI. Superviser la modélisation des datasets (modèle en étoile, optimisation). Garantir la sécurité des données : RLS, OLS, gestion des accès . Mettre en place et améliorer les pratiques CI/CD Power BI . Accompagner les équipes BI et Data sur les bonnes pratiques. Challenger les choix d’architecture et assurer la cohérence globale.
Offre d'emploi
Data Architect
ONSPARK
Publiée le
Cloudera
Hadoop
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Architect pour accompagner nos clients grands comptes. Responsabilités Concevoir et faire évoluer l'architecture globale de la plateforme de données Définir les standards et bonnes pratiques de modélisation Accompagner les équipes techniques dans leur mise en œuvre Assurer la cohérence entre les besoins métier et les choix techniques Veiller à la sécurité et à la conformité des architectures (RGPD, ISO 27001)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4966 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois