Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 661 résultats.
Freelance

Mission freelance
Ingénieur de production – app paiement- N4

KEONI CONSULTING
Publiée le
OS Windows

18 mois
100-380 €
Paris, France

CONTEXTE Objectif global : Intégrer une équipe de production applicative paiement MISSIONS : Au sein de la Production Applicative Paiements du client, les activités s’articulent autour de missions stratégiques des services du Pôle Paiement infogérés ) : - Prise en charge de l’intégration technique des solutions existantes et nouvelles. - Exploitation des plates-formes techniques en assurant le maintien en conditions opérationnelles. - Mise en œuvre des réponses aux audits externes et aux mises en conformités internes - Applications de la politique de sécurité des SI Afin de répondre aux enjeux liés à la criticité du Pôle Payment, la production applicative a besoin de renforcer son équipe d’un Prestataire expérimenté qui évoluera de façon autonome autour des solutions IT hébergées sur des systèmes distribués en qualité d’ingénieur de production expérimenté. Aussi, dans le périmètre de l’activité, intervention sur les solutions de transferts de flux comme CFT et MQ Series et également sur d’autres applications en support au métier. La mission proposée peut être soumise aux horaires décalés (intervention en HPO notamment) ainsi qu’à une participation au dispositif d’astreinte hebdomadaire et week-end. Il est impératif de pouvoir travailler en anglais (oral et écrit). - Gérer des incidents critiques : communication, diagnostic, correction, coordination d’experts en cellule technique. - Contact avec des cellules supports éditeurs. - Gérer des problèmes (incident récurrent avec plan d’action sur moyen/long terme) - Analyser, Gérer, Piloter des changements. - Maintenir un niveau d’excellence technique des plateformes WTX/ITX/STX, CRISTAL : création, administration des environnements, application des patchs, supervision, veille technologique - Coordonner des multi-intervenants. - Réaliser l’interface entre les experts techniques et le support Editeur dont vous êtes l’interlocuteur privilégié. - Rédiger les manuels d’exploitation : procédures, sauvegardes, supervision, … Parmi les compétences techniques générales: - Les systèmes Linux, Scripting SHELL. - Ordonnanceur CTL-M. - WAS, JBOSS, TOMCAT - Connaissance du middleware Websphere MQ, - CFT - Les architectures réseau (TCP/IP, RP, FW, …). - XLD, XLR, Git & Jenkins Connaissances complémentaires: - Bases de données Oracle, SQL. - STX (ex ITX, ex WTX) - DevOps & Cloud Intégrer une équipe de Production applicative Paiements

Freelance

Mission freelance
Développeur Java

CAT-AMANIA
Publiée le
Apache Kafka
Apache Maven
CI/CD

3 ans
Champagne-au-Mont-d'Or, Auvergne-Rhône-Alpes

Accompagnement de l'équipe dans les nouveaux projets de recherche utilisateurs, de maintien de la solution en place et de l'amélioration des usages et pratique au sein de l'équipe. Assurer la maintenance des solutions en place. Développer de nouvelles fonctionnalités afin d'améliorer l'usage du moteur aux collaborateurs. Participer à la MCO, analyse et résolution des incidents de production - Indexer et restituer de nouvelles sources de données via les techno cible de CATS (Kafka, Elastic, API Rest, progiciel SINEQUA) - Réaliser des modifications sur l'IHM du moteur de recherche (JS, java) au sein du portail Collaborateur des Caisses Régionales - Participer à l'amélioration des outils et à la mise en place de CI/CD, de bonne pratique DevOps

Freelance

Mission freelance
Lead Python / Dév Agents IA

Cherry Pick
Publiée le
FastAPI
Google Cloud Platform (GCP)
IA Générative

6 mois
610-680 €
Boulogne-Billancourt, Île-de-France

Description de la mission : Contribuer au développement et à l’évolution de nouveaux agents IA pour enrichir une plateforme interne. Les agents, de type Retrieval-Augmented Generation (RAG), permettent aux utilisateurs métiers de créer, personnaliser et utiliser des assistants et workflows intégrant l’IA générative. La mission inclut le développement, l’intégration, la maintenance et l’optimisation des agents dans un environnement micro-services, avec un focus sur la performance, la scalabilité et la qualité des services. Missions principales : Développer et maintenir des agents IA en Python, garantissant : Couverture fonctionnelle et spécialisation des agents Collaboration entre agents et respect des standards Sécurité et gestion des ACLs Monitoring, reporting et évaluation de qualité Optimisation des performances et coûts Scalabilité et stabilité de la plateforme Remise en marche rapide du SI si nécessaire Piloter la conception et le développement en collaboration avec les équipes DevOps et Solution Architects Challenger et contribuer à la vision produit Prioriser services et sécuriser les dépendances techniques

CDI
Freelance

Offre d'emploi
Fullstack Developer H/F

SPIE ICS
Publiée le
Azure
Full stack
Github

12 mois
40k-45k €
100-350 €
Hauts-de-Seine, France

Nous recherchons pour l’un de nos clients grands compte un "Fullstack Developer H/F". Vos missions : Conception et développement de l'architecture logicielle complète de l'application en TypeScript. Implémentation des interfaces utilisateur (front-end) et les services back-end (API, base de données). Assurer la qualité, la performance et la maintenabilité du code. Participation active aux rituels et principes de la méthodologie agile. Vous justifiez d’une expérience professionnelle similaire minimum de 5 ans, et maîtrisez les environnements suivants : Expertise approfondie de TypeScript et des technologies Full-Stack. GITHUB JavaScript Microsoft Azure DevOps Node.js PostgreSQL React SQL

Freelance
CDI
CDD

Offre d'emploi
Data Engineer

LEVUP
Publiée le
Collibra
Python
Snowflake

6 mois
Liège, Belgique

Nous recherchons un Senior Data Engineer expérimenté pour rejoindre notre équipe Data. La personne sera responsable de la conception, du développement et de la maintenance de solutions de données robustes et scalables, tout en assurant la qualité et la gouvernance des données. Le candidat idéal maîtrise les environnements cloud, les pipelines de données et les outils de gestion des données modernes. Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables pour ingestion, transformation et intégration de données. Assurer la qualité, la sécurité et la gouvernance des données en collaboration avec les équipes Data & BI. Participer à la conception d’architectures data modernes sur Snowflake et autres plateformes cloud. Développer des solutions ETL/ELT avec Talend et automatiser les processus de traitement des données. Intégrer et orchestrer des flux de données en temps réel avec Kafka. Collaborer avec les équipes métiers pour comprendre les besoins en données et proposer des solutions adaptées. Mettre en place et suivre les métriques de performance des pipelines de données. Assurer la documentation technique et le respect des bonnes pratiques de développement. Compétences techniques requises Bases de données & Cloud : Snowflake, SQL avancé, modélisation de données, optimisation des requêtes. Gouvernance & Qualité des données : Collibra, gestion des métadonnées, data lineage. Langages de programmation : Python pour le développement de scripts ETL, automatisation et analyses. ETL / Intégration : Talend, conception et maintenance de flux ETL/ELT. Streaming & Event-driven : Kafka, gestion de flux en temps réel. Autres : Git, CI/CD, tests automatisés, bonnes pratiques de développement logiciel. Compétences comportementales Forte capacité analytique et rigueur. Autonomie et prise d’initiative sur les projets techniques. Excellente communication pour travailler avec des équipes transverses. Capacité à mentor et encadrer des profils juniors. Profil recherché Bac +5 en Informatique, Data ou équivalent. Minimum 5 ans d’expérience en Data Engineering dans des environnements complexes. Expérience avérée sur Snowflake, Talend, Kafka et Python. Bonne connaissance des processus de gouvernance et de qualité des données avec Collibra. Maîtrise des concepts d’architecture data moderne et des bonnes pratiques DevOps pour pipelines data. Télétravail : 2 jour / semaine Langues : Français, Anglais

Freelance
CDI

Offre d'emploi
ML Engineer

VISIAN
Publiée le
Machine Learning
Python

1 an
40k-45k €
100-570 €
Montreuil, Île-de-France

Descriptif du poste Dans le cadre de l'accélération de l'IA d'une grande banque commerciale en France, au sein de l'IA Factory, nous recherchons un ML Engineer pour permettre la mise en production des algorithmes élaborés par les Data Scientists. Objectifs de la Mission Contribuer à la mise en production d'algorithmes de Machine Learning Optimiser le déploiement et le cycle de vie des modèles IA Compétences et Qualités Attendues Compétences DevOps : GitLab Gitlab-CI Docker Pipeline CICD Services cloud Python Outils de code quality : Ruff Black MyPy Sonarqube

Freelance

Mission freelance
Chef de Projet Test

ALLEGIS GROUP
Publiée le
Openshift
OpenStack
Recette

3 mois
100-560 €
Paris, France

Bonjour je suis à la recherche d'un chef de projet teest dont vous trouverez la fiche de poste ci-dessous: Cette mission est au sein de l’équipe, Chefferie de Projet, du Pôle CCXP (Compute & Cloud eXPerience). Ce Pôle est le centre d’expertise pour l’infrastructure, le cloud, la donnée, l’IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l’innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. Dans le cadre du pilotage du projet stratégique Openshift NextGen, nous recherchons un Chef de Projet Recette pour renforcer l’équipe projet et notamment le Directeur de programme. La mission consiste à piloter le stream Recette dans le cadre du déploiement et de l’industrialisation de la plateforme OpenShift. Le chef de projet sera responsable de piloter les activités de recette liées au déploiement de la plateforme OpenShift, en assurant la coordination entre les équipes techniques et métiers. Ce programme consiste à remplacer la plateforme OpenStack actuelle, devenue obsolète, par une plateforme cloud native plus moderne, performante et sécurisée. Activités attendues • Rédaction des plans de test • Animation des comités de suivi • Suivi opérationnel des tests (exécution, automatisation, couverture) • Reporting sur les risques et les plans d’action • Coordination transverse avec les autres streams

Freelance

Mission freelance
Tech Lead Full Stack (Back & Front End)

VISIAN
Publiée le
Angular
Java
React

1 an
290-500 €
Paris, France

En tant que Tech Lead du pôle Trade Finance, vous interviendrez : Sur les activités de CHANGE : Accompagner les développeurs et les Application Owners en donnant des préconisations, conseils et bonnes pratiques ; en effectuant des revues de code ; en formalisant des principes directeurs ; en effectuant des revues des process (installation en local, process GIT) Prendre en charge des sujets techniques comme la mise en place de SSO, les architecture Active/Active, le DevOpsSecOps (notamment containerisation / openshift), et les performances (niveau code + niveau infra) Effectuer les développements lorsqu'ils sont complexes ou à mener rapidement, et organiser les travaux des développeurs. Définir les sujets en phase amont (chiffrage, élaboration de solutions techniques, architecture infrastructure et architecture applicative). Assurer le respect des jalons en effectuant une affectation efficace des tickets Jira, ainsi qu'en suivant et en débloquant les développeurs. Préparer le planning technique des mises en production et s'assurer que toutes les actions techniques soient réalisées dans les délais prévus. Sur les activités de RUN : Concourir au maintien en condition opérationnelle des applications en assistant les développeurs et les Applications Owners (résolution des incidents, assistance aux utilisateurs, analyse des logs) ; Assister les développeurs et les Applications Owners sur la gestion de configuration et les technologies Devops Proposer des opérations de maintenance préventive et d'optimisation

Freelance

Mission freelance
Développeur Sénior Full Stack Java (FH)

Taleo Capital
Publiée le
Apache Kafka
DevOps
Java

1 an
500-600 €
Courbevoie, Île-de-France

Contexte et Mission Pour le compte d’un grand groupe bancaire situé à La Défense , nous recherchons un Senior Full Stack Java Developer disposant de solides compétences techniques ainsi qu’une capacité de coordination intercontinentale (Asie ↔ Amériques) . Le consultant participera à la refonte d’un ensemble d'applications critiques, incluant la migration de solutions C/C++ vers Java/Python , la mise en place de microservices de reporting , et l' optimisation de pipelines ETL . Ce poste demande un excellent niveau technique sur Java, une forte culture DevOps, de bonnes compétences en communication, et une aisance en anglais dans un environnement international . Responsabilités clés Migrer des applications C/C++ vers Java ou Python. Concevoir et implémenter des microservices robustes et scalables. Travailler avec des systèmes de données variés (Oracle, PostgreSQL, Kafka, MQ, Solace...). Optimiser les performances des flux ETL. Mettre en œuvre des pipelines CI/CD (Maven, Jenkins, Docker, Kubernetes, Ansible). Collaborer avec les équipes globales (Europe, Asie, Amériques). Participer à la coordination technique entre fuseaux horaires. Respecter les normes de qualité, de sécurité et de conformité réglementaire.

Freelance
CDI
CDD

Offre d'emploi
Chef(fe) de Projet Coordinateur(rice) - Pilotage de flux - Data

IT CONSULTANTS
Publiée le
Azure
Databricks
Méthode Agile

14 mois
Châtillon, Île-de-France

Contexte de la mission - Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Expertises REQUISES - Tableaux de bord de suivi des flux - Azure - Modélisation data - Databricks - Agilité Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition

Freelance

Mission freelance
DEVELOPPEUR RUBY - CONFIRME

Groupe Aptenia
Publiée le
Linux
PostgreSQL
Ruby

3 mois
Boulogne-Billancourt, Île-de-France

Contexte de la mission Au sein de l’équipe technique, vous travaillerez dans un environnement de développement logiciel agile, en collaboration avec des développeurs, des data scientists, des product owners et scrum masters expérimentés Objectifs et livrables Vous évoluerez dans un environnement utilisant les dernières technologies en termes de développement, Big Data et Infra : Rails 7, Vue.js, Python, Kubernetes, Terraform, Google Cloud Platform, Dataiku, PostgreSQL et vos missions consisteront à : Développer les nouvelles fonctionnalités des différents produits Maintenir et améliorer l’architecture logicielle durant les cycles de développements avec prise en compte des contraintes systèmes et business Garantir la performance, la sécurité et la mise à jour des applications Définir et maintenir la supervision des applications (monitoring, metrics, alerting…) Issu(e) d’une école d’ingénieur avec au moins +5 années d’expériences en développement en ruby, vous vous définissez comme un développeur ouvert, avec des connaissances pointues en développement ruby mais aussi en modélisation de base de données PostgreSQL. Vous justifiez également d'une forte appétence aux principes DevOps. Bon niveau d’anglais (écrit & parlé), communication, documentation et rituels de l'équipe se font en anglais Autonomie, rigueur, curiosité, relationnel L’environnement de travail: Backend : Ruby (Rails), NodeJS Frontend : HTML, CSS, JS Base de données : PostgreSQL, Redis Intégration continue (Circle CI, GitHub) Architectures microservices et Containerisation (Docker, Kubernetes) Plateformes Cloud : Google Cloud Platform Méthodologie Agile (Scrum/Kanban, Jira/Confluence) Outils de monitoring & alerting (Stackdriver, Jaeger) Tests automatiques (unitaires, intégration, fonctionnels) Documentation

Freelance

Mission freelance
Support engineer

ESENCA
Publiée le
Administration réseaux
Administration système
Administration Windows

3 mois
Lille, Hauts-de-France

Cadre général : Gérer les incidents d’exploitation et assurer la maintenance (supervision traitement, système, réseau, sauvegardes) sur la plage horaire 5h-13h, 13h-21h du lundi au vendredi et 5h-13h le samedi + astreinte hebdomadaire (Soir et We) Assurer la disponibilité et la sécurité de l’exploitation Gestion des incidents de niveau 1 et 2 Mise en production et déploiement d’applications, gestion utilisateurs (AD, gmail), création serveur nouveau magasin Suivre les applications et les flux applicatifs conformément aux attentes Détecter les incidents et mettre en œuvre une résolution de premier niveau ou escalader conformément aux procédures définies Participer à l’amélioration continue / l’automatisation dans le périmètre de l’exploitation. Résultat attendu : Disponibilité de l’exploitation dans son ensemble. Supervision des infrastructures informatiques et du patrimoine applicatif Assurer la surveillance de l'ensemble des ressources informatiques pour les maintenir en conditions opérationnelles. Esprit d’analyse, amélioration continue Elaborer et mettre à jour la documentation technique. Compétences : Support Engineer (Analyste/technicien d’exploitation) : Confirmé Ordonnancement (OPcon xps) – automatisation – scripting (Python / Bash / Powershell / ...) : Confirmé Ivanti (Landesk) : Confirmé Digital Factory : Pratique DevOps, Cloud Publique, Gitlab, Les APIs (JSON, CURL, …), Les containers (DOCKER, KUBERNETES), Puppet / Foreman : Confirmé/connaissances

Freelance

Mission freelance
data ingnénieur

Etixway
Publiée le
Apache Kafka
BigQuery
Docker

1 an
330-530 €
Lille, Hauts-de-France

Objectif global :Développer le socle data Loyalty & Quotation  Contrainte forte du projet -  Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

CDI

Offre d'emploi
Architecte infrastructure transverse

OBJECTWARE MANAGEMENT GROUP
Publiée le
Ansible
Azure
ServiceNow

Île-de-France, France

Rattachement hiérarchique : Directeur des Systèmes d’Information (DSI) / Responsable Architecture IT / CTO Mission principale : L’Architecte Infrastructure Transverse est responsable de la conception globale , de la cohérence et de l’ évolution des architectures techniques de l’entreprise. Il intervient de manière transversale sur toutes les couches de l'infrastructure (serveurs, réseaux, sécurité, cloud, stockage, poste de travail, etc.) en garantissant la performance, la sécurité et la résilience des solutions déployées. Activités principales : Définir les architectures techniques cibles en lien avec les besoins métiers et les orientations stratégiques de l’entreprise Participer à la construction des dossiers d’architecture technique (DAT) dans le cadre des projets Garantir la cohérence des solutions déployées avec l’existant (urbanisation du SI) Apporter son expertise dans les choix technologiques (on-premise, cloud, hybride) Piloter ou participer aux études d'impacts techniques et fonctionnels Valider les architectures proposées par les équipes projets (réseau, systèmes, sécurité, cloud…) Assurer une veille technologique pour identifier les innovations pertinentes Contribuer à la mise en place des normes, standards et bonnes pratiques Travailler en collaboration avec les architectes applicatifs, les experts techniques, la production, la sécurité et les équipes projets Environnement technique : A adapter selon le besoin Systèmes : Windows Server, VMware, Hyper-V Cloud : Azure, AWS, GCP Réseau & sécurité : Cisco, Fortinet, Palo Alto, VPN, firewall, NAC Outils DevOps / Infra as Code : Terraform, Ansible, Git, CI/CD Stockage & sauvegarde : NetApp, Veeam, Commvault, SAN/NAS Outils ITSM & supervision : ServiceNow, Centreon, Grafana, etc.

Freelance
CDI
CDD

Offre d'emploi
Chef(fe) de Projet Coordinateur(rice) - Pilotage de flux - Data

IT CONSULTANTS
Publiée le
Azure
Databricks
Méthode Agile

14 mois
Châtillon, Île-de-France

Contexte de la mission - Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Expertises REQUISES - Tableaux de bord de suivi des flux - Azure - Modélisation data - Databricks - Agilité Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition

CDI
Freelance

Offre d'emploi
Ingénieur Système Linux H/F

AMAGO EXPERTISE
Publiée le
Ansible
Azure
CentOS

36 mois
50k-60k €
400-550 €
Nice, Provence-Alpes-Côte d'Azur

AMAGO IT recherche dans le cadre d'une prestation de longue durée pour l'un de ses clients basé dans le Sud de la France 06 : Un Ingénieur Système Linux Devops et Stockage H/F Dans le cadre du maintien en condition opérationnelle des Infrastructures clients : Administration des système Linux Redhat Industrialisation et automatisation des tâches (scripts python, ansible, gitlab, ci/cd...) Administration des baies de stockage Netapp Résolution d'incidents critiques ou majeurs sur le périmètre Linux et Stockage Supervision de l'infrastructure (grafana, promotheus) Support N2/3

661 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous