Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 280 résultats.
CDI

Offre d'emploi
Data Ops

Publiée le
DevOps
Python

40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
DevOps
Python

6 mois
Paris, France
Description de la mission: Au sein d’un centre de services de cybersécurité vous rejoindrez une équipe internationale DevSecOps et vous serez responsable de la conception, du développement et la mise en œuvre d’applications. Missions : Cette équipe a pour principales missions de : • Faire la conceptualisation de la solution, le « proof of concept », l'estimation des efforts, le développement, la mise en œuvre, le déploiement et les phases de support. • Développer un code sécurisé, propre, réutilisable et bien documenté en suivant une méthode AGILE. • Configurer les environnements de développement, de test et de production en local et/ou dans le cloud • Maintenir la qualité du code, la documentation relative au développement, le déploiement en production, et le transfert de connaissances (KT).
CDI

Offre d'emploi
Lead data (H/F)

Publiée le

40k-45k €
Lille, Hauts-de-France
Télétravail partiel
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
Freelance

Mission freelance
développeur Cloud & IA

Publiée le
Azure
Azure Data Factory
Azure DevOps Services

6 mois
Les Ulis, Île-de-France
Télétravail partiel
Profil recherché : Senior disponible en début d’année, avec une charge estimée autour de 3/5 lors des trois premiers mois, sans exigence immédiate de plein temps. Spécialisation : Développeur senior spécialisé en IA Générative (Gen AI), notamment sur la stack GEn AI. Responsabilités Clés Développement Expert & Maintien : Créer des agents intelligents autonomes utilisant l’approche Agentic AI, capables d’utiliser des outils externes ou de collaborer avec d’autres agents via des API, MCP ou autres services. Développer des applications pour la consommation des agents et algorithmes, avec des interfaces spécifiques pour les utilisateurs finaux. Mettre en place des pipelines robustes pour alimenter les LLM/Agents avec Azure, Snowflake et Databricks (RAG, Fine-Tuning). Assurer le support en production, la supervision des modèles/agents et la résolution des problèmes techniques. Compétences clés IA générative (Gen AI) : Bonne maîtrise des modèles génératifs (GPT, diffusion, etc.), capacité à exploiter des LLM via API ou fine-tuning pour la génération de texte, code ou images, tout en comprenant leurs limitations et biais. Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud, gestion de l’orchestration d’agents, partage d’état via MCP, et enjeux de performance et coût pour des systèmes multi-agents. Architecture de solution & POC : Concevoir des POCs pour les usages en Gen AI et systèmes agentiques, en explorant et validant des architectures. Prendre des responsabilités architecturales en validant les choix techniques (stack d’agents, orchestration, modèles LLM, cloud Azure) pour assurer scalabilité, sécurité et performance. Conseiller sur l’optimisation des services Azure pour l’IA Générative, en termes de coût, performance et résilience.
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Lyon (2 jours TT) Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75

Publiée le
Databricks
Microsoft Fabric
PySpark

12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.
Freelance

Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline

Publiée le
Azure DevOps
Git
Helm

1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Offre premium
Freelance

Mission freelance
Devops Supervision

Publiée le
Flask
Go (langage)
Grafana

6 mois
Île-de-France, France
Télétravail partiel
Nous recherchons un Devops Supervision pour une mission longue en Île de France pour un démarrage ASAP. Au sein du Centre de Service Supervision, chargé de la mise en œuvre des moyens de supervision. La mission consiste à effectuer, sur le périmètre de la supervision réseau : - Des tâches de MCO - Administrer l'existant maison et éditeur - Assurer des développements autour des solutions et outils ci-dessous. Les compétences clés recherchées : - Expertise exigée sur les outils suivants : Grafana, Prometheus, Victoria Metrics sur environnements Linux et Windows - Connaissances des exporters SNMP, ICMP et réseaux nécessaires. - Langages à maîtriser : Python (Requests, Flask, , Grafanalib, Grafana-api, pandas, glob, TQDM, Numpy), Go. Les livrables sont: MCO Administration de la solution en place Développements Python et Go
Freelance
CDI
CDD

Offre d'emploi
DBA DevOps Oracle

Publiée le
Ansible
Oracle
Python

1 an
40k-68k €
400-580 €
Île-de-France, France
Télétravail partiel
Consultant DBA Oracle confirmé , orienté DevOps et automatisation Objectif : Industrialiser la gestion de milliers de bases Oracle et renforcer l’équipe DevOps/DBA dans la création de services “ Database as a Service ”. Périmètre d’intervention 1. Automatisation & Industrialisation Oracle (Core Mission) Automatisation du cycle de vie des bases Oracle : Création / Suppression de bases Patching & upgrades Configuration Dataguard Paramétrage Oracle 19c Développement & amélioration continue des playbooks Ansible Mise en place de scripts idempotents gérant les cas complexes Participation au Database-as-a-Service (DBaaS) interne (10k bases) Contribution au passage à l’échelle d’environnements ExaCC 2. Outillage & Dev autour de l’écosystème Oracle Développement d’outils internes en Python APIs d’automatisation Chaînes d’orchestration (Airflow, pipelines CI/CD) Documentation & standardisation des patterns d’automatisation 3. Support à la conception technique (sans être architecte) Conseil DBA pour rendre les automatisations fiables Adaptation des patterns existants aux contraintes Oracle Collaboration avec les experts ExaCC / Cloud Oracle
CDI
Freelance

Offre d'emploi
Développeur Fullstack Data Java / Python / SQL

Publiée le
Automatisation
CI/CD
Cloudera

3 ans
40k-55k €
350-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste Nous recherchons un Développeur Fullstack orienté Data pour intervenir dans un environnement bancaire sur des sujets de conception, développement et optimisation de solutions data. Votre rôle portera sur la mise en place et l’optimisation des bases de données, la conception et l’intégration de traitements via Python et Java, ainsi que la création d’outils permettant de suivre, fiabiliser et sécuriser les usages data. Vous aurez la responsabilité d’assurer la disponibilité, la cohérence, la qualité et la performance des systèmes, tout en veillant à leur bonne exploitation. Vous participerez également à la mise en œuvre d’outils de supervision, à la documentation technique, à l’industrialisation de scripts et aux activités de support auprès des utilisateurs. La mission s’effectue dans un contexte agile avec un fort niveau d’autonomie et de collaboration technique. Compétences techniques Python Java SQL PostgreSQL Azure Synapse / Synapse Analytics Cloudera CI/CD – Environnements DevOps Optimisation et structuration de bases de données Scripting et automatisation
Freelance

Mission freelance
Développeur AWS Data et spark

Publiée le
API
AWS Cloud
AWS Glue

1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Freelance

Mission freelance
Data Engineer Azure / Snowflake

Publiée le
Azure
Databricks
Snowflake

12 mois
Paris, France
Télétravail partiel
Contexte Un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data & Analytics dans le cadre d’un programme stratégique d’industrialisation de la donnée. Missions • Concevoir, développer et maintenir les pipelines de données sur Azure. • Garantir la qualité, la fiabilité et la performance des traitements. • Participer à la modélisation et à l’optimisation des entrepôts de données. • Intégrer et exploiter Snowflake pour la gestion et la transformation des datasets. • Collaborer avec les équipes Data Science, Architecture et Produit. • Contribuer à la mise en place de bonnes pratiques CI/CD, sécurité et monitoring. Compétences techniques attendues • Maîtrise d’Azure Data Platform (ADF, Databricks, Data Lake, Synapse). • Solide expérience en Databricks (PySpark impératif). • Très bonne compréhension de Snowflake : ingestion, transformations, optimisation. • Compétences avancées en Python. • Connaissance des architectures data orientées cloud. • Bonne pratique CI/CD (Azure DevOps). • Compréhension des enjeux de qualité, performance et gouvernance data. Profil recherché • 5 à 6 ans d’expérience en Data Engineering. • Expérience en environnement cloud Azure indispensable. • Expérience confirmée sur Snowflake appréciée et attendue. • Capacité à travailler dans des environnements complexes. • Aisance en communication et travail en équipe. Environnement de travail • Projet data stratégique à très forte visibilité. • Équipe internationale et pluridisciplinaire. • Environnement cloud moderne et structuré. • Mission long terme.
Freelance

Mission freelance
Intégration en automatisation et développement (Python/PowerShell/API)

Publiée le
DevOps
Python

1 an
400-550 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Intégrateur en automatisation et développement (Python/PowerShell/API). Définition des prestations attendues / Description du besoin : - Défintion des missions et des obligations afférentes (obligation de conseil et/ou obligation de résultat) au Titulaire Mission principale • Développer des scripts et modules pour enrichir les automatisations (Python, PowerShell, API) • Mise en place d'un service d'automatisation DevOps, SecOPs • Concevoir et maintenir des workflows avancés • Mettre en place des scénarios automatisés robustes et optimisés pour la performance et la sécurité. • Gérer la documentation et la maintenance des workflows. Accompagner les équipes internes • Conseiller les équipes internes dans la mise en œuvre de solution automatisé MCO (Maintien en conditions opérationnelles) • Assurer le monitoring et le débogage des scripts et des appels API. • Auditer et optimiser les services déjà mis en place. Atouts supplémentaires : • Connaissances des environnements de "Conteneurisation" • Connaissances des environnements Cloud Compétences complémentaires : • Infrastructure sécurité (Pare-Feu, Répartition de charge, PKI, IDP, Massagerie, PAM) • Infrastucture réseaux (DNS, DHCP, IPAM, ISE) • Kubernetes
CDI
Freelance

Offre d'emploi
DevOps engineer expert

Publiée le
Python

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 3 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure ; Devops Engineer Spécialités technologiques : Devops, Sécurité informatique, IAM,gitOps, Tests automatisés MISSIONS Contexte de la mission Une équipe IAM Infra recherche un Expert DevOps pour renforcer ses pratiques de développement et de sécurité. Il ne s’agit pas d’une équipe de développeurs de métier : le code produit n’intègre pas toujours des standards de qualité ou de sécurité. La mission vise donc à professionnaliser la qualité du code, à structurer les pratiques DevOps et à accompagner une transformation culturelle. Le rôle comporte deux dimensions essentielles : - Technique : expertise DevOps (Kubernetes, CI/CD, GitHub, automatisation…). - Coaching : accompagnement, transmission des bonnes pratiques, montée en maturité des équipes. Responsabilités et livrables - Structuration et amélioration des pratiques de développement - Définir, déployer et améliorer les bonnes pratiques : CI/CD, tests automatisés, observabilité, sécurité, backup/restore… - Évaluer régulièrement la maturité des pratiques et piloter les évolutions vers des standards plus exigeants. - Mettre en place des rituels d’amélioration continue et des revues de code structurées. - Accompagnement et adoption des pratiques DevOps - Sensibiliser et accompagner des équipes non-développeuses dans l’adoption du mindset DevOps. - Coacher les équipes au quotidien : revue du code, qualité, automatisation, sécurité by design. - Contribuer à la transformation Agile de l’environnement. - Intégration continue, automatisation et outillage - Concevoir, optimiser et opérer les pipelines CI/CD. - Intégrer ou améliorer les outils DevOps : GitHub, GitOps, IaC, automatisation, APIs self-service. - Travailler en binôme avec un Release Manager pour définir les cycles et processus de release. Expertise souhaitée Expertises techniques attendues - Bon niveau dans un langage de scripting : Python, PowerShell. - Maîtrise de Kubernetes / OpenShift. - Expérience en Infrastructure as Code : Terraform, ArgoCD… - Compétences en .NET ou Java. - Connaissance des projets liés à la sécurité informatique. - Bonus selon les profils : Saviynt, Ping Identity, Active Directory. - Solides bases infrastructure (Linux, Windows, réseau). - Connaissance de l’approche ITIL. Compétences non techniques - Aisance dans un environnement international et multiculturel. - Capacité à accompagner, fédérer et influencer. - Gestion des priorités, des dépendances et des situations complexes. - Sens du service et de la qualité. - Capacité analytique pour soutenir l’amélioration continue. Anglais courant obligatoire ; français apprécié. Profil recherché - Au moins 3 ans d’expérience, si la personne est fortement motivée par la dimension coaching et prête à s’impliquer dans l’accompagnement des équipes. - Alternativement, un profil plus senior peut être attendu si l’appétence pour le coaching est plus faible ou si l’environnement technique nécessite un niveau d’expertise supérieur. - Le poste exige une combinaison d’expertise technique solide et de leadership d’influence. - Une attitude proactive, structurée et orientée amélioration continue est indispensable.
CDI

Offre d'emploi
Développeur Python, C# et Sql

Publiée le
API
DevOps
ERP

Paris, France
Télétravail partiel
Etudes & DéveloppementConcepteurSpécialités technologiquesDevops API Reporting ERP Assistance Technique (Facturation avec un taux journalier)CompétencesTechnologies et OutilsSQL (2 ans) C# (2 ans) Python (2 ans)Soft skillsAutonomieSecteurs d'activitésEnergieDans un premier temps: A) Travailler sur le développement/l'automatisation de nouveaux outils/services en Python/Sql/Devops B) Faire monter en compétences les membres de l'équipe en C# et assurer la maintenance d'une application jusqu'à leur autonomie 2) Dans un second temps: A) Développement de TNR sous Robot Framework Les livrables sont : - Documentation - Code source de qualité - Reporting d'activité
280 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous