Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 067 résultats.
CDI

Offre d'emploi
Responsable Data F/H

LED'RH
Publiée le
Data Engineering
Data governance
Gestion de projet

60k-70k €
Nord, France
Envie d’avoir de l’impact sur la stratégie data d’une entreprise ? Discutons-en! Je suis Laetitia de LED’RH et accompagne les entreprises sur leurs projets de recrutements IT. Dans un contexte d’accélération autour de la Data et de l’IA, je recherche un profil en capacité de structurer et de piloter des stratégies Data, pour un client du secteur du Retail. Missions principales : Définir et mettre en œuvre la stratégie DATA et IA Assurer le lien avec les équipes de la DSI, les équipes Métiers et les différents partenaires externes. Piloter l’ensemble des projets DATA et IA, jusqu’à leur mise en production Participer au comité de pilotage Data Encadrer l’équipe technique, composée de spécialistes de la Data Garantir la qualité, la gouvernance et la sécurité des données Assurer une veille technologique et mettre en place les bonnes pratiques dans le domaine de la DATA et de l’IA.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure Sénior

VISIAN
Publiée le
Azure Data Factory
Azure DevOps
Python

1 an
Paris, France
Contexte La Direction des Systèmes d’Information recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données. Missions Mener les projets d’intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger (Anglais) pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l’entreprise
Freelance

Mission freelance
POT9121 - Un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF.

Almatek
Publiée le
Data management

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF. Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : -planification des changements globaux/locaux -planification et suivi des soumissions -planification et suivi des enregistrements -gestion des CCDS et de l’étiquetage local -reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset). Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Contrainte forte du projet : Diplome pharma/ expertise affaires règlementaires / connaissance RIM / IDMP Connaissances linguistiques : anglais professionnel (Excellentes compétences en communication en anglais.)
CDI

Offre d'emploi
Business Analyst DATA/ AMOA F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Développeur Python Senior | RESIM ADAS | Environnement Cloud & HPC

RIDCHA DATA
Publiée le
Bash
Calcul hautes performances (HPC)
DevOps

1 an
Boulogne-Billancourt, Île-de-France
Nous recherchons un Développeur Python Senior pour intervenir sur une plateforme stratégique de re-simulation ADAS, au cœur des enjeux de validation des projets véhicules. Cette plateforme s’appuie sur des infrastructures cloud pour exécuter des chaînes complexes de simulation, intégrant : • des traitements batch intensifs (CPU / GPU) • des workflows majoritairement développés en Python • des environnements cloud • de fortes exigences en robustesse, performance, traçabilité et automatisation Le projet est critique pour le respect des jalons véhicules et s’inscrit dans une démarche d’amélioration continue des capacités de simulation. 🎯 Votre mission En lien direct avec les équipes de développement et les référents techniques, vous serez en charge de : • Développer, maintenir et optimiser les scripts Python des chaînes de simulation • Améliorer la robustesse, la lisibilité et la maintenabilité du code existant • Optimiser les performances des traitements et l’utilisation des ressources IT (CPU, RAM, GPU, stockage, réseau) • Industrialiser et automatiser les workflows techniques • Contribuer à l’analyse et à la résolution d’incidents complexes • Participer aux choix techniques et aux architectures logicielles • Mettre en place les bonnes pratiques de développement (tests, qualité, logging, sécurisation) • Participer aux rituels Agile du projet 📦 Livrables attendus • Code Python documenté et conforme aux standards projet • Scripts et outils d’automatisation opérationnels • Documentation technique (conception, usage, intégration) • Rapports d’optimisation de performance si nécessaire • Bilans des tests unitaires et d’intégration réalisés
Freelance
CDI

Offre d'emploi
Consultant.e Data Gouvernance / Anglais requis

Octopus Group
Publiée le
Data governance
Data quality

6 mois
40k-45k €
400-600 €
Île-de-France, France
Octopus Group , ESN de 100 collaborateurs est à la recherche d'un.e consultant.e Data gouvernance Dans le cadre d’un partenariat stratégique, nous accompagnons un acteur majeur du secteur du Luxe dans la structuration et la valorisation de ses actifs data à l’échelle groupe. Dans un environnement exigeant, international et orienté excellence, nous recherchons un(e) Consultant.e Data Gouvernance pour contribuer à la mise en place et à l’industrialisation des pratiques de gouvernance des données. avec un minimim de 3 ans d'expérience
CDI

Offre d'emploi
Data Manager / Data Steward

INFOGENE
Publiée le
Data management
Data quality

Malakoff, Île-de-France
Contexte Dans le cadre du renforcement de la gouvernance des données au sein d’un grand groupe industriel, nous recherchons un(e) Data Manager / Data Steward expérimenté(e), avec une forte sensibilité aux environnements métiers industriels et ERP. Missions principales Piloter la qualité des données (data quality management) Mettre en place et maintenir des référentiels de données fiables Réaliser la cartographie des données et des processus métiers Travailler en étroite collaboration avec les équipes métiers pour comprendre et structurer les flux de données Définir et suivre les indicateurs de qualité de données (KPIs) Participer à la gouvernance des données (data governance) Contribuer à l’amélioration continue des processus liés aux données dans les systèmes ERP Environnements métiers Vous interviendrez sur des domaines variés, notamment : Logistique Approvisionnement Achats Bâtiment / infrastructures Machines / production industrielle Compétences requises Expérience confirmée en Data Management / Data Stewardship Maîtrise des problématiques de qualité de données Expérience en cartographie des processus métiers Bonne connaissance des systèmes ERP (SAP ou équivalent) Capacité à interagir avec des interlocuteurs métiers variés Esprit analytique, rigueur et sens de l’organisation
Freelance

Mission freelance
Architecte DevOps / FinOps GCP – Data & IA

Craftman data
Publiée le
DevOps
Google Cloud Platform (GCP)
MLOps

3 mois
590-700 €
Paris, France
Dans le cadre d’un programme stratégique Data & IA, nous recherchons un Architecte DevOps / FinOps avec une forte expertise GCP. Vous interviendrez sur des enjeux structurants autour de la conception et de l’industrialisation d’architectures Data & IA en environnement cloud et hybride. À ce titre, vous serez en charge de : Concevoir et mettre en œuvre des architectures data robustes et scalables Définir les standards d’architecture (Data, IA, DevOps, MLOps, Cloud) Mettre en place des pratiques de gouvernance des modèles (incluant les LLM) Encadrer les enjeux de conformité, risques et éthique liés à l’IA Structurer et diffuser les bonnes pratiques (Data, Cloud, DevOps) Intégrer une approche FinOps dès la conception des architectures Piloter la performance des pipelines data & IA Optimiser les coûts (Cloud, GPU, workloads IA) Contribuer à la mise en place de modèles de refacturation
Freelance

Mission freelance
Architecte modélisation data

Freelance.com
Publiée le
Architecture
Big Data

6 mois
100-600 €
Paris, France
📍 Infos pratiques 📍 Localisation : Paris (2 jours TT) 📅 Démarrage : ASAP 📆 Visibilité : mission longue (jusqu’à fin 2026) Dans le cadre d’un programme de transformation Data B2B , nous recherchons un profil orienté architecture et modélisation métier , capable d’intervenir en amont des développements pour structurer un modèle data cible robuste. 👉 ⚠️ Important : ce n’est PAS un poste de Data Engineer 👉 Le besoin est centré sur la conception, l’abstraction et la structuration de la donnée 🎯 Ce que le client attend réellement ✔ Construire une vision 360 des données B2B ✔ Définir les objets métiers clés (Client, Contrat, Parc, Facture, Usage…) ✔ Concevoir le modèle de données cible (Core Model) ✔ Définir les règles de gestion (RCU / unicité client / hiérarchies) ✔ Analyser les sources legacy et faire le lien avec la cible ✔ Structurer un dictionnaire de données (Business Glossary) ✔ Travailler en lien direct avec les équipes métier 👉 Positionnement attendu : Architecte Data fonctionnel / Data Modeler senior 🧠 Responsabilités Modélisation des données (logique & métier) Définition des règles de gestion (vision client / référentiels) Analyse des écarts entre SI existant et cible Contribution à la gouvernance (catalogue, qualité de données) Support aux équipes Data & métiers Pourquoi c’est intéressant ? ✔ Projet stratégique (transformation data complète) ✔ Forte dimension architecture & conception ✔ Impact direct sur la structuration des données du groupe
Freelance
CDI
CDD

Offre d'emploi
DATA ENGINEER SENIOR TJM MAX 580

Craftman data
Publiée le
FinOps
Git
Nosql

8 mois
40k-45k €
400-580 €
Paris, France
Contexte de la mission Entreprise internationale du secteur de l’énergie, engagée dans la production et la fourniture de solutions énergétiques (énergies renouvelables, gaz, électricité, etc.), recherche un Data Engineer Senior pour intégrer une Digital Factory dynamique. Cette entité regroupe plusieurs équipes agiles pluridisciplinaires (environ 30 squads ) et a pour mission d’accélérer la création et le déploiement de solutions digitales à grande échelle dans un environnement international. Objectif de la mission Au sein d’une équipe produit, vous intervenez sur la conception, le développement et l’industrialisation de pipelines de données complexes , dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilitésIngénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’ architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions data Industrialisation Mettre en place des mécanismes d’ observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents en production et anticiper les risques Collaborer avec les équipes transverses Participer au partage de bonnes pratiques Stack technique & environnementCloud & Data Environnement Cloud (type Azure ou équivalent) Data Lake Outils de streaming et traitement temps réel Bases de données Maîtrise des bases relationnelles Connaissances des bases NoSQL Développement & Data Expert Python Manipulation de données ( pandas ou équivalent ) Scripts de transformation et de traitement de données Outils & Qualité Git (maîtrise avancée) Tests automatisés ( Pytest ) Linting et qualité de code Profil recherché Expérience confirmée en Data Engineering Capacité à évoluer dans un environnement agile mature Esprit collaboratif et orientation produit Sens de la qualité , de la performance et de la fiabilité Une sensibilité à la data science est un plus. Processus de sélection Coding game en live à réaliser sous 72h après réception Soutenance technique à prévoir dans la foulée Conditions obligatoires du test Réalisation seul(e) dans un environnement calme Aucun support externe autorisé (internet, IA, documents, etc.) Un seul écran autorisé Session unique sans interruption Caméra activée si demandée Le non-respect de ces règles entraîne l’ invalidation du test .
Freelance
CDI
CDD

Offre d'emploi
Architecte Fonctionnel SI & Data – Senior

RIDCHA DATA
Publiée le
TOGAF

1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans un environnement multi-BUs, multi-outils et multi-processus , une grande organisation renforce sa Direction des Systèmes d’Information Interne afin de structurer et faire évoluer son Système d’Information Corporate. Le poste s’inscrit dans une démarche de transformation SI & Data , avec un fort enjeu d’alignement stratégique, de gouvernance et de valorisation de la donnée. 🚀 Missions principales 🏗 Architecture fonctionnelle & urbanisation SI Définir et faire évoluer l’architecture fonctionnelle cible du SI Maintenir la cartographie fonctionnelle Définir les principes d’urbanisation Garantir la cohérence des flux et processus métiers Contribuer aux choix structurants et aux études d’opportunité 📊 Gouvernance SI & Data Structurer et animer la gouvernance SI et Data Piloter les instances de gouvernance Garantir la qualité et la cohérence des données Mettre en place et suivre les référentiels 🗺 Pilotage de la roadmap SI Consolider la feuille de route SI Identifier et piloter les dépendances entre projets Contribuer aux arbitrages stratégiques Accompagner les métiers et la DSI sur les cadrages complexes 🤝 Accompagnement transverse Assurer la cohérence globale des solutions SI Intervenir sur les sujets à forte complexité ou à enjeux stratégiques Animer les équipes projets (chefs de projet, AMOA, référents data…) Favoriser l’usage et la valorisation de la donnée 🧩 Périmètre fonctionnel SI Finance SI RH & Activité CRM & Connaissance Client Data & IA
Freelance

Mission freelance
Data Scientist - Bases de Données Graph & SQL

Sapiens Group
Publiée le
Data science
MySQL
Neo4j

1 an
Meudon, Île-de-France
Contexte Nous recherchons un profil jeune et motivé pour rejoindre notre équipe en tant que Data Scientist orienté gestion et modélisation de bases de données. Missions Concevoir, modéliser et administrer des bases de données, notamment orientées graphe Manipuler et exploiter des données via Neo4j et MySQL Participer à la structuration et à l’optimisation des flux de données Contribuer à des projets innovants nécessitant une forte compréhension des données Pourquoi nous rejoindre ? Environnement dynamique et innovant Projets concrets avec un impact réel Possibilité d’évolution et montée en compétences Si vous êtes passionné par la donnée et souhaitez vous investir dans un projet ambitieux, ce poste est fait pour vous.
CDI

Offre d'emploi
Data Steward/Analyst Fleet Management & Plans de Dépose F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
SQL

Montereau-sur-le-Jard, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
CDI

Offre d'emploi
Data Engineer/ Ingénieur Plateforme Datalab H/F

CELAD
Publiée le

Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer/ Ingénieur Plateforme Datalab H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez au sein d’une équipe Data en charge de la conception, de l’évolution et du maintien en conditions opérationnelles de plusieurs environnements Data (nouvelles plateformes et systèmes existants). Dans un contexte de transformation, vous contribuez à la mise en place de nouvelles architectures, à la stabilisation des environnements historiques et à la transition des activités du BUILD vers le RUN, avec des enjeux forts de performance, de disponibilité et de fiabilité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Participer à la conception et à la mise en place de nouveaux environnements Data - Finaliser et optimiser des environnements existants (haute disponibilité, performance) - Assurer la montée de version des composants et produits Data - Analyser et résoudre les incidents et problèmes récurrents (RUN) - Contribuer à la rédaction des documents d’architecture (DAT) et documentations techniques - Accompagner la transition BUILD to RUN et assurer le suivi des environnements en production
3067 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous