Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 437 résultats.
Freelance
CDI

Offre d'emploi
Architecte technique Sécurité AWS - Data (H/F)

AVA2I
Publiée le
Amazon S3
AWS Cloud
Data Lake

4 ans
Île-de-France, France
Dans le cadre de la mise en place et de la sécurisation d’une plateforme Data Cloud, vous intervenez sur des architectures basées sur AWS intégrant des composants Data Lake, Data Warehouse et des services de stockage type S3. L’objectif est de garantir la sécurité des accès, la protection des données et la conformité dans un environnement à forts enjeux. 🛠️ Environnement technique Cloud : AWS Stockage : Amazon S3 Data : Data Lake / Data Warehouse Sécurité : IAM (Identity & Access Management) Outils : CI/CD, Infrastructure as Code (Terraform/CloudFormation – souhaité 🚀 Missions 🔐 Sécurité Cloud Définir et appliquer les politiques de sécurité AWS Gérer les accès via IAM (rôles, policies, permissions) Mettre en œuvre les principes de least privilege ☁️ Architecture Participer à la conception d’architectures sécurisées Sécuriser les flux et le stockage de données (S3, Data Lake) Contribuer à la robustesse des plateformes Data 📊 Gouvernance Assurer la conformité (RGPD, normes internes) Mettre en place des contrôles et audits de sécurité Participer à la gouvernance des accès et des données ⚙️ Amélioration continue Automatiser les contrôles de sécurité Mettre en place du monitoring et des alertes Promouvoir les bonnes pratiques sécurité auprès des équipes
Freelance

Mission freelance
Data Engineer Snowflake (h/f)

emagine Consulting SARL
Publiée le

1 mois
111 €
92000, Nanterre, Île-de-France
Nous recherchons un Data Engineer pour rejoindre une équipe dynamique. Ce rôle exige une expertise confirmée sur Snowflake et comprend le développement d'applications data pour explorer les insights et améliorer l'expérience client. Vos missions: Développement d’applications data pour explorer les insights et améliorer l’expérience client. Création de dashboards (Tableau) pour des analyses claires et pertinentes. Transformation et modélisation des données (dbt, Snowflake) en collaboration avec les data engineers. Optimisation des performances (rapidité, fiabilité des requêtes). Gestion des ressources cloud pour maîtriser les coûts. Conception UI/UX pour des interfaces intuitives et engageantes. Définition des exigences techniques pour la mise en production. Votre profil: Expérience Snowflake (obligatoire), Excellent sur python, SQL Tableau software gros plus Expérience de data engineer (minium 5 ans), capacité à prendre le lead, très bon communicant Anglais opérationnel Expérience souhaitée sur le traitement de données IA
CDI
Freelance

Offre d'emploi
Ingénieur Systèmes & Réseau - Secret Défense (H/F)

Link Consulting
Publiée le
Réseaux
Stormshield

12 mois
50k-60k €
400-450 €
92800, Puteaux, Île-de-France
Notre client, acteur majeur évoluant dans un environnement à forte exigence de sécurité, recherche son futur Ingénieur Systèmes & Réseaux (H/F) pour son site situé à Paris La Défense, dans le cadre d’une mission longue en portage salarial, au sein d’un contexte confidentiel relevant du Secret Défense. Vos missions : Intégré à une équipe technique expérimentée, vous aurez pour principales responsabilités : * Administrer et maintenir les infrastructures systèmes et réseaux * Garantir la disponibilité, la performance et la sécurité des environnements * Participer aux projets d’évolution et de modernisation des infrastructures * Contribuer aux actions de supervision, de support de niveau avancé et d’optimisation * Appliquer strictement les procédures de sécurité et de conformité * Rédiger et maintenir la documentation technique * Collaborer avec les équipes internes dans un cadre confidentiel Les compétences techniques * Administration systèmes (Linux et Windows Server) * Réseaux : TCP/IP, LAN/WAN, routage, VLAN, firewall * Outils de supervision et de sauvegarde * Bonnes pratiques de sécurité des systèmes d’information * Capacité à évoluer dans un environnement cloisonné et normé
Freelance

Mission freelance
Data Engineer Senior

Comet
Publiée le
Azure
Data Lake
Pandas

24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
Freelance

Mission freelance
Enterprise Architect – Data Mesh

Signe +
Publiée le
Data Mesh

12 mois
660 €
Toulouse, Occitanie
🎯 MISSIONS Implémenter une architecture Data Mesh au sein d'un SI industriel complexe Concevoir la Data Service Layer (couche de services de données) Produire les dossiers d'architecture (cibles, patterns, gouvernance) Définir les standards de la donnée orientée domaine Accompagner les équipes produit dans l'adoption du modèle Data Mesh Assurer l'alignement avec les contraintes sécurité & conformité 👤 PROFIL RECHERCHÉ Enterprise Architect confirmé – spécialisation Data Mesh Expérience sur des environnements grands comptes / industrie appréciée Maîtrise des concepts : Data Domain, Data Product, Self-serve platform, Federated governance Compétences en rédaction de dossiers d'architecture Capacité à intervenir en autonomie dès le démarrage
Freelance
CDI

Offre d'emploi
Data Engineer GCP / Spark – Plateforme Data (H/F)

Etixway
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
40k-65k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur des médias, nous recherchons un Data Engineer confirmé pour intervenir au cœur d’une plateforme data stratégique. Tu rejoindras une équipe en charge de la collecte, la centralisation et la transformation de données issues de sources hétérogènes , avec des enjeux forts de volumétrie, de performance et de qualité. Tes principales missions : Concevoir, développer et maintenir des pipelines data robustes et scalables Assurer l’ ingestion et la transformation de données multi-sources Optimiser les performances des traitements (Spark / SQL) Orchestrer les flux de données via Airflow Structurer et organiser le stockage des données Participer à l’ industrialisation des traitements (CI/CD, infrastructure) Garantir la qualité, la sécurité et la fiabilité des données Contribuer aux échanges techniques et à l’amélioration continue des pratiques
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Intégration HPC – Simulation Numérique

RIDCHA DATA
Publiée le
Calcul hautes performances (HPC)
Google Cloud Platform (GCP)
Linux

1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’un programme stratégique autour de la simulation numérique , une grande organisation industrielle renforce ses équipes afin d’optimiser le développement de produits via des solutions de calcul avancé (HPC). La simulation numérique joue un rôle clé dans la réduction des coûts de prototypage et l’amélioration des performances, en s’appuyant sur un écosystème de logiciels métiers spécialisés (acoustique, thermique, etc.). 🚀 Missions principales Mise en place et maintien d’environnements Linux (Shell / Bash) Développement de scripts pour orchestrateurs HPC (Slurm, LSF) Installation et configuration de postes Windows 10/11 (Batch, PowerShell, XML) Monitoring des ressources (serveurs, licences) Diagnostic des incidents multi-environnements : Windows Linux Orchestrateurs Logiciels de simulation Utilisation de MPI pour le calcul distribué (multi-nœuds) Accompagnement des utilisateurs (support, compréhension des besoins) Participation à des projets en mode Agile Contribution à des environnements Cloud (notamment GCP) 📦 Livrables attendus Documentation technique (conception) Code source développé Tests unitaires et d’intégration
CDI

Offre d'emploi
INGÉNIEUR SYSTÈMES ET RÉSEAUX CONFIRMÉ H/F

Savane Consulting
Publiée le

60k-75k €
Versailles, Île-de-France
Contexte du poste : Nous recherchons un Ingénieur Systèmes et Réseaux confirmé afin de renforcer l’équipe infrastructure de notre client et de participer à l’exploitation, l’administration et l’évolution des environnements techniques du groupe. Vous interviendrez sur des projets fonctionnels à forte composante infrastructure, en lien avec les chefs de projet, les architectes et l’infogérant. Missions principales : Accompagner un chef de projet fonctionnel dans le cadrage technique des besoins ; Définir, en coopération avec les architectes, une solution technique adaptée ; Challenger et cadrer les besoins exprimés par les métiers ; Rédiger les documentations techniques associées : DAT, DEX, DIT ; Rédiger les expressions de besoin technique à destination de l’infogérant ; Construire un macro-chiffrage et un planning d’implémentation ; Suivre la construction de la solution technique réalisée par l’infogérant ; Participer à la reprise en exploitation des solutions mises en œuvre.
Freelance

Mission freelance
Data Quality Engineer Senior

INFOGENE
Publiée le
Bloomberg
Data Engineering
Data quality

6 mois
500-1k €
Paris, France
Contexte & Enjeux Les données de marché de référence (futures, yields, FX, indices, obligations) présentent de nombreuses anomalies non détectées, non tracées et souvent corrigées manuellement. Cette situation entraîne une perte de temps significative et impacte la confiance des équipes Research & Prediction. Objectif de la mission Structurer, fiabiliser et industrialiser les contrôles de qualité sur les données de marché, avec une approche à la fois technique et analytique. Les 3 axes principaux 1. Audit Cartographie complète des contrôles existants Identification des gaps par classe d’actifs Construction d’un backlog priorisé 2. Implémentation Développement d’une librairie modulaire de quality checks en Python Remédiation des données historiques Gestion des escalades avec les fournisseurs de données (Bloomberg) 3. Industrialisation & IA Mise en place d’un monitoring automatisé (dashboards KPI, alerting) Industrialisation des contrôles en production Réalisation d’un POC basé sur des LLMs pour : Génération semi-automatique de contrôles Analyse des causes racines des anomalies
Freelance

Mission freelance
Ingénieur DATA

ROCKET TALENTS
Publiée le
Apache Kafka
Big Data
Cloudera

1 an
400-460 €
Saint-Quentin, Hauts-de-France
Ingénieur DATA : . Contexte Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. 3. Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2. 4. Profil Recherché Le prestataire devra justifier des compétences suivantes : • Expérience avérée en administration et support de Cloudera Data Platform. • Maîtrise de Kafka (optimisation, gestion des performances et de la scalabilité). • Capacité à analyser et résoudre des incidents critiques sur un environnement Big Data. • Maîtrise des langages Shell, Ansible et Python pour l’automatisation et le déploiement. • Expérience sur les bases de données Elasticsearch. • Capacité à intervenir sur des problématiques de dimensionnement et d’optimisation des performances. • Autonomie, rigueur et capacité à être force de proposition. • Une connaissance de la plateforme Dataiku serait un plus. • Capacité à collaborer avec des équipes multi-disciplinaires et à transmettre des connaissances. • Bonnes connaissances de Linux (à l'aise avec un terminal).
Offre premium
Freelance

Mission freelance
Administrateur Système DevOps (F/H)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Administration système
Docker
Monitoring

7 mois
300-430 €
Gradignan, Nouvelle-Aquitaine
Nous recherchons pour notre client, (Référencement direct FreelanceRepublik depuis 2019), un(e) Administrateur Système DevOps . Objet de la prestation : La prestation se déroulera dans le service « Socle Développement » ayant en charge la gestion de l’ensemble des outils de développement sur les technologies Systèmes Ouverts de l'entreprise : - IDE Java : Eclipse VSC - Fabrication : Maven - Gestion de sources : Svn / GIT - Gestion des livrables : Artifactory - Bug Tracker : JIRA / Kanboard - Gestion documentaire : Confluence / XWiki - Qualimétrie : SonarQube / Xray / CASR - Tests fonctionnels : Squash TM - Tests automatisés : Squash Autom - Intégration Continue : Jenkins - Industrialisation / GCL : Jenkins - Infrastructure : VM / Kub L’activité sur les outils est de 2 types : - administration technique (installation, montée de version, gestion des incidents, …) - administration fonctionnelle (administration, guide d’utilisation, bonnes pratiques, ...)
Freelance
CDD
CDI

Offre d'emploi
Testeur Data confirmé

SARIEL
Publiée le
Azure
Databricks
Google Cloud Platform (GCP)

12 mois
40k-53k €
320-420 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne (dans le 92) un testeur Data confirmé (4-10 ans d’expérience). Objectif Global : Testeur confirmé avec compétences Data Analyste Contrainte forte du projet Remplacement d'un prestataire en fin de mission Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks ou GCP ou big Query- Confirmé - Important Environnement azure microsoft - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour notre client. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Savoir Faire : - Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste - Profil technico fonctionnel - SQL Server - JIRA/XRAY - Environnement Microsoft azure - DataBricks ou GCP ou big Query - Utilisation de l'IA dans les tests (Génie Code) - Outils de reporting Power BI, Microstratégy Savoir Etre : - Collaboratif - Entraide - Force de proposition - Implication/Engagement - Amélioration Continue - Communication fluide - Qualité organisationnelle Définition du profil ORGANISATION ET CONCEPTION DES TESTS Contribue à l'élaboration de la stratégie de tests avec le Test Lead, en lien avec les Chefs de Projets et/ou Responsables d'applications Analyse les exigences utilisateurs et les spécifications fonctionnelles ou techniques fournies par le Responsable d'application Estime les charges DÉROULEMENT ET REALISATION DES TESTS En fonction de la stratégie établie, rédige les plans de tests, identifie les prérequis et spécifie les jeux de données (données de tests, résultats attendus) qu'il fait valider par le CP et/ou Responsable d'Application Réceptionne son environnement de tests et s'assure de sa conformité en termes de versions applicatives Exécute les tests manuellement ou en utilisant des outils d'exécution automatique des tests Consigne les résultats de tests et remonte les anomalies au Chef de Projet et/ou Responsable d'application Met à jour le référentiel de tests Peut coordonner une équipe d'analystes de test en tant que référent SYNTHESE DES TESTS Réalise un bilan des tests effectués Date de démarrage 08/06/2026 Lieu de réalisation CHATILLON (92) Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Freelance

Mission freelance
Architecte Data

Bifora
Publiée le
Big Data
CICS (Customer Information Control System)
Cloudera

12 mois
500-680 €
Île-de-France, France
Nous recherchons un Architecte Data / Expert Data Modélisation pour le compte d'un de nos clients dans le secteur de l'assurance. Le consultant intégrera l'équipe Architecture Solutions SI de la Direction Stratégie SI Architecture et Cloud. Il accompagnera les projets dans la définition de leur architecture data et prendra en charge la modélisation fonctionnelle des objets métiers. Rôles et responsabilités Organiser et suivre l'accompagnement des projets dans la définition de leur architecture de solution au niveau data Définir, promouvoir, enrichir et suivre la mise en œuvre du cadre normatif de constitution du SI Réaliser la modélisation fonctionnelle des objets Métiers dans le cadre du Modèle Fonctionnel Groupe Mettre à jour la cartographie dans Mega HOPEX Accompagner les équipes de réalisation dans la définition des Modèles Logiques de Données (MLD) déclinés depuis le MFC Apporter un support technique DBA Études sur les Modèles Physiques de Données (MPD) Définir les architectures solutions (fonctionnelles/data) de la phase de faisabilité à la mise en production Produire les livrables d'architecture (dossiers, mise à jour du référentiel) Présenter les solutions envisagées dans les instances de validation Délivrer des avis d'architecture et porter l'engagement vis-à-vis du demandeur Coordonner l'activité d'architecture sur certains périmètres
Freelance

Mission freelance
Data Analyst Risque & Recouvrement "H/F"

Insitoo Freelances
Publiée le
Data analysis
Snowflake
SQL

2 ans
400-569 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analyst Risque & Recouvrement "H/F" à Lille, France. Contexte : Nous recherchons un(e) Data Analyst expérimenté(e) , disposant d’une solide expertise en risque de crédit conso , capable de transformer la donnée en analyses actionnables pour les équipes métier et le management. La maîtrise de la chaîne de valeur du risque et de la chaîne recouvrement de bout en bout (de l’entrée en impayé jusqu’au contentieux / cession) est un atout clé. Les missions attendues par le Data Analyst Risque & Recouvrement "H/F" : Apporter un second regard expert sur le pilotage du recouvrement : analyse globale de la chaîne, identification de ce qui fonctionne / fonctionne moins Structurer, auditer et assembler les analyses existantes , en donnant de la lisibilité via des dashboards simples et efficaces Documentation et pédagogie auprès des équipes (risque, relation client, data) Profil recherché Profil senior (5 ans minimum) , formation Bac+5 en statistiques / data Expérience confirmée en crédit consommation / risque de crédit / recouvrement À l’aise pour interagir avec tous niveaux hiérarchiques, avec une forte capacité de pédagogie et de vulgarisation
CDI

Offre d'emploi
DATA ENGINEER CONFIRMÉ DATABRICKS / SPARK (H/F)

GROUPE ALLIANCE
Publiée le

55k-58k €
Paris
ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur du retail, tu participeras à la conception, à la mise en place et à l’optimisation d’architectures data robustes et évolutives au service de la valorisation de la donnée : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 8 ans minimum en ingénierie de la donnée ou en développement data Expert(e) en AZURE, DATABRICKS, SPARK, PYTHON, SQL Habile avec les outils CI/CD, AZURE DEVOPS, AGILE, JIRA AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Freelance

Mission freelance
Administrateur systèmes et réseaux H/F

Grafton
Publiée le
Administration système
Administration Windows

6 mois
360-640 €
Quartier du Montparnasse, France
Administrateur Système & Réseau – Paris Montparnasse Contexte Notre client recherche un administrateur système & réseau pour reprendre l’administration d’un parc d’environ 100 serveurs hébergeant les applications clients. La mission s’effectue en collaboration avec un infogérant. Missions principales Administration système (Windows/Linux selon parc) Supervision et maintien en conditions opérationnelles des serveurs Suivi des flux applicatifs et mise en place d’une supervision adaptée Gestion des incidents et coordination avec l’infogérant Participation à l’amélioration de l’infrastructure et à l’automatisation Transfert de connaissances prévu avec la ressource sortante
5437 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous